묻고 답해요
140만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
실습2 데이터셋 질문
안녕하세요 수강생입니다.https://drive.google.com/file/d/1eeCo0WKkh1t0v6o_4lIOhR59SzKYUoX9/view?usp=share_link해당 링크에서 데이터셋을 다운받을 수 있다고 말씀주셨는데, 이 공유된 데이터셋에서는 3DHPE/datasets/data_2d_golfswing.npz, 3DHPE/datasets/data_2d_h36m_cpn_conf.npz 파일이 존재하지 않습니다.위의 두 실습 데이터셋은 어디서 받을 수 있을까요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
엥커박스 크기 및 중복 생성 방지에 관한 질문
좋은 강의 찍어주셔서 감사합니다. 해당 강의를 토대로 공부를 하며 모델을 제작 중에 학습 후 inference_detector을 돌리고 나면 같은 물체를 여러번 잡는 문제가 발생합니다. 또한 이용중인 이미지의 크기가 작아서 인지 엥커박스의 크기가 전체 화면을 잡아주는 경우가 발생하고 있습니다. 그래서 이를 방지하고자 rpn_head의 anchor_generator를 수정해보았으나 학습이 안되는 모습을 관찰하였습니다. 사용 모델 :faster_rcnn_r50_caffe_fpn_mstrain_3x_coco.py 이때 사용 이미지의 class는 1개였습니다. 어떤 식으로 이것을 수정할 수 있을까요? 또한 어디 부분의 강의를 들었을 때 이와 관련된 내용을 알 수 있을까요?감사합니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 교수님 yolov5 어노테이션 파일 질문드립니다
제가 학습데이터를 받았는데 처음 보는 라벨링 데이터여서 질문드립니다...{"info": [{"name": "Data", "description": "Exported from Superb AI Suite", "url": "https://www.superb-ai.com", "date_created": "2022-01-22 13:27:01.142673"}], "license": [{"name": "", "url": ""}], "images": [{"id": "817233_597", "width": 2800, "height": 2100, "file_name": "817233_597.jpg", "license": "", "date_created": "2022-01-22 13:27:01.142733"}], "annotations": [{"id": "0b2e2051-8bdb-4a3a-92db-436785ff4229", "image_id": "817233_597", "category_id": 223, "segmentation": [{"x": 858.5787945918701, "y": 674.2641079965543}, {"x": 859.5977701409895, "y": 650.3181825922454}, {"x": 863.6736723374677, "y": 636. ... 0664547656428, "y": 671.7166691237555}, {"x": 840.2372347077185, "y": 669.1692302509566}, {"x": 845.8416002278759, "y": 675.7925713202336}, {"x": 858.5787945918701, "y": 674.2641079965543}], "bbox": [767.8899707202322, 634.014573806333, 203.79510982390514, 106.99243265755024], "area": 21804.534563772224, "isSmallType": "N"}], "categories": [{"id": "22b84a7a-3cfe-4cfc-a597-293a6c9e5d42", "class_id": 223, "class_name": "비행기", "superclass_id": 597, "superclass_name": "비행객체"}, {"id": "a5f38f2a-5f4b-443e-bf3e-3c14fc3b3cad", "class_id": 224, "class_name": "헬리콥터", "superclass_id": 597, "superclass_name": "비행객체"}, {"id": "6dac6f54-a2c0-453a-8e40-c609a5f880fb", "class_id": 225, "class_name": "전투기", "superclass_id": 597, "superclass_name": "비행객체"}, {"id": "8f43c9fb-ff34-41db-ad7f-b2c9fb661fe3", "class_id": 226, "class_name": "패러글라이딩", "superclass_id": 597, "superclass_name": "비행객체"}, {"id": "60670ead-f344-4546-a60e-bbf9dfbe3551", "class_id": 227, "class_name": "드론", "superclass_id": 597, "superclass_name": "비행객체"}]}이것은 어떤 형식이며 yolov5 포멧으로 변경하려면 어떡해야 할까요..?감사합니다.- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
실습코드는 어디서 다운 받나요?
소스코드 링크가 없습니다. 어디서 다운 받으면 되나요?
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
우분투 설치 관련 자료
안녕하세요.우분투 환경세팅 - 크롬설치 동영상을 보면 준비된 우분투 설치 관련 문서를 보고 우분투를 설치하라고 되어 있는데 우분투 설치 관련 문서를 어디서 받을수 있나요?
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
강의자료 공유 여부
안녕하세요. 수강생 입니다.혹시 강의자료를 공유해주실수 있으신지요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
강의에서 소개된 모델중 현 프로젝트에 가장 어울리는 모델
안녕하세요 강사님. 정말 좋은 강의 감사합니다. 현재 Fast R-CNN 까지의 학습을 완료한 상태입니다.친절하고 꼼꼼한 설명덕분에, AI 에 완전히 입문입에도 불구하고 이해가 잘 되며 강의를 따라가고 있습니다.학교 프로젝트에서 AI 역할을 맡으면서 이 강의를 수강하게 되었습니다. 제가 아예 AI 쪽에 문외한이었다보니, 강사님께서 소개해주시는 모델중에서 어떤 것을 선택해야하는지 감이 잡히지 않습니다. 최종 선택은 저의 몫이긴 하나, 강사님께서 고견을 실례를 무릅쓰고 여쭤보고 싶습니다.저희 프로젝트에서 AI 의 역할은 다음과 같습니다.1. 웹캠 또는 웹카메라를 이용하여 식물을 촬영 (실시간은 아니어도 되고, 하루에 한번은 촬영을 해야합니다.)2. 해당 사진 / 영상을 통해 다음과 같은 정보를 식별 i) 잡초 여부 ii) 병충해 여부 iii) 과일이 있다면, 과일의 익은 정도 (상했는가 YES/NO 로 classfication 도 괜찮습니다.) iv) 얼만큼 자랐는가 - iv) 는 필수이고 i)~iii) 중에선 하나 정도 진행하고자 합니다.이를 수행하기 위해선 어떤 모델을 선택하는게 좋을까요? 그리고 해당 AI 서버를 구축하기 위해선 어떤 다른 지식들이 필요한지 키워드 정도만 알려주시면 정말 감사하겠습니다. (키워드만 알려주시면 나머지 학습은 제가 하겠습니다.)
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mm_faster_rcnn_train_coco_bccd관련 질문입니다.
gup를 1 이상 하고 싶을 때 사용하라고 하신 코드를 실행하니 아래와 같은 에러가 계속 생기네요.(맨 마지막 줄 outputs에서 sigle_gpu_test 함수를 sigle_gpu_test_batch 함수로 바꿔서 실행하셔야 합니다.) AttributeError: 'MMDataParalle' object has no attribute 'show_result'혹시 올려주신 코드가 잘 못 됐을까 mmdetection github에서 직접 확인해 봤지만 코드는 동일한 것으로 확인 했니다. 혹시 해결 방법을 아시는지 여쭙니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Mask R-CNN 처리 속도
안녕하세요, 선생님. 영상에서 실시간 객체 탐지가 가능한 semantic segmentation모델을 개발하고싶습니다.보통 mask r-cnn에서 처리속도가 5fps라고 하는데 강의에서 제공된 mask r-cnn도 처리속도가 5fps인가요? 모델의 이러한 영상 처리속도는 어떻게 알 수 있나요?처리속도를 높이려면 어떻게 해야하나요?감사합니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Mac jupyter notebook 영상 읽어들이지 못하는 문제
교수님 안녕하세요. OpenCV를 통해 영상 처리를 진행하는 과정에서 문제가 발생해 질문 드립니다.import cv2 video_input_path = './data/Night_Day_Chase.mp4' video_output_path = './data/Night_Day_Chase_out.mp4' cap = cv2.VideoCapture(video_input_path) codec = cv2.VideoWriter_fourcc(*'XVID') vid_size = (round(cap.get(cv2.CAP_PROP_FRAME_WIDTH)),round(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))) #(200, 400) -> (열, 행) vid_fps = cap.get(cv2.CAP_PROP_FPS ) vid_writer = cv2.VideoWriter(video_output_path, codec, vid_fps, vid_size) frame_cnt = int(cap.get(cv2.CAP_PROP_FRAME_COUNT)) print('총 Frame 갯수:', frame_cnt, 'FPS:', round(vid_fps), 'Frame 크기:', vid_size)위의 코드를 실행시켰을 때 다음과 같은 결과 값이 출력됩니다.위의 결과 값을 보고 미리 저장해두었던 Night_Day_Chase.mp4 파일을 확인해본 결과, 주피터노트북 상에서는 영상이 아예 실행되지 않지만, local 노트북 자체에서는 영상이 정상적으로 실행됨을 확인할 수 있었습니다. 아래에 주피터 노트북 화면과, 주피터 노트북에서 영상 실행 시 나타나는 화면 사진 첨부합니다.주피터 노트북 자체의 문제일까요? 어떤 점이 문제인지 명확히 파악이 안됩니다.조언 해주시면 감사하겠습니다. 현재 제 개발환경은 다음과 같습니다.Mac Ventura 13.1jupyter notebook 6.5.4OpenCV 4.5.1Python 3.9.0 감사합니다 :)
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
MHCanonPose & MHCanonFormer
MHCanonPose 와 MHCanonFormer의 차이점이 혹시 무엇인가요? 이름만 다른건가요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
selectivesearch()의 size에 대해 질문 있습니다.
교수님 안녕하세요. 양질의 수업을 제공해주신 덕분에 열심히 공부를 하고 있습니다.다름이 아니라 selectivesearch() 함수의 반환 값 중 하나인 size와 selectivesearch() 함수의 파라미터 min_size의 차이점에 대해 여쭙고 싶습니다.제가 이해한 바로는 size는 bounding box 내에 존재하는 object들의 크기이며, min_size는 region proposal 시에 영역 내의 object의 최소값이라는 것입니다.따라서 a. 후보 bounding box들 중에서 object의 크기가 10000이 넘는 것들을 골라내는 방식과 b. 애초에 object의 크기가 10000이 넘는 bounding box만을 후보로 하는 방식의 결과값이 동일할 것이라고 생각했고, 아래의 두 코드의 결과값이 동일하게 나올 것이라고 판단했습니다.a 방식_, regions = selectivesearch.selective_search(img_rgb, scale=100, min_size=2000) cand_rects = [cand['rect'] for cand in regions if cand['size'] > 100000] red_rgb = (255, 0, 0) img_rgb_copy = img_rgb.copy() for rect in cand_rects: left = rect[0] top = rect[1] right = left + rect[2] bottom = top + rect[3] img_rgb_copy = cv2.rectangle(img_rgb_copy, (left, top), (right, bottom), color=red_rgb, thickness=2) plt.figure(figsize=(7, 7)) plt.imshow(img_rgb_copy) plt.show()b 방식_, regions = selectivesearch.selective_search(img_rgb, scale=100, min_size=10000) cand_rects = [cand['rect'] for cand in regions] red_rgb = (255, 0, 0) img_rgb_copy = img_rgb.copy() for rect in cand_rects: left = rect[0] top = rect[1] right = left + rect[2] bottom = top + rect[3] img_rgb_copy = cv2.rectangle(img_rgb_copy, (left, top), (right, bottom), color=red_rgb, thickness=2) plt.figure(figsize=(7, 7)) plt.imshow(img_rgb_copy) plt.show() 그러나 결과는 다음과 같이 서로 다른 결과 값을 보였습니다. a 방식b 방식제가 어떤 부분을 잘못 이해한건지, 혹은 어떠한 부분을 놓친건지 여쭙고 싶습니다. 감사합니다 :)
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
오토인코더 sigmoid
오토인코더 예시에서 ReLu대신에 sigmoid를 사용하는 이유는 무엇인가요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
AutoML EfficientDet Inference 수행 결과 분석 및 시각화 질문
config.nms_configs.score_thresh = 0.4 이렇게 설정했기 때문에 confidence score가 0.4 밑인 것을 걸러낸다고 하셨습니다. 제가 알고 있기로는 nms에서 threshold값을 0.4로 준다는 것은 confidence score을 내림차순으로 정렬하고 iou가 threshold 이상인 값을 삭제한다고 알고 있었습니다만 AutoML에서 말하는 confidence score는 다른 의미인가요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
에어리얼 스페이싱? 이 뭔가요
Ratinanet의 FPN 강의를 듣고 있었습니다. 각 구간별 피처맵에서 UPSapleing하여 더해준 후 3X3 covolution 연산을 해준다고 들었는데 그 후 3X3 convolution 연산을 하는 이유가 에어리얼 스페이싱 때문이라는 거 같은데 이게 맞는건지 여쭙고 싶습니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
spp에서 궁금한점이 있습니다.
8*8 region proposal 영역이 아닌 8*9의 region proposal 영역이 있을 때 이를 정확히 4분면으로 나눌 수 없는데 이때는 패딩을 더하나요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
confidence score의 정의에 대해
confidence score가 어떤 곳에서는 class score인지 object 인지 아닌지를 판단하는 object score인지 아니면 어떤 곳에서는 저 두개의 곱으로도 나타내더군요.혹시 정의에 대해서 확인해봐도 되겠습니까
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
opencv Yolo v3 inference
안녕하세요. 권철민 강사님유익한 영상 잘 보고 있습니다. 현재 opencv로 Yolov3를 inference하는 파트를 보고 있습니다.nms threshold 값이 예를 들어nms_confidence = 0.4이면 한 상자당 confidence score가 가장 높은 상자를 뽑아 for문을 돌면서 iou 값이 nms_confidence이상이면 제거하는 데 쓰이는 것이 맞는지 확인하고 싶습니다. 그리고 85개의 차원중에 5번째에 있는 객체가 있는지 없는 지를 판단하는 confidence (detection[5])은 안쓰는 지 여쭙고 싶습니다. 본 코드에서는 class_score 부분만 if문에 조건으로 사용하여 의아한 기분이 들어 질문 드립니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요. 교수님.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. mmdetction에서 각 객체 별로 map를 도출하는 방법이 있을까요? 만약 도출하려면 어디서 수정을 어떻게 해야될까요...도움 부탁드립니다!!..
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
개별 Json 어노테이션 파일 및 2개 이상의 라벨링 속성
안녕하세요. 강의 들으면서 이미지 디텍션에 깊은 이해를 하게 되었습니다.2가지 문의 드립니다.첫번째, 학습데이터를 입수했는데, PASCAL VOC와 같이 이미지별로 annotation이 존재하나, XML이 아닌 JSON 형식입니다. COCO 또는 YOLO 포맷으로 변환하고 싶습니다.이런 경우는 자바 프로그램등을 이용하여 JSON을 XML로 변환후, COCO나 YOLO로 변환해야 하는 방법을 사용하는지, 적정한 변환 방법이 궁금합니다. 두번째, 이미지의 라벨이 2가지 이상 일때는 어떻게 학습데이터를 구성해서 학습해야 하는지 궁금합니다.만약에 공작기계의 주요 부품과 상태를 진단한다고 할때,부품은 베어링부, 조인트부, 절삭부의 3가지가 있고,상태는 normal과 abnormal의 2가지고장상세는 깨어짐, 비틀림의 2가지 있다고 했을때,디텍션에서 조인트부-normal 또는 조인트부-abnormal-깨어짐, 이런식으로 디텍션을 할 수 있도록 학습시키려고 할때 어떻게 해야하는지 궁금합니다.감사합니다. 더운 여름 건강 유의하십시요.