월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
강사님 mmdet.apis import중 에러가 발생하는 원인을 알고 싶습니다.
안녕하세요. 강사님 mmdet.apis import중 아래와 같은 에러가 생겼습니다. 처음 not found model에러는 런타임 다시 시작후, 사라졌는대 사진과 같은 에러가 발생했습니다.mmcv-full -f로 설치해도 동일한 에러가 발생합니다.Python : 3.8torch : 1.13.1cuda : 11.6환경은 colab입니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다!
선생님 너무 좋은 강의 감사합니다! 이해가 잘 됩니다. 다만 제가 궁금한게 있는데 실무에 가게되면 이러한 소스코드를 하나 하나 작성할 수 있는 개발자가 되어야 하는건가요? 실습파트를 보면서 '아 이렇게 실행이 되는구나' 정도로만 알고 넘어가고 있는데, 어떠한 방향으로 학습을 진행하면 좋을지 조언을 구하고 싶습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
선생님 세그멘테이션관련 질문을 드립니다 ㅎ
선생님 안녕하세요이번에 선생님강의 머신러닝2개, 컴퓨터비젼2개를 모두 완강한 열혈팬 회사원입니다 ㅎㅎㅎ선생님 강의 덕분에 이번에 회사에서 세그멘테이션을 담당하게 되엇는데, 세그멘테이션강의관련 질문이 잇어서 이렇게 메일을 드립니다 ㅎ 바쁘시겟지만 조언 좀 부탁드리겟습니다<배경>이번에 검출할 객체(첨부파일)는 바늘과 같이 아주 가늘고 긴 객체(섬유)인데 이미지1장당 객체전체면적이 0.5 - 2%밖에 없는 아주 미세한 객체입니다. 실제원본데이터에서도 객체는 눈으로 자세히 보아야 검출할수 잇을정도입니다 ㅎ (학습데이터30장, 학습마스크영상 30장, 테스트데이터 5장 ). 사용모델은 깃헙에서 공개한 U-NET모델로 세그멘테이션을 수행햇는데, 첫epoch부터 정확도가 90%이상, 로스가 0.1이하로 상당히 높은 성능을 보엿는데 예측결과이미지영상에는 아무것도 검출이 안된 상태(완전검은영상)입니다. 참고로 다른 이미지데이터를 가지고 U-NET모델로 세그멘테이션을 수행해본결과 예측결과도 상당히 잘되어서 모델에는 문제가없는것으로 판단햇습니다.여기서 조언을 좀 부탁드리겠습니다.1> 정확도는 90%이상, 로스가 0.1이하인데 아무것도 검출이 안되엇다는 것은 , 객체가 너무미세해서 검출을 못한걸로 이해해도 되는지요?2> 이런경우 성능을 올리기 위한방법으로 오그멘테이션방법도 잇는데, 특히 사용해야할 오그멘테이션방법이 잇는지요? 참고로 확대기능등을 사용햇습니다.3> 다른방법으로 선생님CNN강의에서사용한 mark-rcnn 방법도 해볼려고 하는데, 어떻게 생각하시는지요?글을 적다보기 글이 너무 길어져서 죄송합니다, 바쁘시겟지만 조언 좀 부탁드리겟습니다 ㅎ
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mm_mask_rcnn_train_balloon에서 좌표에 0.5를 더하는 이유?
mm_mask_rcnn_train_balloon.ipynb 실습 convert_balloon_to_coco() 함수 구현에서 poly = [(x + 0.5, y + 0.5) for x, y in zip(px, py)]위와 같이 원래 좌표에 0.5를 더하는 이유를 알고 싶습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Soft max Class score 질문입니다!
오른쪽 처럼 car: 0.8 이라고 되어있는데 이는 vgg/resnet 학습시에 label 데이터와의 대조를 통하여 산출한 값인가요?현업에서쓰는 label 데이터는 주로 어떤걸 쓰는지 궁금합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Cofidence threshhold 질문입니다!.
오른쪽 0.9 흰색 박스 안에 차의 Confidence threshold를 0.9라는 값이 나오는 것은 "유사도 90%미만의 이미지는 적용 하지 않는다."의 의미로 해석을 했는데, 이 때도 Object Localization을 통해 바운더리 박스를 찾고 난 뒤 그 이미지와의 유사도가 90%이하면 버린다. 라고 해석했는데 맞나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
실습환경
오래 전에 공부하려고 결제했다가 이제서야 공부하려는데, 그때 구글 gpu 크레딧을 다 사용해버렸는데 혹시 그냥 주피터에서도 실습할 수 있나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
BBox 좌표 Training관련 문의드립니다.
안녕하세요. 늘 감사한 마음으로 수업을 듣고 있습니다.답변도 늘 달아주셔서 감사합니다.제가 직관적으로 이해가 되지 않아서 문의드립니다.two-stage object detection의 경우S.S 를 거치든, RPN을 거치든 Region proposal 된 Image들을 Resize 한 후, 그 이미지들만 다음 단계의 feature extractor를 통하고 그 값들을 classification하던가 bbox regression 하는 것으로 이해했는데요classification이야 잘라진 object 이미지가 들어가니 학습 가능하다고 이해되도bbox의 경우 잘라진 이미지만 들어가고 전체 이미지나 상대적 위치 정보가 input에 들어있지 않은데, 뭘 가지고 학습하는 건지 직관적으로 이해되지 않습니다.그냥 이미지에 따른 라벨 외우기인가요?예를 들어 차(car)라는 영역만 짤려서 들어가는데 원래 그림에서 어느 위치에 있는지 위치 정보 찾으라는게 가능한가 해서요. (원래 이미지는 보여주지 않은채)training image마다 object 위치 값을 외우는 식의 학습인가 해서 문의드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Black & White 의 이미지 인식 및 segmentation
항상 강의 잘 보고 있습니다. 감사합니다.제가 도면을 인식하는 모델을 만들어 보려고 하는데요,아시다시피 모든 건축 도면들은 대부분 일반적인 jpg 이미지와는 달리 black & white 이고 대부분이 선과 패턴으로 이루어져 있습니다. 또 치수, text & 리드선 이 있구요. 이런 도면을 인식한다고 가정했을때, 어떤 방법이 가장 효율적이거나 혹은 인식 성공률이 높을까요? 지금까지 제가 해온방법은 CVAT 을 사용해서 하나하나 레이블링을 해오고 있는 중입니다. 아래의 이미지처럼요. 현재 계속 이미지를 계속 레이블 중이긴 합니다만 저 세그멘테이션 inferential 의 성능이 얼마나 나올지.. 이게 맞는 방법인가??? 싶어서 잘못된 방법으로 너무 많은 시간을 소비하는건 아닌가 싶어서 이렇게 여쭤봅니다. 나중에 OCR을 통해서 텍스트를 인식한 후, 그 텍스트가 지시선을 따라서 레이블링과 매칭되도록 해야하는데 그런것도 CV2에서 가능할까요..혹시 이런 경우에 제가 dataset도면에 preprocessing 을 하는게 도움이 될까요? 예를들면 색을 칠한다든가 하는거요. 이렇게 색을 하나하나 다 칠해서 train 데이터를 만들면 인식 성공률이 매우 높아지지 않을까 하는 생각을 갖고는 있습니다... 다만 이게 우리가 알고 있는 일반적인 '도면' (Black & white) 의 적용에는 무리가 있을 것 같다는 생각이 듭니다. 선생님께서 혹시 이런 프로젝트를 접하신다면 어떤식으로 도면 인식을 접근하실것 같으신가요? 어떠한 의견이라도 주시면 너무나 감사드리겠습니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
instance segmentation 질문
강사님, 항상 강의 잘 듣고 있습니다.제가 Mask RCNN 강의를 듣는 도중, 이미지 속 '특정 작업자' 검출에 대한 task를 진행하는 과정에서 문제가 생겨 질문 드립니다!다음 사진을 보시면, '사람' 카테고리에 해당하는 객체가 총 3개가 나오는데 이 중 가운데에 위치한 특정 인물 만을 detection해서 그 인물이 포함된 영역만을 image crop하는 방법이 있을까요? Mask RCNN을 진행하는 과정에서 json과 jpg 이미지 파일이 1:1로 맵핑이 되어있는 경우(annotation id와 image id가 동일), 강의에서 다룬 coco형식과 맞지 않는데 이 경우는 어떻게 레이블링을 해야할까요? 답변 기다리겠습니다. 감사합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
RPN 입력 채널 관련해서 질문드립니다.
안녕하세요 선생님. 프로젝트에 적용하기 위해 복습하던 중 궁금증이 생겨 질문드립니다.2:00 해당 예제에서 3x3 Conv 결과 RPN의 입력 채널과 동일한 채널수가 Output으로 나오는데, 만약 입력 피쳐맵의 채널이 512가 아닌 n이라고 한다면, 3x3 Conv의 Output 채널도 n이 되도록 설정해주면 문제 없는 것인지 궁금합니다.
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
임베디드 시스템에서 live inference 관련 질문드립니다.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.안녕하세요, 강사님. 우선 너무 좋은 강의 해주셔서 감사합니다.현재 개발한 mmdetection, mmsegmentation 모델들을 임베디드 시스템에 배포하려고 합니다.사용하는 보드는 비글보드이며, 관련 자료가 많지 않아 어려움을 겪고 있습니다.혹시 비글보드에서 개발한 모델을 사용하려면 어떻게 해야하는지 러프하게라도 설명해주실 수 있으실까요? 꼭 비글보드가 아닌 타 임베디드 시스템이나 검색 키워드를 알려주셔도 큰 도움이 될 것 같습니다.그리고 mmdetection, mmsegmentation은 live inference를 위한 API는 따로 없는 것일까요? 혹시 질문에 이해가지 않는 부분이 있다면 답글 남겨주세요.감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
inference 결과로 출력된 segmentation 혹은 object detection 정보를 json 이나 xml로 출력
inference 결과로 출력된 segmentation 혹은 object detection 정보를 json 이나 xml로 출력하고 싶어요. 이런 경우에 해당하는 예제나 관련 파일이 혹시 있을까요? 항상 감사합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
멀티 클래스 데이터를 coco data 포멧으로
제가 직접 모은 이미지 데이터 셋을 기반으로 MaskRCNN을 사용하여 object detection 과 segmentation 을 수행하려 합니다.올려주신 예제에는 CVAT을 통해서 Yolo3 포멧으로만 출력하는 예제가 있는데요, xml 이 아닌 COCO format json 으로 출력하려고 합니다.Balloon 강의를 보면 single class 만 인식하는 예제인데요, 멀티클래스를 학습하고 사용하려면 어떤 동영상 파일을 시청해야 하나요 아무리 찾아봐도 못 찾겠습니다. 너무 고통스럽네요 3일째입니다..Multi-class 학습가능한 MaskRCNN 모델 예제가 있는지Tensorflow2 버전에서 구동가능한지GPU를 자꾸 tesla4 를 잡는데 더 좋은 버전의 GPU를 제가 따로 지정할 수 있는지.. (프리미엄사용중입니다)감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
코코 데이터셋트에 나오는 설명문장들...
강의 항상 잘 보고 있습니다. 또 항상 질문에 빠르고 상세한 답변해주셔서 감사드려요!갑자기 든 의문인데 COCO데이터 셋 웹사이트를 보면 이미지 설명하는 데이터들도 같이 있더군요..(이걸 image captioning 이라고 하나요?)이러한 정보들은 coco data json에서 어떻게 구현이 되나요? 이미지에 대한 설명 문장을 저도 자동으로 만들어 보고 싶네요.. 또한 input 을 문장으로 넣었을때 이미지를 출력해주는 것두요. 이러한 실습을 해보려면 선생님강의중에서 참고할 만한게 있을까요? 혹은 링크나 관련 내용 알려주시면 감사드리겠습니다.. COCO dataset 의 매력중에 하나가 image captioning 인것 같기도 한데.. 어떻게 사용하면 좋을까요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
CVAT이나 VGG annotator 에서 COCO 로 label다운fhem 후 트레이닝
안녕하세요 강의 잘 보고 있습니다. 제가 직접 커스텀 이미지를 수집한 후, VGG annotator 을 사용해서 COCO style label 로 만들어진 json 파일을 다운로드 했습니다. 이렇게 준비된 커스텀 데이터를 트레이닝해서 h5 파일을 생성하고 싶은데.. 이 과정에 대한 예제 및 파일은 어디서 찾을 수 있나요.. MM detection 으로 해야하나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
MMDectectio으로 학습된 pth 모델을 상시 띄울 수 있는 방법문의
안녕하세요 선생님, MMdetection으로 24회 수행후 epoch_24.pth을 만들었습니다.이 epoch_24.pth를 저장하였고,새로운 .py에서 epoch_24.pth를 최초 로딩하는데 시간이 약 8초 정도 소요됩니다.checkpoint_file = 'user/exps/epoch_24.pth'model_ckpt = init_detector(cfg, checkpoint_file, device='cpu') epoch_24.pth을 상시 띄울수 있는 방법이 혹시 있는지요?(표현이 맞는지 모르겟습니다만, 데몬처럼요) 항상 감사드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
EPOCH이 돌지 않고 끝나는데 어떻게 하면 좋을까요?
선생님, 안녕하세요?강의는 늘 잘 듣고 있습니다. BALLON데이터 셋 대신에 제가 학습해보고 싶은 데이터셋을 넣고 돌려보려고 합니다. 나머지는 잘 되었는데 마지막에서 epoch이 돌지 않고 끝나버립니다. 이럴 경우는 어떤 부분을 점검 하면 좋을까요?(참고로 제 데이터는 gdrive에 넣고 마운트하였습니다. )
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolov5 학습 궁금점
안녕하세요 강사님 강의를 보면서 여러가지 학습을 해보고 있습니다. 지금 yolov5를 이용하여 학습을 진행하고 있는데 2가지 궁금증이 생겨 질문 드립니다.첫번쩨로 데이터를 찾아보니 여러형식의 어노테이션 데이터가 있는데 (Bounding Box, polygon, poly line, point, Cuboid, Semantic sefmentation) yolov5 다른형테의 어노테이션도 학습시킬수 있나요? Bounding Box와 poly line을 같이 사용하여 학습을 시키고 싶은데 가능 한가요?두번째로는 학습 시킬시에 복합적으로 학습 시킬 수 있나요? 예를 들어 자동차를 디텍션 하고 싶은데 모든 자동차를 디텍션 하는것이 아닌 정지선을 위반한 자동차를 디텍션 하고싶습니다. 가능 할까요?혼자서 학습모델을 만들어보려고 하는데 하면 할 수록 궁금점이 많아지네요. 매번 친절히 답변해주셔서 정말 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
tiny kitti 데이터로 MMDetection Train 실습 - CustomDataset 만들기 01 질문
해당 강의에 2분 54초 에 보면 datasets을 출력해서 클래스별 개수를 보는데 제가 이렇게 만들어서 개수를 확인해보니 실제 json에 있는 클래스별 객체의 수랑 datasets의 수랑 일치 하지가 않습니다. 그래서 mmdet-> dataset-> builder.py와 '__repr__'함수를 확인 해봤는데 거기서는 답을 찾지 못하여서 질문을 드립니다.data sets의 클래스별 객체수랑 json의 클래스 객체수랑 원래 다른건지 아니면 어디서 문제가 생긴건지 여쭙고싶습니다. 추가적으로 아래와 같이 코드를 작성 하였는데 클래스를 키티 클래스를 읽어오던데 지금은 임의로 변경하여 해결했지만 혹시 이과정도 잘못된게 있는지 봐주시면 감사하겠습니다!from mmdet.datasets.builder import DATASETSfrom mmdet.datasets.coco import CocoDatasetfrom mmdet.datasets.custom import CustomDataset@DATASETS.register_module(force=True)class Gazza(CustomDataset): CLASSES = ('car', 'truck', 'bus','pedestrian')데이터셋 개수json 개수