월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Fast RCNN Minibatch에 관해 질문 드립니다.
Mini batch를 구성할 때 1개 이미지에서 64개 roi로 구성하는데 정답이랑 IoU가 0.5이상인 positive sample을 25%로 구성하고 나머지를 75% 구성한다고 이해했습니다. selective search로 생성된 2000개 RoI 중에서 정답이랑 비교하던 중에 만약 IoU가 0.5 이상인 것이 16개가 되지 않을 때는 어떻게 처리하는게 맞을까요? 16개가 되지 않으면 학습 데이터로 사용 못하는 건가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mm_mask_rcnn_train_nucleus 코드에서 질문있습니다!
train_detector(model, datasets_train, cfg, distributed=False, validate=True) 위에 코드 돌리니까 에러가 나는데 어디가 문제인건지 잘 모르겠습니다!! 항상 좋은 강의 들려주셔서 감사합니다!ㅎㅎ
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
coco.getCatIds()에 대해서 질문있습니다!
안녕하세요! coco_annotations_mask_visuals에서 coco.getCatIds()는 해당 category id별로 한개의 img id를 임의로 출력한다고 하셨는데 catNms를 다른걸로 줘서 해봤는데 결과가 여러 개가 나옵니다 ! 어떻게 된건지 잘모르겠어서 질문남겼습니다!
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Mask RCNN 모델훈련시
안녕하세요 종은 강의 잘 청강하고 있습니다. Mmdetection mask RCNN 모델을 훈련시키려고 하는데, 강좌중 정확도와 재현성에 대한 강의를 보고 궁금증이 생겼습니다. 정확도와 재현성을 조정이라는 표현이 맞는지 모르겟는데, 정확도와 재현성중 사용자가 둘중 어떤 것을 높여서 교육시키는 것이 가능한지요? 가능하다면 훈련시 어떤 변수를 조정해서 훈련을 시켜야하는지요?? Mmdetection. Config 변수가 너무 많아서 좀 복잡한것 같은데... 이러한 부분은 어떤 문서를 봐야 이해가 될수 있을까요?? 홈페이지도 너무 광범위해서 초보자는 좀 헤매게 되는것 같습니다. 참. 그리고 혹시 tracking 에 대한 강좌 계획은 없으신지도 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
custom 데이터셋의 정밀도와 재현율 관련 질문드립니다.
안녕하세요. '딥러닝-컴퓨터비전-완벽가이드'를 수강하고 있는 고준규입니다. 다름이 아니라 정밀도와 재현율에 대해 질문이 있어서 글을 남깁니다. COCO 데이터셋이나 Pascal VOC 데이터셋과 같이 성능평가로 검증된 데이터셋이 아닌 직접 object detection을 사용하여 문제를 해결하기위해 custom 데이터를 활용하여 데이터 라벨링을 하였습니다. 이 때, 모델의 평가를 진행하였는데, precision score (0.6)가 recall score (0.9)에 비해 낮은 결과를 얻는 것을 확인했습니다. 이를 자체적으로 분석해본 결과, 사람이 직접 라벨링을 하다보니 사람이 놓친 부분을 모델이 탐지하여 precision score가 낮아지는 것을 확인하였고 결론지었습니다. 이럴 경우, custom 데이터셋을 새롭게 수정해서 학습을 시켜야하는 것이 맞는 방법인 것으로 보이나 현실적으로 이를 수정하기에는 비용이 생각보다 많이 들 것 같아서 다른 방법을 생각해보고 있습니다. 혹시 이와 관련되어 조언을 얻을 수 있을까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Transfer leanring 질문사항
안녕하세요 강사님 강의 잘 듣고 있습니다. Transfer learning 관련 문의사항이 있습니다. 주차관련 이동체 인지영상으로 Pre-trained 된 모델을 사용하여 새로운 데이터셋을 학습시키고자 합니다. 새로운 데이터셋은 새로운 사진과 COCO Format입니다.객체의 Category ID와 BBOX 를 모두 학습시켜야 할 것으로 생각되는데,어떻게 기존 모델에 추가로 학습을 시켜야 하는지 방법을 잘 모르겠습니다. 혹시 CNN Fundamental 강의 또는 이 딥러닝 강의에서 해당 부분에 대한 정보를 얻을 수 있거나또는 참고할만한 사이트가 있을까요...?감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
런타임 다시시작 오류
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.\ 강의명: MMDetection에서 Faster-RCNN Pretrained 모델을 활용하여 Infererence 수행하기 - 셋업 및 Pretrained 모델 다운로드 강의 중 8분에서 아래와 같은 오류시 런타임 다시시작버튼을 클릭하라고 하셨는데 버튼 클릭해도 아래와같은 상황이 반복됩니다. 다른 방법이 있을까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Data Augmentation 관련
안녕하세요 선생님 항상 좋은강의 잘 듣고있습니다. 대학원생활에 정말 많은 도움 받고 있어요 ㅎㅎ 수업을 듣던 중 궁금한점이 생겨서 질문 남깁니다. Q1. Config의 이해 - Data Pipeline 수업을 듣고 적용해보던 중 default로 적용되어있는 Augmentation기법들(Resize, RandomFlip, Normalize, Pad) 말고 mmdetection에서 제공하는 다른 transform 함수를 적용해보려 합니다. https://mmdetection.readthedocs.io/en/latest/_modules/mmdet/datasets/pipelines/transforms.html 위 주소에 나온 Cutout, Mosaic, Mixup를 적용하고 싶은데 아래 사진과 같이 coco_instance.py 파일에 저렇게 추가하면 적용될까요? Q2. data augmentation을 적용했을 때 데이터가 얼만큼 늘어나는지 어떻게 아나요? 제 데이터가 train:80장 val:20장 이렇게 구성되어있는데 얼만큼 늘어나는지(ex, augmentation적용 후 300장) 궁금합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Semi-supervised 러닝 문의
안녕하세요 강사님,최근 온라인 경진대회 준비한다고 하였던 수강생 입니다.Run length Encoding에 대해 알려주셨는데, 알고보니이 과제가 준지도학습(Semi-supervised 러닝) 문제였습니다.제가 이 강의 뒷부분만 들어서 '준지도학습' 과제를 클리어 할 수 있을지 잘 모르겠네요 ㅠㅠ혹시 준지도학습 문제를 풀기위해, 이 강의말고 CNN Fundamental 이라던지, 더 들으면 좋을 강의 같은게 있을까요?감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
MMDetection에서 Learning rate 문의드립니다.
안녕하세요. 전에도 한번 말씀해주신것 같은데, Learning rate를 GPU나 CPU 개수로 나눠야 하나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
MMDetection_Data Pipeline_Normalization
안녕하세요. 강의 잘 듣고 있습니다. MMDetection의 Data Pipeline 중에서 Normalization 할때, Mean, Std는 train dataset 전체에 대해서 Mean과 STD를 구하는 거죠? (Test dataset은 제외하고 구하는 거죠?) 그리고 Augmentation 은 Train_pipe_line에 적용된다고 생각하면 되는 거죠?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Ground truth bounding box를 이미지와 함께 시각화하는 방법을 알고싶습니다.
Custom dataset으로 YOLO 학습을 배우는 중인 학생입니다. 그런데 작업 중 Ground truth bounding box를 이미지에 같이 출력하는 방법을 도저히 모르겠어서 질문 남깁니다. 지금은 아래처럼 score가 있는 predicted image만 detect.py 파일로 만들 수 있습니다. 여기서 스코어 없이 Label만 annotation 파일에 기반하여 달린 이미지를 얻고싶습니다. Wandb 학습 중 만들어지는 파일은 아래처럼 알아볼 수 없어서 따로 요청드립니다. 현재 작업중인 파일은 COCO 포맷의 커스텀 데이터셋을 강사님이 제공해주신 COCO2YOLO 코드로 변환했기 때문에, 디렉토리는 강의와 똑같습니다. 예시: /content/custom/images/train/*.png - /content/custom/labels/train/*.txt Ultralytics YOLO 패키지 내부의 파일로 해결하기 힘들다면 다른 우회 방법이라도 알고싶습니다. 항상 좋은 강의 잘 듣고 있습니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습된 model inference 수행 시 ap값 등의 수치가 강사님과 다르게 나와도 되나요?
학습된 model inference 수행 시 ap값 등의 수치가 강사님과 다르게 나와도 되나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLO V1 bounding box 2개 문의드립니다.
안녕하세요. 강의 늘 감사히 듣고 있습니다. 이해가 안되는 점이 Yolo v1에서 grid마다 2개의 bounding box 를 기반으로 예측한다는 것이 잘 이해되지 않아서 문의드립니다. CNN을 통해서 7x7x1024 feature map을 얻고, 여기서 FC Layer를 통과한 값을 reshape을 통해서 7x7x30을 얻게 되는데요. 이 때, 2x (bbox의 conference, 좌표)+class 확률(20)해서 30길이의 vector를 구하게 되는데요. 제가 궁금한 점은 2개의 bounding box 후보가 training시 model에 직접 input 영향을 미치진 않고 LOss function 구현할 때, IOU 계산할때와 Confindence 구할때 영향을 미치는 것 같습니다. 그래서 학습시 bbox 2개의 좌표는 둘다 target (x,y, w,h)를 맞추는 방향으로 학습되어 지는 걸로 이해했는데요. 그럼 inference시에도 (x,y,w,h)가 2개 쌍이 나오게 되는데, 제대로 학습되어졌다는 가정하에, 2개 쌍이 같게 나오게 되는게 아닌가 해서요. .. 그렇다면 왜 2개의 bbox를 예측하는지도 궁금해져서요. 결국 1개의 bbox 예측 하는 것과 다르지 않나 해서 문의드립니다.
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
MASK_RCNN Segmentation polygon 변환관련
안녕하세요 강사님수업 잘 듣고 있는 수강생입니다.작년, 강사님의 굉장한 강의로 사내(KT) AI분야 CEO 상을 받았고굉장한 믿음으로, 현재 이 강의또한 수강하고 있습니다.현재 저는 '22 인공지능 온라인 경진대회를 준비중입니다.Segmentaion 문제를 참여하려하는데, 아래와 같은 조건이 있습니다. '모든 이미지 픽셀에 대하여 값을 표기하는 방식 대신, 마스크를 1차원으로 변환한 뒤, 물체가 존재하는 픽셀들에 대하여 (시작점) (그로부터 연속되는 점의 개수) (다음 시작점) (그로부터 연속되는 점의 개수) 의 형태로 표기'제가 아직 MaskRCNN 강의는 듣지 못하였는데,혹시, MaskRCNN 결과로 나온 Segmentation 부분을 1차원으로 변환하는 방법이 따로 있을까요?'segmentation to polygon convert' 로 구글검색을 해봤는데, 아직 정보를 못찾았습니다. 마지막으로, (시작점) (그로부터 연속되는 점의 개수) (다음 시작점) (그로부터 연속되는 점의 개수) 의 형태로 표기' 이 키워드는제가 풀어야 할 숙제 인데, 혹시 위 문제를 지혜롭게 해결하기 위해 참고할만한 문서라던가 사이트 혹시 있으신지 문의드립니다. 항상 수고해주셔서 감사드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
tiny kitti 데이터로 MMDetection Train 실습 - 오류 문의드립니다.
안녕하세요. 강의 잘 듣고 있습니다. 감사합니다. train을 하려 했는데 (제가 따로 download한 coding file에 변경점을 준 것은 없습니다.) 'ConfigDict' object has no attribute 'device' 오류가 발생하여 문의드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Faster RCNN 실습 관련하여 문의드립니다. (MMdetection)
안녕하세요. 매수업 너무 감사한 마음으로 잘 듣고 있습니다. Faster RCNN 실습 관련하여 MMdetection을 설치해서 따라하고 있는데요. 해당 github 가서 config file들을 보니, Fast RCNN과 Faster RCNN model들은 전부 FPN 을 neck으로 연결해서 사용하더라구요. 처음 논문 연구 발행시에는 Fast RCNN, Faster RCNN이 바로 head에 연결되었지만, 이제 실전? 현업에 쓰일때는 모두 FPN을 neck에 연결해서 사용하는 걸까요?? 당연히 성능이 더 좋아서 FPN을 사용하는 거겠죠? FPN 은 필수인가요??(아직 뒷 강의는 다 듣진 못했습니다.)
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Faster RCNN 문의드립니다.
안녕하세요. 수업을 너무 감사한 마음으로 잘 듣고 있습니다. 아직 잘 이해되지 않아서 문의드립니다. 1. RPN 입력 - VGG등 CNN을 통과한 feature map. 2. RPN output - output 1: 3x3 conv을 통과한 feature 맵을 1x1x9(anchor 개수)로 통과해서 각 anchor마다 object인지 여부를 판별하는 확률 - output2 : 위의 3x3 conv을 통과한 feature맵을 1x1x4x9 (x,y, w, h x anchor 개수) 3. training - output1과 target_class의 cross entropy - output2와 target_class의 좌표간의 regression entropy -------------------------------- 이렇게 이해했는데요. 그럼 train할때 학습시키는 target에 바로 9개의 bbox size를 적용해서 image상에서 9ea bbox와 그 것과 실제 object 와의 IOU를 계산해서 positive / negative 인지 여부와 각 bbox의 좌표를 나타내는 건가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
SPP 문의드립니다~
안녕하세요. 강의 너무 잘 들었습니다. 명확하게 설명해주셔서 감사합니다. 크게 2가지 질문이 있습니다. 1) SPP 가 분면이 예를 들어주신 것이 1x256-d, 4x256-d, 16x256-d 라면... 최소 object, 또는 image의 크기가 최소 16x16보다는 커야 겠네요? Selective search 에서 region proposal을 할 때, 어느 정도 큰 region로 한정, 필터를 하나요? 2000개로 설정하면 SS로 설정된 Region Proposal List는 거의 filter 없이 들어가진다고 생각해야 되는지 아니면 그 안에서도 우선순위 필터링이 있는지 궁금해서 입니다. 또 필터링이 없다면 너무 많은 수의 region proposal이 들어가는게 아닌가 해서요. 혹시 SPP Layer에 넣기 전에 많이 중첩된 box는 합친다거나 하는 과정이 (NMS 같은..) S.S 결과에 적용되서 나오는 건가 해서요. 2.) 이전 강의에서 feature Map의 VGG를 Image net으로 pre-training을 하고 IOU 0.5 이상인 object image로 fine tuning한다고 들었는데, SPP-Net을 하치면 Image net으로 pretraining 을 VGG로 한 후에 Pascal 같은 Object image로 SPP Layer과 FC Layer을 학습시키고 그 이후에 SVM Classifier를 학습시킨다고 보면 될까요? (이전 강의에서 3-step으로 학습시킨 것 같아 동일한지 문의드렸습니다.)
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mAP에 대해 질문드리려고 합니다.
안녕하세요. 강의 너무 잘 듣고 있습니다. 그 전에 저 혼자 독학 할때는, mAP가 multi-class이다 보니, class별 AP를 계산해서 average 취한 개념인줄 알았습니다. CoCo나 다른 object detection할때 class별로 잘 인식하는 class가 있고 힘든 class가 있고 할 것 같은데요. (예로 imbalanced 문제를 들수도 있구요) 이렇게 class간 AP를 비교한다거나 하진 않나요?