월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
질문있습니다.
test 데이터는 적용하지않고 validation 데이터로 평가했다고 하였는데 그럼 모델을 빌드할때 test_cfg에 test_cfg를 넣어주는 이유는 뭔가요 ??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
object detection 시에 같은 클래스에 대한 bbox 사이즈에 대해서 질문이 있습니다
안녕하세요 만일 cat을 object detection을 하려고 하는데 training 이미지에 cat의 bbox가 작은 것도 있고, 큰 것도 있습니다 그런데 작은 것의 비율이 큰 것보다 8:2, 9:1정도로 분포되었다고 하면 실제 validation 때 큰 것에 대해서도 detection을 잘 할까요? Neck을 붙였을 때 이 부분을 보완할 수 있다고 생각하는데 동작이 어떻게 될지 유추할 수 있을지가 궁금합니다 감사합니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
이전 코드 질문
안녕하세요. 강사님, 강의 잘 듣고 많이 배우고 있습니다.이전의 딥러닝 컴퓨터 비전 완벽가이드의 코드에 대해서 문의 드립니다. 개정판이 되면서 해당 코드가 여기는 없는데, 이전 코드 깃허브에는 있습니다. 6.08~6.10 Keras_Retina_Raccoon_학습및_Detection_colab.ipynb 코드입니다. 여기에서 keras_resnet 이 설치되었는데도 import keras_resnet 에서 "ModuleNotFoundError: No module named 'keras_resnet' " 오류가 납니다. 왜 오류가 나는 것일까요? 어떻게 해결해야 하는지 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Segmentation 시각화에 문제가 생겨 질문 드립니다.
mmdetection과 오픈소스 데이터셋으로 실습을 하려는 학생입니다. coco format의 데이터를 받아 시각화를 하려하는데, 시각화 과정에서 이미지의 아이디에 대응하는 세그먼트가 나오는 것이 아니라 사전에 설정된 세그먼트가 아래 그림처럼 이미지와 상관없이 나와 이 문제를 해결하고 싶습니다. 이 세그먼트가 어디에 영향을 받는지 찾아보니 mask rcnn 벌룬 실습코드 기준 3개 셀 위인 이 셀의 coco.loadimgs(*)[0] 중 *에 영향을 받는 것으로 추측할 수 있었습니다. (해당 id를 바꾸면 고정된 세그먼트가 다른 걸로 바뀝니다.) 어디서 문제가 생긴지는 알겠으나 코드를 수정하기엔 모르는 것이 많아 이 문제를 어떻게 해결할 지 여쭤보고자 질문 남깁니다. 추가로 1. 시각화 과정에는 문제가 있어도 학습에는 문제가 없을지(시각화 코드를 수정하지 않아도 학습 코드를 돌리면 제대로 학습이 되는지?) 2. Json 파일에 등록된 이미지의 일부만 images 폴더에 있어도 학습이 되는지(데이터셋이 28만장 이미지로 이루어져있어서 colab이 pro 버전임에도 i/o error를 출력함. 그래서 이미지 중 일부 -약 1만장- 만 빼서 학습에 사용한다면?)? 에 대해서도 답변 남겨주시면 감사하겠습니다. 늘 좋은 강의 잘 듣고 있습니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
object detection 훈련 시 anchor box 관련해서 궁금한 점이 있습니다
안녕하세요 Yolov2처럼 사전에 K-Means Clustering을 통해서 anchor box ratio를 정한다거나 직접 scale 값을 넣는다고 하더라도 훈련을 진행하면서 내부적으로 해당 파라미터는 backward 시 조금씩 변화를 주는 부분인거죠?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
질문있습니다.
inputscale이 1/127.5 이고 mean이 127.5인데 (원래값 - mean) / std 가 Z-score 아닌가요 ?? 저기서 정규화 하는 순서좀 알려주실수 있나요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
train_test_split 함수에 대해 질문이 있습니다.
수업을 듣고 mmedetection을 이용해 custom dataset을 train 시키려는 작업을 계획 중인데, 걸리는 부분이 있어 질문 드립니다. mmdetection에서 mask-rcnn을 수행하기 위해 kaggle에서 coco format에 맞는 dataset을 받고, json 파일의 형식이 coco format에 맞는지 확인 했습니다. 그런데 이 dataset의 이미지와 json가 train밖에 없어서 train, val로 나누기 위해 train_test_split 을 써야 하는데, 이 함수의 첫 번째 변수로 어떤 것을 넣어야 하는지(mask rcnn nucell실습에서는 meta_df) 잘 이해가 되지 않습니다. 찾아보니 array 형태로 넣어야한다고는 하는데, 단순히 train 이미지가 있는 경로를 np.array로 넣는 것은 아닌 거 같고, 제 파이썬 실력은 많이 부족해 답이 나오지 않아 질문 남깁니다. Dataset의 형태는 사진으로 첨부합니다. json은 약 28만 장에 대한 내용이 coco format으로 나와있습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
논문 구현에 관해 질문있습니다.
블로그나 깃허브를 보면 논문을 직접 구현 해보신 분들이 꽤 있는것 같습니다. 그래서인지 논문을 구현하는것이 필수인지, 아니면 읽고 이해를 하는 선에서 넘어가도 되는지 궁금합니다. 만약 구현을 해야한다면, 기준이 있는지도 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
object detection 입력 데이터에 대해서 질문이 있습니다
안녕하세요 1. 입력 이미지 중에서 아예 Box가 없는 이미지도 넣는 것이 어느 정도 비율이 있어도 되는 것인가요? 2. 가로 세로 비율이 어느정도 정해진 이미지에 대해서는 resize 할 때 해당 ratio을 유지하는게 유리할까요? 감사합니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection에서 anchor box의 scale과 aspect ratio 변경이 가능한가요?
안녕하세요 질문에서와 같이 변경이 가능한가요?? 가능하다면 각 conv layer마다 따로 설정해야하는 부분인가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
pretrained된 weight를 넣어주어야 하는 이유
안녕하세요 사용자가 kitty데이터로 모델을 학습을 시키는데 config파일을 재설정하는 부분에서 cfg.load_from = 'checkpoints/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth' 라는 코드가 있습니다. 그런데 사용자가 모델을 학습시키는데 coco data의 weight가 왜 필요한지 모르겠습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
test.py 파일 질문 드립니다.
안녕하세요 선생님 강의를 수강중인 학생입니다. 다름이 아니라 현재 yolov3파일에 test.py가 없는거같습니다. test또한 val.py로 진행을 해야하는걸까요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
(Box Co-ordinates + Objectness Score + Class Scores)
컨볼루션 레이어를 통과한 prediction데이터중 85개의 데이터가 bbox정보, Score, classes라는 논리가 무엇일까요??ㅜㅜ
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 선생님 summary부분 질문있습니다.
마지막 summary부분에서Faster RCNN의 RPN loss에 classification loss, Bbox regression loss가 적혀있습니다. RPN의 loss는 오브젝트가 맞는지 아닌지 loss와 Bbox예측좌표 loss라고 생각하고 있습니다. 그래서 RPN에서 classification loss부분을 의아하게 생각하고 있습니다. 오브젝트가 맞는지 아닌지 loss를 classification loss라고 표현한 건가요? classification은 (오브젝트인지 아닌지가 아니라) 어떤 오브젝트인지 분류하는 과정만 의미하는 것으로 알고있었는데, 맞게 생각한건가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
앵커박스
계속 이해해보려고 구글링했는데 뭔가 속시원게 해답이 안나와서 한번만 더 질문하겠습니다. ㅜㅜ 지난강의에서 피처맵의 그리드포인트 마다 앵커 9개를 매핑한다고 하셨는데, 이번 강의에서 RPN 네트워크는 피처맵을 이진 분류 하기 까지 그리드포인트 매핑과정이 없어서 뭔가 연결이 잘 안되는 것 같습니다. 다른 문제는 5:50초에 40x50x9 는 그리드포인트마다 9개의 앵커박스를 나타내는 것이고, 앵커박스마다 FG인지 BG인지 판단한다고 하셨는데, 제 머리로는 1x1 컨볼루션을 하고 9output을 뽑는다는게 잘 이해가 안되는 것 같습니다. 1x1 컨볼루션은 차원의 축소를 하는 역할을 하는것인데 9가지 모양의 그리드를 어떻게 1x1 컨볼루션 40x50피처맵 포인트마다 연결을 시키는 것인지 잘 이해가 되지 않습니다...ㅜㅜ
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
anchor box의 매핑
제가 우선 이해한 부분은 원본이미지 -> vgg -> 피처맵 이렇게 피처맵을 뽑은 뒤 이전 강의에서 9개의 앵커 박스를 각 픽셀마다 매핑 한다고 이해했습니다. 1. 이번 강의에서 2분대의 이미지를 보면 40X50X512의 피처맵이 나오는데 이건 VGG를 통과한 피처맵이라고 생각하면 될까요? 2. 1.답이 맞다면 VGG를 통과한 후 9개의 앵커박스를 매핑 시키는 부분이 어느 부분인지 잘 이해가 안되는데 다른 질문에서 보기로는 3X3x512 컨볼루션을 할때 9개(앵커박스수)의 3x3x512 커널을 사용하여 컨볼루션을 한다고 이해했습니다. 하지만 40x50x512 피처맵에 3x3x512 9개 커널을 통과 시키면 40x50x512가 아니라 40x50x9가 나와야 되는게 아닌가요? 3. 기초적인 질문인데 피처맵에 3x3 conv를 하고 나서 1x1 convolution을 할때 1x1커널의 채널 수는 512이고, 9개의 커널을 사용해서 9 output channel 을 뽑는건가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
spp layer
RoI pooling 시에는 selective search를 통해 찾은 영역들을 feature map에서 뽑아 무조건 7x7(임의의)사이즈로 resize 해주면 되는데 1. spp layer에서는 16x16, 4x4, 1x1의 고정길이로 max pooling을 하게되는 경우 16x16보다 작은 경우의 selective search 영역도 존재할거같은데 이경우도 resize를 진행하는건가요? 아니면 다른 방법이 있나요? 2. spp layer는 (16+4+1)x256이고, Roi pooling은 (7x7)x256이라 spp net이 연산이 더 적어서 빠를 것 같은데 fast RCNN이 빠른 이유가 svm 대신 softmax를 쓴것이라면 왜 spp layer 대신 RoI pooling을 사용한걸까요?
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolo - local
torch.hub.load을 활용해서 YOLO를 로컬에서 운영이 가능한가요?
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Anchor box-K-Means Clustering
안녕하세요^^ 강의 너무 잘 듣고 있습니다. 다름이 아니라 k-means clustering로 군집화를 진행하는 것 까지는 이해했는데, 그 군집화로 어떻게 박스를 그리는지 모르겠습니다ㅜㅜ 또, anchor box라는 개념을 코드로 구현할 때 opencv같은 라이브러리를 활용해서 직접 그려야하는 건가요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Custom Dataset과 헷갈리는 부분이 있어서 질문드립니다.
1. 앞선 Oxford pet 데이터도 VOC 스타일과 유사하다고 하셨는데, 그렇다면 Middle Format이 아닌, voc2coco 패키지를 활용하여 Coco Format 으로 맞추어줘도 괜찮은 걸까요? 2. 또한 그렇다면 MMDetection 쓸때 사용하는 데이터셋이 VOC 스타일인지, Coco 스타일인지, Custom 스타일인지 파악하는게 우선이 되어야 할까요? 3. 메타파일 중 trainval 은 train 파일과 val 파일을 합쳐놓은 것 같은데 굳이 이렇게 합쳐서 하나의 메타파일로 둔 이유는 무엇인가요??