월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
CVAT 설치 방안 문의
회사 내 보안 이슈 있는 이미지를 사용하려 하는데 서버형은 접속이 안되 사용이 불가합니다. 혹시 CVAT를 설치해서 외부 서버 없이 사용할 수 있는 방안이 있을까요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mm_mask_rcnn_inference.ipynb 에서 질문입니다.
mmdetection의 mask rcnn을 이용한 video inference 코드 인데요, 강사님 영상에서는 수행 속도가 3.5 task/s가 나오는데, 제가 실행했을때는 1.5 task/s 가 나옵니다. 강사님 영상에서의 아웃풋 제가 실행 했을때 아웃풋 왜 이렇게 차이가 나죠? 제가 뭔가 착각하고 있는건가요? 아래는 해당 코드입니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Detection의 과적합을 알아보기 위한 val loss 출력 문의
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요 선생님 덕분에 재미있게 강의듣고 있습니다 예전에는 여러 깃허브 Detectio 코드를 따와서 적용하다가 MM Detection과 같은 툴을 응용하면 보다 용이하게 custom dataset detection을 수행할 수 있는 것 같아 좋습니다 일반적으로 loss와 val loss curve를 보고 과적합 여부를 파악하는데요 그런데 다른 코드들도 그렇고 MMdetection 과 같은 detection이나 segmentation model은 일반적으로 val loss를 구하는 것을 잘 못 본것 같습니다 일반적으로 val loss를 구하지 않는지요? 아니면 map를 보고 판단하나요? torch 기반의 custom 모델들은 model.eval 모드로 val loss를 구하는 코드를 포함하였는데 MMdetection에서도 가능한지 문의드립니다 감사합니다!!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolo weight에 대해서 질문이 있습니다
안녕하세요 https://pjreddie.com/darknet/yolo/ 해당 사이트에 있는 yolov3-320, 416, 608 weight들 값은 다 다르게 훈련된 파일인가요? 그런데 내부 cfg는 608로 고정이 되어 있어서 어떻게 된지 궁금하네요 opencv 실습에서 416으로 resize 하는데, multi-scale training을 한 것이니 사실은 416이 굳이 아니어도 320, 608 모두 넣어도 되는 것 아닌가요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
튜토리얼에 대해..
강사님이 말씀하신것 처럼 튜토리얼이나 다큐먼트가 별로없어 학습에 어려움이 있는데 혹시 automl 말고 자료나 튜토리얼이 잘 되어있고 학습에 도움될만한 것은 없을까요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
나만의 train model 생성
안녕하세요. 이렇게 귀한 강의를 접하게 되어 매우 기쁩니다. 선생님 과정을 수강하고 있어 많은 도움이 되긴 합니다만, 한가지 문의드리고자 합니다. CNN(또는 여타 기술)으로 instance(또는 object) segmentation 모델을 생성할때, 보통은 pre-trained 된 모델을 이용하는데요, 저만의 독특한 개체를 사진에서 segment 해야 하는 업무가 있습니다. 예를들면, 사진속에서 제가 만든 독특한 제품을 segment 해 내는 것입니다. 사람이나 고양이나 이런게 아니어서 pre-train 된 모델이 없습니다 그렇다면, train mode을 처음부터 만들어야 할텐데.. --> 맞는지요? 맞다면, 선생님의 어떤 파트를 수강하면 hint를 얻을 수 있을지 문의드립니다. 다른 과정도 괜찮습니다. 조언을 구하고자 합니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Fater RCNN 질문입니다
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요 덕분에 Detection 잘 배우고 있습니다 Faster RCNN 강의를 듣다가 질문이 있어 글을 남깁니다 1. RPN에서 Imbalancing 문제를 해결하기 위해 256 배치 중 128개 positive 128개 negetive 128개로 하여 학습을 한다고 하였는데 (강의 125페이지), 아무래도 object가 많기 때문에 이 경우에는 마치 positive는 oversampling하고 negetive는 undersampling하는 것과 동일한 개념이라고 이해하면 될까요? 앵커 미니배치를 128이나 64처럼 다른 숫자로 해도 상관 없을까요? 2. Faster RCNN의 최종 구조를 보면 (강의 129 페이지) rufrcnn 의 구조를 모면 RPN과 ROI Pooling에 둘다 Classification loss와 BBox loss가 있는 것을 알 수 있는데 합습할때 다 합치나요? 아니면 개별적으로 학습하나요? 그리고 RPN의 Classification은 object 여부를 학습하고 ROI pooling의 classification은 object 중에 분류를 하는 것으로 이해하였는데 맞는지요? 마지막으로 RPN과 ROI Pooling의 BBox regression은 결국 같은 것인데 두번 들어가는 것인가요? 아니면 RPN에서 select하고 ROI pooling에서는 select된 ROI만 loss를 구하는 것인가요? (ROI pooling에서는 anchor box와 관계없이 학습하나요?) 덕분에 미뤄두었던 detection 공부를 잘하고 있습니다 정말 감사드립니다!!!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
질문있습니다.
강사님이 노트북에 작성하신 코드는 전부 강사님이 직접 작성하신건가요 ?? 튜토리얼 같은것을 보면서 공부하고싶은데 출처가 어디있는지 잘 모르겠어서.... github에도 강사님 코드랑은 많이 차이가 있네요 혹시 출처나 아니면 추천하시는 사이트가 있을까요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
eval시 bounding box 출력에 대해서 궁금한 점이 있습니다
안녕하세요 object detection 모델 훈련 후에 inference할 때 만일 개 위치에 개 박스와 사람 박스가 같이 쳐져 있는 경우에는 훈련이 잘못된건가요? NMS를 거쳐도 결국 같은 클래스 상으로 지워지기 때문에 결국 모델 훈련에 있어서 잘못된 거 같은데, 기본적인 sigmoid 기반의 focal loss가 아닌 softmax 기반의 focal loss로 접근해야 할까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Annotation 작업시 관련하여 질문이 있습니다.
Video Inference에서 얼굴만 나온 장면은 검출을 잘 못하던데, 그렇다면 Annotation 작업을 할시에 이미지 내의 한 Object에 대해서 (인크레더블 캐릭터를 예시로) 몸 전체에 대한 레이블링과 얼굴 부분에 대한 레이블링, 총 2가지 레이블링을 진행해주면 될까요?? 앞선 강의에서 Annotation시 박스가 안겹치는게 좋다고 얘기해주셔서 혹시나 싶어 질문드립니다!!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
MMDetection의 evaluation 기능에 대해 질문 있습니다
안녕하십니까? 언제나 좋은 강의 잘 듣고 있습니다. 보여주신 mask-rcnn 강의 기반으로 MMDetection 실습을 진행하는 도중 test 파일에 대한 F-1 score, mAP 를 계산하는 evlauation 기능에 대한 부분이 해결되지 않아 잘문 남깁니다. mmdetection에 test.py가 있던데, 이걸 활용할 수 있는 방법이 있는 건가요? 새로운 사진에 학습 결과를 테스트 해보고자 질문 남깁니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 RetinaNet 모델 훈련에 대해서 질문이 있습니다
안녕하세요 Small Object를 잡는 것을 목표로 하는데, 1. loss 계산 때 anchor box에서 gt와 IoU 0.5 이상만을 target으로 잡는데, scale과 ratio 부분을 조절해도 이 부분이 small해서 IoU를 낮출 수밖에 없는데 다른 해결 방법이 있을까요? 아니면 Neck head에 대해서 layer 층마다 IoU를 다르게 주는게 좋을까요? 2. mAP 계산 때 COCO eval을 사용하는데 결과가 아래와 같이 나오는데, area 변수는 어떤 기준으로 나누게 되는 것인가요? 감사합니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
강사님 나름대로 추측해 봤는데 확인 부탁드려 봅니다.
inference 과정에서는 들어오는 이미지에서 각 단계별로 Future map을 추출하고 여기에 바운딩박스를 그린다. 그런데 그 바운딩 박스의 영역에 있는 convoution 값이 예전에 학습했던 오브젝트의 convoution 과 비슷한 값을 가지고 있다면 바운딩박스와 GT 의 오차를 줄이는 범위로 학습했던 W 값과 b값을 활용한 함수를 적용해서 실제 오브젝트의 영역을 추출한다. 이렇게 이해하면 되는건지요 1. 만약 위의 질문이 맞다면 아울러 학습에서 W 와 b 로 구성된 함수를 구하기 위한 데이터로 좌표값 뿐만 아니라 Conlution 값도 같이 학습에 입력으로 사용되는지 궁금합니다. 강사님 2. 틀리다면 어떻게 틀린지 설명 부탁드려 봅니다. 확인 부탁드려 봅니다. 강사님
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
강사님 귀찮게 해드려 죄송합니다.
- 바쁘신 와중에도 늘 자세한 답변 감사드립니다. - 아울러 강사님 많이 바쁘신 분 인데 이렇게 괴롭혀 드려 죄송합니다. - 학습에 열심인 학생으로 이해 및 양해 부탁드려 봅니다. - 한가지 더 질문 더 드리면 강사님께서 제 질문에 아래와 같이 답변 주셨습니다. 많은 이미지 상에서 여러가지 유형의 오브젝트들을 가지는 ground truth들을 기반으로 학습하면 개별 anchor box들이 ground truth와의 좌표 차이를 최소화 할 수 있도록 모델이 최적화 됩니다. 그럼 이렇게 최적화된 모델에 새로운 이미지를 입력하면 anchor box들이 학습된 최적화 모델상에서 오브젝트와의 좌표 차이를 계산해 내는데, 학습이 제대로 되었다면 이들 중 가장 가까운 anchor box가 보다 정확한 좌표값을 내놓게 되며 이를 기반으로 bounding box 로 object 좌표를 예측할 수 있습니다. 와 같이 답변을 주셨는데 아직도 "이들 중 가장 가까운 anchor box가 보다 정확한 좌표값을 내놓게 되며 이를 기반으로 bounding box 로 object 좌표를 예측할 수 있습니다." 어떻게 이게 가능하지? 하는 의문이 들어서요. 학습시에는 GT 같은 정답에 해당하는 정보와 좌표가 있기에 이것이 어떤 오브젝트인지 알 수 있지만 학습 후 inference에 입력되는 이미지는 어떠한 정보도 없으며 심지어는 탐지하고자 하는 오브젝트가 해당 이미지에 있는지 없는지도 알수 없는 상황에서 학습된 좌표만으로 어떻게 오브젝트 위치를 찾아 낼 수 있는지 궁금합니다. 혹시나 이때에 다른 값 즉 오브젝트를 대강이라도 추측할 수 있는 값( 학습시에 좌표도 학습되지만 동시에 CNN과 같은 필터도 같이 학습되는건 아닌지 ? 그래서 inference 시에 이 필터도 같이 이용되는건 아닌지 ? )이 있어서 이를 기반으로 학습된 좌표를 기준으로 계산되는건 아닌지 궁금합니다. 아울러 혹시나 그렇다면 실제 inference시에 계산되는 메카니즘을 대강이라도 설명 부탁드릴 수 있는지요? 강사님 죄송합니다. 계속 귀찮게 해드려서요
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
질문있습니다.
yolov3.pt 파일에 coco dataset을 학습시키면 원래 가중치가 주어진 yolov3에 학습되면서 가중치가 업데이트 되는것이 맞나요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
강사님 강의 잘 듣고 있습니다. 질문 하나 드리겠습니다.
워낙 강의를 쉽게 잘 해주셔서 감사하게 생각하고 있습니다. 금번 강의 끝나면 바로 스파크학습하려고 구매해둔 상태입니다. 강사님이 강의하신 거라면 뭔가 많이 기대가 되네요 질문 드리고 싶은건 1. CNN 의 경우 입력된 이미지가 어떤 것인지 판단할 수 있는 필터를 생성해 내는 과정이 학습과정이고 이 과정 즉 원본이미지와 필터 사이에서 생성되는 것이 FutureMap으로 알고 있습니다. 나중에 이렇게 생성된 필터를 바탕으로 이미지가 들어왔을 때 학습된 필터를 적용해 이미지를 판별해 내는 과정으로 이해하고 있습니다. 2. Faster CNN 뿐만 아니라 SSD 에서도 강사님께서는 컴퓨터가 제시한 Anchor box 와 Ground Truth 간의 좌표값의 차이를 최소화 시키는 과정이 학습 과정이라고 하셨는데 잘 이해가 되질 않습니다. 좌표값(Ground Truth)이란것은 이미지가 바뀌면 바뀌는 것인데 좌표값을 왜 학습 시키나? 예로 훈련중에는 (1,1,10,10) 좌표에 있었지만 실제 prediction 할 때는 object 의 위치는 전혀 다른 좌표일거 같은데 이게 이해가 되질 않았습니다. 강사님께서 말씀하신 내용 안에 다른 의미가 있을거 같아 질문 드립니다. 즉 GT 영역안에 해당하는 Future Map 값과 Anchor box 가 나타내는 영역의 Feature Map 값을 최소화 시키는 작업을 하는 건 아닌지 ? 등 나름의 상상을 하다 보니 막막하기만 해서요 강사님 설명 부탁드립니다. 즉 좌표값을 일치시킨다는 구체적 의미와 그걸로 학습된 모델이 향후 입력되는 즉 전혀 다른 이미지의 좌표와 무엇인지를 판별해 낼 수 있는지 설명 부탁드릴수 있는지요 ? 꼭 답변 부탁드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
유사한 알고리즘 질문입니다.
안녕하세요 강사님, 늘 양질의 강의 잘 보고 있습니다. 현재 강의 주제와 논외긴 하지만 궁금하여 여쭙니다. 현재 YOLO V3에 대해 보고 있는데, 알고리즘이 UpSampling과 같은 Conv 연산이 이루어지는듯 한데요, 제가 얼마전 공부했던 U-Net과 플로우가 비슷한 양상을 띠고 있어서 혹 비슷한 맥락으로 YOLO V3도 이루어지는지, 다르다면 어떤 부분에서 다른건지 질문 드려도 될까요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
config 파일
config파일 다운로드할때 마지막에 raw=true 해주는 의미가 무엇인가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
질문있습니다.
coco dataset의 index정보는 어디서 확인할수 있나요 ??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection에 다양한 model 사용하는 방법
안녕하세요! 1. mmdetection에 faster RCNN말고 다른 모델이 많은것 같은데, 만약에 YOLO같은 모델을 사용하고 싶을때에는 pretrained된 weight를 어디서 다운로드 해야 하나요..? mmdetection 문서에서 찾아봐도 잘 안보이네요. 수정) mmdetection github에 config 파일 아래에 있는거 찾았습니다. 2. faster RCNN의 config 파일을 보면 train_pipeline에 image_scale = (1333,800)이라고 되어 있는데 이 scale보다 작은 image가 들어오면 padding을 해주어서 image scale을 맞출것 같은데 더 큰 image가 들어오면 어떤 방식으로 scale을 조정하는지 궁금합니다. 3. 사용자가 model을 학습할때 image 크기의 분포를 대략적으로 알고있으면 2번에 image_scale만 바꿔주면 더 잘 최적화가 될까요..?