월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
darknet vs ultralytics
이전 시간에는 다크넷으로 YOLO를 사용했고, 이번에는 ultralytics로 YOLO를 사용하는데요. 다크넷과 Ultralytics라는 게 한 회사라고 보면 되나요? 다크넷 YOLO라 하면 그 회사에서 구현한 YOLO 패키지라고 보면 될까요? 혹은 프레임워크 정도로 생각하면 될까요? 추가로 다크넷은 OpenCV로 YOLO를 사용하고, Ultralytics는 파이토치로 YOLO를 사용하는 차이가 있는 것인지요? 이후 강의에서 설명하실 수도 있는데, 강의를 듣고 있는 지금 개념을 잡고 이후 강의를 들어야 할 것 같아 질문드립니다. ^^
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Config 이용한 Build_datasets 함수 관련 질문드립니다.
안녕하세요. 강사님. 강사님의 강의를 참고해서 Custom으로 데이터셋을 만들고, config를 수정했습니다. 이제 Build_datasets을 하려고 하는데, 제 코드가 강사님의 코드와 똑같은 코드 및 config 구성인데 TypeError : AirplaneDataset : __init__() got an unexpected keyword argument 'pipeline'이라고 뜹니다. mmdetection/mmdets/datasets/custom.py에서도 있는 pipeline 인자인데, 왜 오류가 뜨는 지 오랜 시간 고민해도 도저히 모르겠어서 질문드립니다. ㅠㅠ 감사합니다 강사님
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLO v3-320, YOLO v3-416, YOLO v3-608 링크 관련
안녕하세요. 매번 좋은 강의해주셔서 감사드립니다. 질문이 한 가지 있습니다. 다크넷 욜로 사이트에 , YOLO v3-320, YOLO v3-416, YOLO v3-608의 weight와 config 링크가 모두 같습니다. 세 모델의 차이는 입력 이미지 크기인데, 입력 이미지 크기를 서로 달리해서 사전 훈련을 했는데도 가중치와 config가 모두 똑같은 것인가요? 아울러, 모델에 입력 이미지를 전달할 때 다음과 같이 했습니다. cv_net_yolo.setInput(cv2.dnn.blobFromImage(img, scalefactor=1/255.0, size=(416, 416), swapRB=True, crop=False)) 이떄 size=(416, 416)으로 했는데요, YOLO v3-320, YOLO v3-416, YOLO v3-608의 weight와 config가 모두 같다면(그래서 결국 같은 모델을 불러오는 것이라면), setInput()을 호출할 때 size 파라미터에 (416, 416)을 전달하든 (320, 320) 혹은 (608, 608)을 전달하든 상관 없는 것인가요? 감사합니다 ^^
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
anchor box와 bbox의 정확한 차이에 대해 질문드립니다.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요. yolo v2를 복습하다 의문점이 몇가지 생겨 말씀드립니다. 먼저 bbox는 object를 detect하는 예측 box를 말하고, anchor box는 미리 정해진 크기와 ratio를 바탕으로 한 box이고, 이 box를 바탕으로 bbox가 만들어진다. 라고 이해했습니다. 여기서 질문드립니다. yolo2에서는 각 셀별로 5개의 anchor box가 만들어진다 했는데 그럼, 1. 하나의 anchor box에서 하나의 bbox가 만들어지나요? (아니면 하나의 anchor box에서 여러개의 bbox가 만들어지기도 하는지, 또한 여러개의 anchor box가 조합되어 하나의 bbox가 만들어지는 것인가요? ) 2. bbox의 크기에대해 질문드립니다. 만약, anchor box에서 bbox가 만들어진다면, 만들어진 bbox의 크기는 가장 큰 크기를 가지는 anchor box의 높이 너비보다 무조건 작게 나오는 것인가요 ? (예를들어 밑의 그림에서 빨간색 box가 가장 큰 anchor box라면 그 안에 포함되는 파란색 bbox는 나올 수 있지만 그보다 높이가 긴 분홍생 bbox는 해당 cell의 anchor box에서 나올 수 없는 bbox인가요 ?) 3. SSD와 같이 1개의 cell에서 여러개의 anchor box를 통해 여러개의 object를 detect할 수 있다 했는데, 1개의 cell이 아닌 인접한 cell의 anchor box정보를 이용해 object를 detect하는 일도 있나요 ? (그렇게 되면 위의 분홍색 bbox도 다른 인접한 cell의 anchor box에 포함될 수 있으므로 만들어 질 수 있는건가요?)
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
한 가지 확인차 질문드립니다!
안녕하세요! 매번 질문이 많은 것 같아 죄송하네요 ㅠㅠ 39초~40초 부근에서 'OpenCV DNN은 다크넷을 다운로드받아야 한다'고 설명하셨습니다. OpenCV DNN으로 YOLO를 사용하려면 다크넷을 다운로드받아야 한다는 게 맞는 표현인 것이죠? 혹시나 해서 확인차 여쭈어봅니다 ^^
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
글자 색상 관련 질문입니다.
본 강의에서 이미지 탐지 결과에는 글자 색상이 파란색, 영상 탐지 결과에는 글자 색상이 빨간색입니다. 글자 색상은 똑같이 (0, 0, 255)로 설정했는데 이미지와 영상에서 왜 색상이 다르게 나오는 것일까요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
큰 object와 작은 object 동시 segmentation성능 관련 질문
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요 선생님, 선생님 덕분에 segmentation 과제를 재미있게 수행하고 있습니다 제가 하고 있는 과제 중에 큰 object와 작은 object를 동시에 판별하는 task가 있습니다 비유를 하자면 콩이 큰콩과 작은콩이 섞여 있고 나머지 특성은 동일한 콩이라 class는 한개로 했습니다 (큰 콩과 작은콩은 많으면 지름 기준 최대 10~20 배 차이) 그런데 작은 콩은 많으면 1000~2000 개씩 있고 큰 콩만 있는 이미지 (30~100 개)도 있습니다 또 쪼개진 콩도 있습니다 (쓰고 나니까 task가 너무 어렵네요...) 그래서 제가 이문제를 잘 맞추기 위해 접근한 방식은 mmdetection에서 max object를 3000 개로 늘리고 roi 제안은 6000개로 늘렸습니다 (cfg.model.test_cfg.rcnn.max_per_img = 3000 #default 100 cfg.model.test_cfg.rpn.nms_pre = 6000 # default 1000 cfg.model.test_cfg.rpn.max_per_img = 6000 # default 1000) 그 다음에 anchor generator stride라는것이 중요하다는 것을 찾아서 기존 [8]에서 [1, 2, 4]로 바꿨습니다 (구글 검색해서 찾은건데 사이트를 지금은 못 찾겠네요;;;) (cfg.model.rpn_head.anchor_generator.scales = [1, 2, 4] # default [8]) 그랬더니 어느정도 작은 입자를 잘 찾는 모델을 만들었습니다만 문제는 큰입자가 있을때 큰입자의 일부분을 쪼개서 작은입자로 찾는 문제가 발견되었습니다 여기서 여쭈어 보고 싶은 점은 1) anchor generator stride 의 정확한 의미가 궁금합니다 제가 이해하기로는 피쳐맵에서 anchor 를 찾는 stride 같은데 (8로 하면 8 grid에 한번 4면 4 grid에 한번) 이걸 1, 2, 4로 하는 것은 무슨 의미인지 아시나요? 2) 큰입자를 찾으면 작은입자를 못잡고 작은입자를 찾으면 큰입자를 못잡는 (잡긴하는데 실제로는 쪼개진 영역이 아닌데 쪼개서 잡는 영역 존재) 문제가 발생하는데 두가지 task를 동시에 하는것이 가능할까요? 3) 다른 모델 (efficient det 등?)을 써야할지 아니면 다른 일반적인 해결책인 있는지 문의드립니다 감사합니다!!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
혹시 제 프로젝트에는 어떤 모델을 사용하면 좋을지 한번 봐 주실수 있을까요?
제 질문이 해당강좌에 적합할지는 잘 모르겠으나 , 교수님의 조언이 꼭 필요하여 질문 드립니다 먼저 제 프로젝트의 경우, 이미지를 입력한 뒤 전처리 과정 ,특히 임계값을 조정 과정을 거쳐야 특정 객체를 예측 할 수 있는데요 이렇게 객체가 인식되는 임계값과 오츠의 알고리즘을 사용해서 나온값 과는 차이가 큽니다 . 예를들어 이미지가 발견되는 임계값의 범위는 40~45 라면 오츠알고리즘을 통한 값은 75입니다 따라서 현재 해당 임계값의 범위를 찾기 위해 1~255까지모두 넣어 확인하고 있으며 알고리즘의 속도는 이미지당 15초 입니다 프로세스가 너무 느리게 때문에, 저는 이미지의 임계값을 찾는 연산에 딥러닝을 사용하고 싶습니다 현재 이렇게 이루어지고 있는 프로세스를 이미지 인풋 - > 임계값추출 -> 해당임계값으로 임계처리 - > 객체 추출 (YOLOv5) 아래와 같이 변경하고 싶은데요 이미지 인풋 - > 임계값추출 (딥러닝) -> 해당임계값으로 임계처리 - > 객체 추출(YOLOv5) 특정 이미지를 입력했을때 그 이미지에 적합한 값을 찾아주는 알고리즘을 설계하고자 할 때 어떤 딥러닝 알고리즘을 사용해야 할지 전혀 모르겠습니다 인풋 데이터 (이미지) , 아웃풋데이터(적정임계값) 데이터가 존재하니 이걸 딥러닝으로 처리할수 있지 않을까 하는 생각입니다.... 혹시 저와같은 경우에 어떤 알고리즘이 적합할지 교수님의 조언이 꼭 필요합니다 . 조언을 구할때마다 남겨 주신 답변들 덕에 프로젝트의 방향을 잡을수 있었습니다 항상 감사드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLO v1에 대해 질문드립니다.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 설명을 보면 yolo v1은 입력 이미지를 SxS 그리드로 나눠 각 셀이 하나의 object를 detect하는것 같은데 뒤쪽 구조에서 보면 feature map이 flatten된 후 그냥 reshape이 되어 7x7이 나왔습니다. 결국 입력 이미지를 7x7로 나눈게 아니라 feature map을 7x7로 나눠 detect하는 것 같은데... 입력이미지의 그리드와 마지막 reshape된 그리드가 매핑된다 생각하면 될까요 ?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolov5 rect training이 뭔지 궁금합니다
안녕하세요 아래 train 파라미터에서 rect가 있는데, 이는 letterbox와 상반된 개념인건가요? rect 시 mosaic 적용은 하지 않는데, 왜 letterbox로 입력을 넣는지도 궁금하네요 어떤 의미인지 궁금합니다 감사합니다 https://github.com/ultralytics/yolov5/blob/aa542ce6a65658ff931fee9bbab77c0145c152f0/train.py#L483
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
강의 순서 관련 질문입니다. ^^
안녕하세요! 이전까지 MMDetection 실습 코드 설명이 끝난 뒤, SSD 개요 설명하사다가 갑자기 opencv_ssd_inference.ipynb을 설명하시는데, 설명하시는 걸 들어보니 tensorflow API를 이미 앞서 설명한 것처럼 말씀을 하셨습니다. 지금까지 강의에서 tensorflow는 처음 사용하셨는데 앞에 강의가 뭔가 빠진 느낌이네요 ^^ 21년 8월 이후 삭제한다고 되어 있는 강의 마지막 부분이 원래 이 영상 앞에 있었던 것인가요? 아울러, 권철민 강사님 깃헙에는 opencv_ssd_inference.ipynb 파일이 없습니다 ㅜㅜ 제가 무언가를 놓친 것인지 궁금합니다 :) 감사합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
pretrained된 모델을 사용하는 이유와 사용하지 않고 학습시키는 방법에 대해서 질문이 있습니다.
수업을 계속 듣는중에 생각난 것인데요 mmdetection에서 pretrained된 모델을 config에서 설정하여 train시킬때 pretrained된 모델을 왜 넣어야하는지가 궁금하고, 꼭 넣어야 되는지도 궁금합니다. 코로나에 걸리셨다고 공지를 통해 봤는데 쾨차하시길 바랍니다!!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
build_dataset( )호출 시 리스트로 감싸지 않는 것에 대하여
코로나에 확진이 되셨다고 들었습니다 ㅜㅜ 저도 한 달 전에 확진되었는데 몸조리 잘 하시기 바랍니다. 천천히 답변해주셔도 됩니다. 먼저 남겨놓겠습니다 ㅠㅠ 질문: build_dataset( )호출 시 리스트로 감싸지 않는 것이 훈련과 테스트용에서 서로 달랐습니다. 테스트용에서는 리스트로 감싸지 않았는데요, 이유를 알 수 있을까요? 쾌유를 빌겠습니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
RPN conv 연산 질문
안녕하세요. 먼저 기본적인 질문 드리는 것 같아서 죄송합니다.. 6:39에서 40x50x512 와 1x1x9이 연산핸서 어떻게 40x50x9가 나오는건가요? 채널이 어떻게 줄었는지 이해가 안갑니다.. 미리 감사드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
ROI pooling
안녕하세요. 12:10에서 object가 2개일 때 (2, 7, 7)로 ROI Pooling에 들어감 12:20에서 selective search에서 2000개 출력하니까 (2000, 7, 7) 13:22에서 feature map 256개까지 하면 (2000,7,7,256) --- 질문입니다. 1. feature map에 selective search에서 출력된 object bounding box를 그리셨는데, 항상 feature map과 selective search에서 추출된 bounding box 관계가 1:1인가요?? 추가로 겹치는 feature map 사이에 한 object가 겹치는 경우가 없나요? 2. selective search에서 출력된 object를 feature map에서 추출 후 7x7로 변환해서 roi pooling에서 사용하고 256채널 만큼 있다고 하셨는데, feature map에서 이미 2000개를 출력했는데, roi pooling에 해당 채널 뎁스가 똑같은 이유가 뭔가요..? 미리 감사드립니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
object Localization
안녕하세요!! 제가 이해한 게 맞는지 몰라서 질문 남깁니다!! object Localization은 원본 이미지에서 하나의 object만 Detect한다 그래서 Feature Extrator를 거친 최종 Feature map은 하나의 요소만 갖게 되고, bounding box regression도 Feature map의 하나의 요소에 맞게 생기게 된다. object Detection의 경우 원본 이미지에서 여러 개의 object를 Detect한다 그래서 Feature Extrator를 거친 최종 Feature map은 여러 개의 요소를 갖게 되고, bounding box regression도 Feature map의 여러 요소에 맞게 생기게 되는데 이때 object Localization과 같은 로직으로 학습 시키게 되면 엉뚱한 곳에 bounding box가 만들어지게 된다. 이렇게 이해했는데 맞는 건가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
detection 과정 질문
안녕하세요. 제가 이해를 못한 부분이 있어서 질문드립니다. 1. 과정이 a. region proposal로 RoI 2000개 추출 b. 2000개의 각 이미지들은 따로 feature extractor에 입력 c. feature extractor에서 feature map 추출 d. feature map -> 1D로 추출 e. FC Layer 에서 확률 추출 맞나요?? 혹시 제가 잘못 이해했다면, 알려주시면 감사하겠습니다! ----- 2. 1-c. 과정에서 feature map이 뭔지 잘 모르겠습니다 각 이미지에서 feature extractor를 추출한다는게 사람으로 예를 들자면 눈과 같은 특징들을 추출한게 feature map이라고 보면 될까요?? --- 3. 1-d. e. 과정에서 1D -> FC Layer에 입력이 무엇을 하는지 잘 모르겠습니다. feature map을 기반으로 어떤 벡터를 추출하는거죠?? --- 4. FC Layer 가 Fully connected layer가 이미지를 예측한다는걸 알겠는데 FC Layer는 feature map을 1D로 만든 값을 기준으로 어떤 object인지 예측하는게 아닌가요? 그 후 다시 SVM Classifier를 하는게 이해가 잘 안갑니다! --- 5. Flatten 된 값들을 가지고 좌표를 예측한다고 하셨는데, 어떻게 1차원 값을 가지고 좌표를 예측하는지 이해가 잘 안갑니다... --- 질문을 한번에 너무 많이 남겨서 죄송합니다.. 혹시 다음에 질문을 개별로 남겨야된다면 알려주시면 감사하겠습니다! 좋은 강의 제공해주셔서 감사합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
voc2coco 패키지 관련 질문입니다!
안녕하세요. 또 질문이 한 가지 있어서 글을 씁니다. ^^ 매번 친절히 답변 주셔서 감사드립니다. voc2coco 패키기를 사용할 때 마지막에 --ext xml을 넣어줬는데요, 공식 깃헙을 보니까 옵션이라고 합니다. 그런데 이 명령어에 관한 별다른 설명이 없어 어떤 기능을 하는지 잘 모르겠네요. --ext xml는 어떤 기능이 있는 것인가요? 감사합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습률 질문입니다 :)
안녕하세요! 학습률 관련해서 질문이 있는데요, cfg.optimizer.lr = 0.02/8 이 부분을 이전 강의에서 분명히 설명을 해주셨던 것 같은데, 그때 명확히 이해하지 못해 다시 질문을 드립니다. ㅜㅜ 번거롭게 해드려 죄송합니다. 8로 나눈 이유가 무엇인지 다시 설명해주실 수 있으실까요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mm detect 설치관련입니다.
선생님 안녕하십니까. 먼저 좋은 강의 감사드립니다.제가 ubuntu 18을 사용하고 있는 로컬 pc에서 mask r cnn을 사용하기 위해 mm detection을 설치하고 있습니다.가상환경을 만들어서 tensorflow 2.8, python 3.10, pytorch 1.11 , (cuda는 10.2입니다)를 사용하고 있습니다.################3 아래와 같이 jupyter notebook으로 수업 내용과 이전에 질문에 답해주신 내용을 참조해서 관련 프로그램을 설치하고 있습니다. !pip install mmcv-full -f https://download.openmmlab.com/mmcv/dist/cu111/torch1.11.0/index.html !git clone https://github.com/open-mmlab/mmdetection.git !cd mmdetection !git clone https://github.com/open-mmlab/mmcv !cd mmdetection; python setup.py install !pip install -r mmdetection/requirements/build.txt !pip install -v -e 위 명령어를 실행시, 아래와 같은 메시지가 나오고, -e option requires 1 argument ################################################ from mmdet.apis import init_detector, inference_detector import mmcv 위 코드를 실행하면, (import mmcv는 정상적으로 실행이 됩니다.) 아래와 같은 오류 메시지가 발생합니다. 관련해서 답을 주시면 감사드리겠습니다. 감사합니다.