월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
video inference 오류가 생겨 질문 드립니다
안녕하세요, Ultralytics Yolo 실습 - 02 강의를 따라 인크레더블 데이터 셋 대신 제가 제작한 데이터로 학습을 수행해 video inference 진행 중 오류가 발생해 질문드립니다. video inference와 image inference 수행 중 다음과 같은 오류가 발생했습니다. video inference 코드: # video 파일 inference cd /content/yolov3;python detect.py --source /content/simult/simul_1.mp4 \ --weights /mydrive/ultra_workdir/simult/weights/best.pt --conf 0.3 \ --project=/content/data/output --name=run_video --exist-ok --line-thickness 2 실행 중 오류 코드: detect: weights=['/mydrive/ultra_workdir/simult/weights/best.pt'], source=/content/simult/simul_1.mp4, imgsz=[640, 640], conf_thres=0.3, iou_thres=0.45, max_det=1000, device=, view_img=False, save_txt=False, save_conf=False, save_crop=False, nosave=False, classes=None, agnostic_nms=False, augment=False, visualize=False, update=False, project=/content/data/output, name=run_video, exist_ok=True, line_thickness=2, hide_labels=False, hide_conf=False, half=False, dnn=False YOLOv3 🚀 v9.6.0-3-gb870de5 torch 1.10.0+cu111 CUDA:0 (Tesla P100-PCIE-16GB, 16281MiB) Fusing layers... Model Summary: 261 layers, 61497430 parameters, 0 gradients, 154.7 GFLOPs Traceback (most recent call last): File "detect.py", line 244, in <module> main(opt) File "detect.py", line 239, in main run(**vars(opt)) File "/usr/local/lib/python3.7/dist-packages/torch/autograd/grad_mode.py", line 28, in decorate_context return func(*args, **kwargs) File "detect.py", line 149, in run s += f"{n} {names[int(c)]}{'s' * (n > 1)}, " # add to string KeyError: 0 image inference 코드: # image 파일 inference !cd /content/yolov3;python detect.py --source /content/simult/images/train/13.png \ --weights /mydrive/ultra_workdir/simult/weights/best.pt --conf 0.3 \ --project=/content/data/output --name=run_image --exist-ok --line-thickness 2 실행 중 오류 코드: detect: weights=['/mydrive/ultra_workdir/simult/weights/best.pt'], source=/content/simult/images/train/13.png, imgsz=[640, 640], conf_thres=0.3, iou_thres=0.45, max_det=1000, device=, view_img=False, save_txt=False, save_conf=False, save_crop=False, nosave=False, classes=None, agnostic_nms=False, augment=False, visualize=False, update=False, project=/content/data/output, name=run_image, exist_ok=True, line_thickness=2, hide_labels=False, hide_conf=False, half=False, dnn=False YOLOv3 🚀 v9.6.0-3-gb870de5 torch 1.10.0+cu111 CUDA:0 (Tesla P100-PCIE-16GB, 16281MiB) Fusing layers... Model Summary: 261 layers, 61497430 parameters, 0 gradients, 154.7 GFLOPs Traceback (most recent call last): File "detect.py", line 244, in <module> main(opt) File "detect.py", line 239, in main run(**vars(opt)) File "/usr/local/lib/python3.7/dist-packages/torch/autograd/grad_mode.py", line 28, in decorate_context return func(*args, **kwargs) File "detect.py", line 149, in run s += f"{n} {names[int(c)]}{'s' * (n > 1)}, " # add to string KeyError: 0 이러한 오류를 어떻게 해결해야 하는지 알고 싶습니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
fast RCNN에서 ROI pooling 할 때
안녕하세요. fast rcnn에서 궁금한 점이 있습니다. roi pooling을 2x2로 쪼개서 4개 영역에서 max pooling을 한다고 가정했을때 백본에서 마지막 feature map가 7x7로 나왔고 원래 이미지에서 selective search된 영역이 매우 작은 영역이라 feature map로 roi projection했더니 feature map에서 2x1 또는 1x1인 한 픽셀로 대응되면 이 작은 영역을 어떻게 4개로 쪼개서 roi pooling 하나요? 아니면 입력이미지가 너무 작으면 아예 feature map자체가 3x3이 나와버릴 수 도 있지 않습니까? 이럴때는 또 어떻게 roi projection을 하는건지요? 왠만한 roi가 모두 같은 영역으로 프로젝션되버릴텐데.... 아님 이런 경우는 가정하지 않고 이럴때는 이미지 사이즈를 더 키워서 feature map가 14x14처럼 좀 크게 출력되도록 해서 처리해야 하는건가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
선생님 안녕하세요 질문 하나 드립니다
먼저 선생님 수업덕에, 어렵게만 느껴지던 cv를 조금씩 배워가고 있어서 감사드립니다. 저는 대학원생인데요 유튜브 선정성 연구를 이번 학기에 해볼까 했는데요, (인기 패션 유튜버들의 노출 비율 cv로 수량화해 비교) 아직 코딩 공부를 한 지 얼마 되지 않아 실력은 많이 부족한 상황입니다. 선생님 수업을 들으며 cv의 기초부터 배워가고 있긴 하지만 어떻게 skin color portion detection을 해야할지는 이제 강의 70% 정도를 들었지만 전혀 감이 오지 않아서 선생님께서 혹시 도움이 될만한 깃헙 등을 추천해주실까 해서 문의드립니다. 깃헙을 좀 찾아봤긴 했는데 제가 아는게 너무 없어 뭘 어떻게 해야할지 잘 모르겠더라고요ㅠ 학기말 페이퍼를 이제 한달 내에 작성해 제출해야 하는데 너무 막막해서 수업에 대한 직접 질문은 아니지만 문의드려 보았습니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
eiffcientDet 모델을 tflite변환
안녕하세요 저번에 tflite로 변환하는 과정을 질문한 학생입니다. 저번에 선생님께서 yolo보단 eiffcientDet를 사용해보라고 하셔서 모델을 변경하여 train했습니다. 해서 antoml의 git에 따르면 tflite로 변환하는 기능이 있어 사용하였는데 이와같은 에러가 나와서 문의 드립니다. batch_size문제로 확인되는데 어느부분이 문제인지 감이 안오네요...
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
질문 있습니다!
섹션 10. Ultralytics Yolo 실습 - 02 강의를 따라 인크레더블 데이터 셋이 아닌, 제가 수집한 데이터로 학습을 수행중인데, 혹시 label을 한글로 했을 경우에 문제가 되는 것이 있을까 싶어 질문드립니다. 또 학습 진행 과정 중 밑과 같은 WARNING이 여러 줄 뜬 이후 별 문제 없이 학습이 진행되고있는데 어떤 오류인지 모르겠습니다.. 아, 학습 완료된 모델로 detect를 할 때 output으로 box처리된 이미지 뿐만 아니라 text로도 출력을 하고싶은데, 이 또한 질문 드립니다! 항상 좋은 강의 감사드립니다. train: WARNING: /content/food/Images/train/B070201_51763.jpg: ignoring corrupt image/label: could not convert string to float: 'None'
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 선생님
수업에서 쓴 tf_hub 모델들이 mmdet 혹은 yolo보다 좋지 않은 성능을 보여주는데 tf_hub를 쓰는 이유가 있을까요? 아직 배우고 있는 중이라,,단순한 호기심에 여쭈어봅니다. 항상 좋은 수업 감사합니다:)
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
올려주신 코랩 파일 그대로 실행하는데 오류가 납니다.
ImportError: /usr/local/lib/python3.7/dist-packages/mmcv/_ext.cpython-37m-x86_64-linux-gnu.so: undefined symbol: _ZN2at5sliceERKNS_6TensorElN3c108optionalIlEES5_l 런타임 다시 시작 후 실행해도 위와 같은 오류가 나옵니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Mask RCNN의 config와 모델의 최종 평가에 관해 질문 드립니다.
안녕하십니까! 먼저 좋은 강의를 해 주셔서 감사드립니다. 질문 드리겠습니다. 1. Mask RCNN 학습을 위해 config파일을 불러오고 파라미터를 설정을 합니다. 그리고 inference를 하기 이해 위에서 설정 된 config를 사용을 합니다. 만약. 학습과 inference를 각각 한다면(inference를 이한 주피터 노트북을 따로 생성) inference를 하기 위해 학습때와 동일하게 config를 파일을 불러오고 파라미터를 설정하고 사용을 해야 되나요? 예를 들어 학습시에 config를 파일을 불러오고 파라미터를 설정한 config를 파일로 저장하고 inference시에 그 파일을 불러와서 사용을 할 수도 있나요? 2. Mask RCNN 학습 시에 train과 validation dataset을 구성합니다. validation으로 검증을 하면서 학습을 하고 모델을 생성합니다. 생성된 모델을 평가하기 위해서는 Test 데이터셋으로 평가하는 방법이 궁급합니다. 부탁드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
교수님 질문있습니다
여기서 train과 val 가 정확히 무엇을 의미하는지 알고 싶습니다. (제말은 yolo가 /content/incredibles/images/train 밑에 있는 이미지 파일들을 통해 저희가 손수 작업한 라벨링파일인 .txt파일을 통해 어떤 원리로 best.pt를 만들어내는지 궁금합니다.) 그리고 하나더 궁금한게 있습니다. train: /content/incredibles/images/train val: /content/incredibles/images/train 실습에서 보여주신 .yaml 의 파일에서 train,val 두 경로가 같고 이미지 파일들의 경로들인데 이 경로가 yolov3가 어떻게 인식하고 작업을 수행하는지 이해가 잘 안되고 있습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
wandb 오류 질문
%cd /content %cd yolov3 !python train.py --img 640 --batch 16 --epochs 3 --data coco128.yaml --weights yolov3.pt --nosave --cache 위 코드 실행시 25 [-1, 6] 1 0 models.common.Concat [1] 26 -1 1 344832 models.common.Bottleneck [384, 256, False] 27 -1 2 656896 models.common.Bottleneck [256, 256, False] 28 [27, 22, 15] 1 457725 models.yolo.Detect [80, [[10, 13, 16, 30, 33, 23], [30, 61, 62, 45, 59, 119], [116, 90, 156, 198, 373, 326]], [256, 512, 1024]] Model Summary: 333 layers, 61949149 parameters, 61949149 gradients, 156.4 GFLOPS Transferred 440/440 items from yolov3.pt Scaled weight_decay = 0.0005 Optimizer groups: 75 .bias, 75 conv.weight, 72 other train: Scanning '../coco128/labels/train2017.cache' images and labels... 128 found, 0 missing, 2 empty, 0 corrupted: 100% 128/128 [00:00<?, ?it/s] 0% 0/128 [00:00<?, ?it/s]/usr/lib/python3.7/multiprocessing/semaphore_tracker.py:144: UserWarning: semaphore_tracker: There appear to be 6 leaked semaphores to clean up at shutdown len(cache)) 위와 같이 train 부분만 실행되다 더이상 실행되지 않는데 왜 이럴까요? 잘 이해가 안가서 질문드립니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
선생님께 질문이 있습니다.
안녕하세요 선생님 저는 현재 구조물 유지관리 분야에서 박사를 준비준인 학생입니다. 선생님의 강의를 접하기전에 독학으로 Tensorflow2와 Tensorflow 2 Detection model Zoo (https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf2_detection_zoo.md) 에 있는 EfficientDetd-0를 활용해서 제가 사용하고 있는 레이저스캐닝 데이터를 학습데이터로 사용해서 CNN학습을 진행해 보았습니다. 이 내용으로 적은 SCI는 아래 링크에 있습니다. https://doi.org/10.3390/s21217105 다름이 아니오라 선생님의 강의를 듣고 저의 방식에 대해 혼란이 왔습니다. 제 학습방식은 efficientdet_d0_coco17_tpu-32의 pipeline.config 에서 클래스의 수와 Labelmap / train,test tfrecode / 배치사이즈 / 스텝 / Epoch 를 변경하여 Tensorflow에서 제공하는 model_main_tf2.py 파일을 실행해서 학습을 진행했습니다. (https://tensorflow-object-detection-api-tutorial.readthedocs.io/en/latest/training.html) 학습후 eval 폴더를 Tensorboard를 활용해서 결과를 보았구요 의문점은 다음과 같습니다. 1. 강의에서는 Train / Validation / Test 데이터셋을 나누는데 C:\Tensorlfow\models\research\object_detection에 서 제공하는 EfficientDet config파일에는 Train과 Test만 있는데 Validation은 Train에 포함되어 있는건가요? 2. 학습을 아래와 같은 명령어로 진행후 (python model_main_tf2.py --model_dir=models/my_efficientdet_d0 --pipeline_config_path=models/my_efficientdet_d0/pipeline.config) --checkpoint_dir=models/my_efficientdet_d0 이 명령어를 통해 mAP결과가 보입니다. 저는 이 결과를 가지고 논문을 썼는데 선생님의 강의를 듣고나서 이건 학습에 대한 결과일뿐 모델 테스트에 대한 결과가 아닌것 같다는 생각이 들었습니다. 강의에 나오는 1장에 대한 결과가 아닌 Test data 폴더안에 모든 이미지를 대상으로 테스트해서 mAP를 보는 방법이 따로 있는지 궁급합니다. 딥러닝을 독학으로 공부한지 얼마안되서 단어의 선택이나 질문의 방식이 어떻게 보일지 잘모르겠습니다. 실례가 될 수 있는 질문인거 같지만 그 어디에서도 찾아보기 힘들고 물어볼곳이 없어서 선생님께 질문드립니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
수업 문의드립니다.
안녕하세요 교수님. 머신러닝부터 컴퓨터비전까지 선생님의 수업을 듣고 따라왔습니다. 다름이 아니라 mmdection에서 부터 잘 이해가 안가서...다음 챕터로 넘어가도 큰 무리가 없을까요?ㅠㅠ 항상 좋은 수업 감사합니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Mask-RCNN image segmentation 질문
안녕하세요 강사님, 좋은 강의 정말 잘 듣고 있습니다. Mask-RCNN이 instance segmentation이기 때문에 검출된 객체가 같은 class라도 그 영역이 다른 색으로 표시되는데요, 혹시 같은 class일때는 동일한 색으로 표시되게도 설정할 수 있을까요? 감사합니다.
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Anchor box 와 관련한 질문
-한가지만 더 부탁드립니다. Anchor box 의 경우 - 한 점을 기준으로 9개의 상자를 그리고 그것이 Ground Truth 와 일치하는 것을 Positive 로 정의한다. ==> 이렇게 이해를 했습니다. 맞는 건지요? 하지만 그렇게 그린 Anchor box 는 Slide Window 와 달리 실제 사진의 Object 크기에 따라 크기가 변동되지 않기 때문에 큰 이미지는 Anchor box 하나에 담지 못하는 문제가 발생하는건 아닌지요? Anchor box 의 경우 추상화 이전의 실제 이미지에 그려지기 때문에 그런 문제가 발생하지 않을까 생각해 봤습니다. 아울러 작은 Object 는 그 반대의 현상이 발생하는건 아닌지 의문점이 생겼습니다. 혹시 그렇다면 이런 것들은 Anchor box 로 어떻게 해결할 수 있는지 질문 드립니다. 혹시 큰 이미지는 작은 조각으로 분해되어 각 부분들을 Anchor Box와 예측박스로 일치시켜 이를 합쳐 하나의 큰 이미지를 예측하는거 아닌가 추측해 봅니다. 답변 부탁드려 봅니다. 를 이용해주세요.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Anchor box 와 관련한 질문 드립니다.
- Ground True Box 와 Predict Box 만 서로 비교하지 않고 왜 Anchor Box 가 추가로 필요한지 이해가 좀 부족합니다. 지난번 질문에도 좋은 답변 주셨는데 인사드리지 못했습니다. 항상 좋은 답변 감사드립니다.
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
OpenCV 의 역할에 대해 좀더 설명 부탁드립니다.
- 단순 이미지 사진 같으면 OpenCV 가 필요없을 거 같습니다. - 동영상의 경우 OpenCV가 프래임단위로 분할하고 Array로 변환해주기 때문에 이렇게 생성된 각 이미지에 대해 Detection을 하도록 할 수 있다. 이렇게 이해하면 되는지요? 답변 부탁드립니다.
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Ground True Box 와 Positive Anchor Box 관련 질문입니다.
Faster RCNN 과 관련하여 Ground Truth Box 와 Positive Anchor Box 정보는 애노테이션에 수작업으로 등록하는 건지 아니면 기계 학습을 통해 자동으로 구해지는 건지 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmcv 설치 문의
안녕하세요 선생님. 강의 잘 듣고 있습니다. mmcv 설치 관련하여 질문이 있어 글을 남깁니다. 2021-10-18 현재 colab에 설치된 torch version을 확인해보니1.9.0+cu111로 나왔습니다. 제공된 실습 노트북과 같은 방법으로 mmcv를 설치하려고 하니 15분 넘게 기다려도 설치가 되지 않았습니다. 그래서 mmdetection docs(https://mmcv.readthedocs.io/en/latest/get_started/installation.html)에서 다음과 같은 방법을 찾아 colab에 설치된 torch 버전에 맞게 설치를 했습니다. pip install mmcv-full -f https://download.openmmlab.com/mmcv/dist/cu111/torch1.9.0/index.html 이렇게 설치를 하니 약 12초 정도 소요되었습니다. 위 방법으로 설치한 후 코드를 실행시켰을 때 error없이 모든 코드가 잘 실행되었습니다. 1) 그렇다면 위 방법을 모든 MMDetection 실습에 사용해도 괜찮은 건가요? 새로운 방법이 실습을 진행하는데 무리가 없다면 다른 사람들에게도 도움이 될 거 같아 글을 남깁니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Object Detection과 OCR 의 차이를 알고 싶습니다.
안녕하세요. 선생님 강의 잘 듣고 있습니다. 다름이 아니라 OCR이 이미지나 문서속에 포함된 Text를 추출하고 인식하는거잖아요. Text 추출 및 인식의 경우, Object Detection처럼 Bounding Box를 찾고, Text가 word이면 LSTM을 사용하는 것 같고, Text를 character 단위로 쪼갤수 있다면 CNN 을 사용해도 될 거 같다는 생각이 들어서요. 언뜻 보기에 Object Detection과 거의 비슷한 거 같더라구요. OCR과 Object Detection 이 어떤 차이가 존재하는지, 이 수업에서 배우는 모델중에서 OCR에 적용가능한 게 있는지 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
size mismatch 현상
안녕하세요 교수님. 양질의 강의를 제공해주셔서 감사합니다. 다름이 아니라 VOC Dataset은 CLASS가 20개이고 COCO Dataset은 80개의 클래스를 가지고 있는 것으로 알고 있습니다. config_file과 checkpoint_file 또한 coco로 맞추어져 있는데 train_detector를 실행하면 위의 사진과 같이 size mismatch라는 출력이 나오게 됩니다. 우려와는 다르게(?) 결과는 잘 나오는데 혹시나 문제가 되지 않을까 하여 질문 드립니다. 감사합니다.