월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mAP 0.5와 mAP 0.5-0.95의 차이
mAP의 측정 기준 중mAP0.5와 mAP 0.5-0.95는 무엇을 의미하나요?보니까 IoU를 0.5에서 0.95까지 0.05씩 올려가면서 측정한 평균 mAP라는데, 이것이 무엇을 의미하는 지 자세히 모르겠습니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
faster-rcnn inference 오류
현황 : BCCD에서 사용하던 코드로 Inference를 하려 했는데다음과 같은 오류가 발생하고 있습니다바쁘시겠지만 문의드립니다◇ 문의사항: 해결방안이 있을까요?코드import torchfrom mmdet.apis import multi_gpu_test, single_gpu_testfrom mmcv.parallel import MMDataParallel, MMDistributedDataParallelmodel_ckpt = MMDataParallel(model_ckpt, device_ids=[0])outputs=single_gpu_test(model_ckpt, data_loader, True, "저장폴더", 0.5)--------------------------------------------------------------------------- AssertionError Traceback (most recent call last) Input In [6], in <cell line: 8>() 5 model_ckpt = MMDataParallel(model_ckpt, device_ids=[0]) 6 # single_gpu_test를 활용하므로 samples_per_gpu는 1이 되야함 ----> 8 outputs=single_gpu_test(model_ckpt, data_loader, True, "저장폴더", 0.5) File ~/.local/lib/python3.9/site-packages/mmdet/apis/test.py:38, in single_gpu_test(model, data_loader, show, out_dir, show_score_thr) 36 img_tensor = data['img'][0].data[0] 37 img_metas = data['img_metas'][0].data[0] ---> 38 imgs = tensor2imgs(img_tensor, **img_metas[0]['img_norm_cfg']) 39 assert len(imgs) == len(img_metas) 41 for i, (img, img_meta) in enumerate(zip(imgs, img_metas)): File ~/.local/lib/python3.9/site-packages/mmcv/image/misc.py:34, in tensor2imgs(tensor, mean, std, to_rgb) 32 if torch is None: 33 raise RuntimeError('pytorch is not installed') ---> 34 assert torch.is_tensor(tensor) and tensor.ndim == 4 35 channels = tensor.size(1) 36 assert channels in [1, 3] AssertionError: show_result_pypot 사용 시 오류가 발생하는데해결방안이 있을까요?코드from mmdet.apis import show_result_pyplotimport cv2#brg image 사용img = cv2.imread("sample 이미지 위치")model.cfg = cfgresult = inference_detector(model, img)show_result_pyplot(model, img, result, score_thr=0.3)결과/home/namu/.local/lib/python3.9/site-packages/mmdet/datasets/utils.py:66: UserWarning: "ImageToTensor" pipeline is replaced by "DefaultFormatBundle" for batch inference. It is recommended to manually replace it in the test data pipeline in your config file. warnings.warn(
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
[질문] roboflow 사이트에서 public Datasets에서 원하는 데이터가 다운이 안됩니다.
YOLOv5 Custom Training - GPU를 위하여 roboflow 사이트에서 public Datasets에 가서 Synthetic Fruit Dataset 이미지를 다운로드 할려고 하는데 우측 상단에 있는 Download 아이콘이 눌러지지도 않고 팝업창이 뜨지를 않습니다. 이유를 모르겠습니다,
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLO V2 질문 있습니다!!
안녕하세요! 선생님 yolo v2 질문있습니다. Input image를 7*7 gride로 나누고 각 grid의 cell이 5개의 anchor box를 기준으로 object Bbox를 예측하지 않습니까? 그런데 학습이 어떻게 되는지 궁금합니다. 학습할때 fine tuning을 해서 convolution layer(feature extrater)는 얼린다(?)고 들었는데, 그럼 bbox에 관한 훈련은 feature extrater 뒤 부분인 classification layer만 학습하는 것입니까? 그러면 pretrain된 convolution layer(feature extrater)는 bbox 관련해서 사용하지 않고 이미지 특징만 추출하는 것입니까?? 궁금해서 질문 드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolo 학습 및 테스트에서 IoU값 확인 방법
안녕하세요 교수님 yolo파트 수강중 mAP값 확인 전 IoU값을 확인하고자하는데 IoU값을 출력하는 부분을 찾기가 어려워 질문드립니다. yolo의 출력결과에서 mAP가 아닌 IoU값을 출력할 수 있는 방법을 질문드립니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection 모델 생성 원리가 궁금합니다.
권철민 선생님 안녕하세요, 강사님의 수업 덕분에 mmdetection 사용법을 익힐 수 있어서 너무나 유익하고 감사합니다. 강사님의 수업을 듣고, mmdetection 코드를 살펴 보고 있는데요 궁금한게 생겨서 이렇게 질문 드리게 되었습니다. 예를 들어, mask rcnn 모델을 이용하여 데이터를 학습 시키게 되면, mmdetection에 있는 tools/train.py 파일을 실행시키게 되는데, 이때 config 파일로는 mask rcnn의 config 파일을 사용하게 됩니다. (ex. mmdetection>configs>mask_rcnn>maskrcnn_r50_fpn_1x_coco.py) 이러한 config를 보면 기존에 제가 보았던 파이토치를 활용하여 적힌 코드들 ex) nn.Seqeuntial(nn.Conv2d(mid_channels, out_channels, kernel_size=3, padding=1, bias=False, .... ) 이런식으로 코드가 적힌게 아니라 단순히 config 들만 적혀있는데 이들이 어떻게 train.py 파일에서 model화 되어 코드가 실행될 수 있는 지 궁금합니다. mmdection>mmdet>models>builder.py 와, registry.py 파일을 확인해봐도 어떻게 이 config 들로 모델이 설계될 수 있는 것인지 이해가 잘 안가서 질문 드리게 되었습니다. 너무 심오한 질문을 드려 죄송합니다..
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
3개의 scale Output layer에서 결과 데이터 추출 질문
opencv_yolov3_inference.ipynb에서 소스코드들을 순서대로 수행해보는데 다음과 같이 에러가 뜹니다... 어디서 문제가 된건지 알 수 있을까요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdet 설치가 안되네요 ㅠㅠ
먼저 좋은 강의 감사드립니다. 열심히 따라가면서 배우고 있습니다 ^^ 다만 mmdet 설치가 계속 안되어서.. 질문 드립니다. Colab 이 아닌, 개인 pc 서버로 실습을 해 오고 있었습니다. GPU 는 RTX3090 이구요~ Torch1.9.0 를 Cuda 111 로 설치해서 torch 에서 GPU 인식 되는 것은 확인했고, cu111/torch1.9.0 에 상응하는 mmcv-full 도 제대로 설치했습니다만.. 문제는 mmdet 가 무엇을 해도 설치가 안되네요ㅠ 몇 시간 동안 해결해 보려고 가상환경 다시잡아보고 재설치해보고는 있는데 아직 해결 못하고 있습니다. 문제는 pycocotools 쪽인듯한데.. 혹시 도움을 주실 수 있으신지요..? Collecting mmdet Using cached mmdet-2.25.1-py3-none-any.whl (1.4 MB) Collecting terminaltables Using cached terminaltables-3.1.10-py2.py3-none-any.whl (15 kB) Requirement already satisfied: six in c:\users\user\anaconda3\envs\yp3\lib\site-packages (from mmdet) (1.16.0) Collecting matplotlib Using cached matplotlib-3.5.2-cp38-cp38-win_amd64.whl (7.2 MB) Requirement already satisfied: numpy in c:\users\user\anaconda3\envs\yp3\lib\site-packages (from mmdet) (1.23.1) Collecting pycocotools Using cached pycocotools-2.0.4.tar.gz (106 kB) Installing build dependencies: started Installing build dependencies: finished with status 'done' Getting requirements to build wheel: started Getting requirements to build wheel: finished with status 'done' Preparing metadata (pyproject.toml): started Preparing metadata (pyproject.toml): finished with status 'done' Requirement already satisfied: pyparsing>=2.2.1 in c:\users\user\anaconda3\envs\yp3\lib\site-packages (from matplotlib->mmdet) (3.0.9) Collecting kiwisolver>=1.0.1 Using cached kiwisolver-1.4.4-cp38-cp38-win_amd64.whl (55 kB) Collecting fonttools>=4.22.0 Using cached fonttools-4.34.4-py3-none-any.whl (944 kB) Requirement already satisfied: pillow>=6.2.0 in c:\users\user\anaconda3\envs\yp3\lib\site-packages (from matplotlib->mmdet) (9.2.0) Requirement already satisfied: python-dateutil>=2.7 in c:\users\user\anaconda3\envs\yp3\lib\site-packages (from matplotlib->mmdet) (2.8.2) Requirement already satisfied: packaging>=20.0 in c:\users\user\anaconda3\envs\yp3\lib\site-packages (from matplotlib->mmdet) (21.3) Collecting cycler>=0.10 Using cached cycler-0.11.0-py3-none-any.whl (6.4 kB) Building wheels for collected packages: pycocotools Building wheel for pycocotools (pyproject.toml): started Building wheel for pycocotools (pyproject.toml): finished with status 'error' Failed to build pycocotools Note: you may need to restart the kernel to use updated packages. error: subprocess-exited-with-error Building wheel for pycocotools (pyproject.toml) did not run successfully. exit code: 1 [14 lines of output] running bdist_wheel running build running build_py creating build creating build\lib.win-amd64-cpython-38 creating build\lib.win-amd64-cpython-38\pycocotools copying pycocotools\coco.py -> build\lib.win-amd64-cpython-38\pycocotools copying pycocotools\cocoeval.py -> build\lib.win-amd64-cpython-38\pycocotools copying pycocotools\mask.py -> build\lib.win-amd64-cpython-38\pycocotools copying pycocotools\__init__.py -> build\lib.win-amd64-cpython-38\pycocotools running build_ext skipping 'pycocotools\_mask.c' Cython extension (up-to-date) building 'pycocotools._mask' extension error: Microsoft Visual C++ 14.0 or greater is required. Get it with "Microsoft C++ Build Tools": https://visualstudio.microsoft.com/visual-cpp-build-tools/ [end of output] note: This error originates from a subprocess, and is likely not a problem with pip. ERROR: Failed building wheel for pycocotools ERROR: Could not build wheels for pycocotools, which is required to install pyproject.toml-based projects
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection (mask_rcnn) 인퍼런스 관련 질문입니다.
안녕하세요. 좋은강의 잘 듣고 있습니다. 얼마전에 mmd-to-tensorrt 질문을 올렸었는데요. 사실 해당 라이브러리를 사용해보려 한 목적이 Inference의 속도를 향상시키려는 시도의 일환이었습니다. 혹시 mmdetection을 이용한 mask_rcnn 의 추론 속도를 향상시키는 다른 방안을 알고계신가 싶어 질문 드립니다. mmdetection에 포함된 다른 instance segmentation 검출 로직인 yolact를 사용하면 미세하게 속도의 향상이 있으나 검출 정확성 측면에서 mask rcnn이 더 낫더라구요. 항상 좋은 강의 감사드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
annotation 양식(?)에 대해 여쭤보고싶습니다.
안녕하세요 선생님, 좋은 강의 감사합니다!!! 제가 직접 custom data를 활용해서 yolo v5를 직접 학습해보려고 합니다. cvc-14라는 적외선데이터셋으로 학습하려고 하는데 이 데이터셋은 annotation 모양이 사진처럼 되어있습니다. yolo v5를 사용해 bccd데이터 디텍션하는 예제보면 bccd데이터의 voc포멧을 coco로 변환하는건 이해했습니다. 근데 위의 annotation양식을 어떻게 coco로 바꿀 수 있을까요...? 검색해도 참고할만한 답이 나오지않아서.... 선생님께 한번 여쭤보고싶습니다. 감사합니다!!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolov5의 학습 AssertionError
제가 지금 강사님한테 배운 것을 토대로 제가 만들고 있는 프로젝트에 yolov5를 적용하고 있습니다. json 파일을 text파일로 바꾸었고 yaml 파일을 이런 식으로 설정하고 코드를 이런 식으로 출력하였는데 이런 식으로 AssertionError가 납니다. 강의에서 했던대로 적용하고 있는데 AssertionError나는 원인과 해결방법이 있는지 알고싶습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
딥러닝이 이미지를 학습하는방법?
안녕하세요 선생님 딥러닝이 이미지를 학습하는 방법은 점점 레이어가 깊어 질 수록 추상화 되면서 그 물체의 전반적인 형상을 일반화해 나가는것인가요? 그래서 인간의 다양한 모습들을 학습시키면 그 개개인의 모습이 조금씩 다를지라도 인간이라고 학습하는것 처럼요 그럼 만약 그 물체의 형상이 본질적으로 다른것들을 한 클래스로 묶을 경우는 판단할 수있나요? 예를 들면 포유류를 판단하는 비전 시스템을 만들고자 했을때 실제 포유류의 종류는 다양하지요 사슴이나 하마의 경우만 해도 많이 다른데 고래의 모습은 육상 포유동물과는 많이 다릅니다. 그럼 만약 이 모든 동물들의 사진을 하나의 클래스안에 묶어 학습하면 포유류를 제대로 인식하는 성능을 가진 모델을 만들수가있나요? 이것과 이어지는 질문으로 자율주행 차량에서는 어떻게 장애물을 인지하나요? 장애물을 그 종류가 아주 많은데 그 모든 장애물들을 일일히 학습시킬까요? 아니면 묶어서 학습시킬까요? 혹은 다른 방법이 있을까요? 항상 빠르게 답변 주셔서 감사드립니다. 오늘 하루도 잘 보내세요~
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 PR 커브 관련하여 질문이 있어 글 작성합니다.
안녕하세요. mmdetection에서 제공하는 mask rcnn을 이용하여 커스텀 데이터셋을 학습시켜 mmdetection 라이브러리에 포함되어있는 coco 데이터셋의 mAP evaulation method를 통해 PR curve를 그려보니 recall값이 0.5정도가 넘어가면 precison이 거의 0으로 빠르게 떨어지는 현상을 발견했습니다. 여러 문헌들을 찾아보니 저처럼 특정 recall값에서 빠르게 precision이 감소하는 경우도 있고, 그렇지 않은 경우도 있었습니다. 또한 선생님께서 precision-recall curve 설명에서 나온 그래프 또한 recall이 0.8정도에서 급격히 precision이 떨어지는 그래프를 볼 수 있었습니다. 혹시 이런 경우처럼 precision값이 특정 recall값에서 급감하는 상황은 왜 발생하는 것인지 이유가 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
강사님 부탁드려봅니다.
강사님 yolo v7 등 본 강의 이후에 새롭게 등장한 학습모델과 관련하여서도 별도의 강좌를 개설할 생각은 없으신지요? 검토 부탁드려 봅니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolov5 학습
Yolo V5로 COCO형태의 BCCD 데이터 Train 실습 - Dataset yaml 적용 후 Train과 Inference 수행에서 train.py부분을 연습 하고 있는데 이것을 구글 코랩 말고 visual studio code에서도 python train.py --img 640 --batch 8 --epochs 30 --data /content/bccd/bccd.yaml --weights yolov5l.pt \ --project=/mydrive/ultra_workdir --name bccd --exist-ok 이 명령어로 학습이 가능할까요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습되는것 시각화 가능한가요?
안녕하세요 강의 잘듣고 있습니다. 질문이 3가지 있습니다 첫째 지금 ultralytics yolo를 이용해서 학습을 진행하고 있습니다. 최종 산출물중에 학습과정중의 상황을 바운딩 박스처리하여 보여주는것이 있던데 이것들을 더 늘릴수있나요? 실제로 어떻게 G.T가 쳐저있는지등을 알고싶어서요 즉 어떤 물체에다가 bounding box 처리했는지 레이블링이 잘 되어있는것인 등을 확인 할 수있는 방법이 있을까요? 둘째 두개의 데이터셋이 있을때(다른 클래스들로 레이블링 처리됨) 그 두개의 데이터셋을 합쳐서 학습을 돌리면 성능이 나빠지나요? 예를 들어 하나의 데이터셋은 강아지와 고양이에 대한 레이블링 처리가 되어있고 다른 하나는 사람에 대해서 레이블링 처리되어있을때 새롭게 레이블링 하지않고 강아지 고양이 사람에 대한 오브젝트 디텍션 처리를 위해 하나의 데이터셋으로 합친다음에 돌리는겁니다. 아마 이 경우 강아지 고양이 데이터셋에는 사람이 레이블링 안되어있고 사람쪽엔 고양이 강아지 물체가 있더라도 레이블링이 안되어 있어 성능이 나빠질것 같은데 맞나요? 그럼 강아지 고양이 사람 모두를 학습시키고 싶을떄는 처음부터 다시 레이블링을 하는 방법밖에 없는지 궁금합니다. 셋째 보통의 딥러닝 엔지니어들은 주로 mmdetection이나 ultralytics yolo와 같은 프레임워크를 가져다 쓰고 하이퍼파라미터 튜닝을 하는것이 주 임무 인가요? 그럼 현재 현업에서 사용되는 제일 최신의 툴은 무엇인가요? 그리고 모델의 성능이 잘 안나올때 제일 먼저 만저봐야하는 하이퍼파라미터는 무엇인지 궁금합니다. 그리고 마지막으로 컴퓨터 비전관련한 책중에 이론 설명이 잘 되어있는 책(전통비전이 아닌 딥러닝위주의) 추천해주실께 혹시 있나요? 아니면 사이트도 괜찮습니다. 질문이 조금 많았습니다. 이상입니다 감사합니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
데이터셋 바꾸기
질문이 있습니다. 제가 yolov5를 사용하기 위해 데이터셋을 ai hub라는 사이트에서 가져왔는데 데이터가 json파일과 사진 파일 밖에 안 들어있습니다. json 파일 안에는 데이터 전처리(바운딩 박스)가 다 되어 있습니다. 하지만 yolov5를 사용하려면 각 사진 파일마다 텍스트 파일이 있어야 하는데 혹시 json 파일을 안의 바운딩 박스 데이터를 각 사진의 텍스트 파일로 변환하는 방법이 있을까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolov3 학습 과정 log파일로 저장 방법 질문
안녕하세요 교수님 yolo 학습 과정에서 shell에 출력되는 것과 같이 log파일로 저장할 수 있는 방법이 있는지 문의드립니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
MMDetection To TensorRT 를 사용시 Mask_RCNN Dimension 문제가 발생합니다 ㅠㅠ
안녕하세요. 선생님의 MMDetection 강의를 보고 여러가지 만들어보고 있는 학생입니다. 다름이 아니고 mask_rcnn에 tensorrt를 적용해보고자 하여 mmd to tensorrt 라는 github를 발견하고 사용해보았습니다. https://github.com/grimoire/mmdetection-to-tensorrt 일단 설치하고 모델 적용을 하는데 기본값으로 모델을 변환하고 추론하면 추론이 되긴 하는데 segm 가 빠진 bbox만 검출이 됩니다. 그리고 파라미터를 수정해서 seg trt_model = mmdet2trt( cfg_path, args.checkpoint, fp16_mode=args.fp16, device=args.device, enable_mask=True, opt_shape_param=opt_shape_param, output_names=["num_detections", "boxes", "scores", "classes", "masks"] ) 요런식으로 만들어 모델을 돌려보면 IndexError: Dimension out of range (expected to be in range of [-1, 0], but got 1)가 가 계속 뜨는데요. 혹시 도움주실수 있을까 하여 작성했습니다. 좋은 강의 감사히 보고있습니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Train시에 GT데이터들의 Annotation이 어떻게 각 피처맵을 거친 값들에 적용되는지 궁금합니다!
안녕하세요 무더위 건강 잘 챙기시길 바랍니다. 저는 직접 깃허브에 있는 코드로 구현 하고 있는 중입니다만 512*512를 인풋으로 넣어서 Neck까지 통과한 결과 P3, P4, P5, P6, P7이 각각 (1, 128, 128, 64) (1, 64, 64, 64) (1, 32, 32, 64) (1, 16, 16, 64) (1, 8, 8, 64)로 나왔고 각 셀에 9개 앵커박스를 할당해 boxnet을 통과시켜 concat하면 128*128*9 +64*64*9 +32*32*9 + 16*16*9 +8*8*9 = 196,416 (1, 196416, 4) 의 결과값을 얻었는데 서론이 너무 길었네요ㅜㅜ Train시에 원본 이미지와 그에 따른 Annotation 파일에 BBox의 x, y, w, h 좌표가 있을 때 이 데이터가 피처맵들에 맞는 데이터로 변환이 되어서(?) 위에서 구한 결과값과 어떻게 비교가 되어서 학습이 될지 궁금합니다. 직관적인 제 생각으로는 만약 원본 이미지에 (10,10) 좌표에 바운딩박스가 있다면 반으로 줄인 피처맵에는 대략적으로 (5,5) 좌표에 박스가 위치하지 않을까 하는데 맞는지 궁금합니다 혹시 https://github.com/xuannianz/EfficientDet/tree/030fb7e10ab69a297c7723120c2d1be856a852c0 여기 코드에 그런 내용이 있다면 언급해주시면 정말 감사하겠습니다! 바쁘실텐데 귀찮게 해드려서 죄송합니다만 답변 부탁드립니다