월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
질문이 있습니다.
예전에 Selective Search 를 학습하였을 당시에는, bounding box의 coordinate의 right와 bottom에 left와 top을 더해주어야 제대로된 bounding box가 형성되었습니다. 또한, 저번에도 이와 관련된 질문을 했었는데, 그때 답하신 것이 ---------------------------------------------------------- opencv의 rectangle()함수가 좌상단 좌표, 우하단 좌표를 필요로 하기 때문입니다. selective search는 좌상단 좌표와 너비, 높이를 반환합니다. 때문에 우하단 좌표의 x축값(right)은 좌상단 좌표의 x축값(left) + 너비, y축값(bottom)은 좌상단 좌표의 y축값(top) + 높이로 계산합니다. ------------------------------------------------------------- 이로 답변하셨거든요. 근데 이번 예제는 달랐습니다. 같은 cv2.rectangle() 함수를 썼는데도 불구하고 left와 top값을 더하지 않고도 제대로된 bounding box가 형성되었거든요. 우선 하나의 bounding box만 출력하고 좌표를 확인했을때의 right와 bottom의 coordinate는 아직 더해지지 않은 값이 입력하였으나, rectangle()에 그대로 넣어도 bounding box가 제대로 출력되는게 신기합니다. 이해를 돕기 위한 관련 사진 첨부합니다. 그림을 보면 right와 bottom에 각각 left와 top을 더하지 않아도 출력이 되는 것을 확인할 수 있습니다. 또한, left coordinate : 225 top coordinate : 260 right coordinate : 375 bottom coordinate : 544 로 나오는데, matplotlib의 plot을 보게 되면 right와 bottom의 coordinate는 각각 left와 top의 coordinate를 더해야 나올 수 있는 bounding box인데 말이죠..ㅠㅠ 이해가 되지 않네요,
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Annotation 데이터 질문입니다.
안녕하세요. 데이터세트를 위한 Annotation 작업에서 대부분의 데이터세트와 YOLO가 사용하는 데이터세트의 Annotation 방식이 다르다고 말씀해주셨습니다. 하나의 형태가 아닌 좌상단+우하단 혹은 중점+너비,높이처럼 나뉘는 이유가 있을까요? 이 부분을 다르게 변화하였을 때 미미하더라도 장단점이 있는지 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
질문드립니다.
음.. 결국에는 현재로썬 Opencv DNN을 사용하여 GPU로 inference 하는 방법 밖에 없는 건가요? Opencv DNN을 쓰기 위해선 저장한 모델을 불러와야 하며 해당 opencv 버전에 맞는 환경 설정 파일이 있어야 가능한건가요? 예전에, segmentation을 공부하면서 inference하는데 GPU로 돌리지 않고 CPU로 하다보니 CPU usage를 95% 이상 썼던 기억이 납니다.. 이를 GPU로 inference하려다 포기했었는데,,, 현재로썬 불가능한건가요..?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
efficientDet 라이브러리 수정
from tf2.train import setup_model import hparams_config import utils from tf2 import tfmot from tf2 import train_lib from tf2 import util_keras efficientdet_train_esri_challenge 파일에서 라이브러리 로드하는 코드가 있는데 기존 efficientdet - tf2 - tfmot을 불러올 때 --------------------------------------------------------------------------- ModuleNotFoundError Traceback (most recent call last) <ipython-input-26-36ef36cadfc8> in <module>() 3 4 import utils ----> 5 from tf2 import tfmot 6 from tf2 import train_lib 7 from tf2 import util_keras /content/automl/efficientdet/tf2/tfmot.py in <module>() 16 import functools 17 ---> 18 import tensorflow_model_optimization as tfmot 19 from tensorflow_model_optimization.python.core.quantization.keras import quantize_wrapper 20 from tensorflow_model_optimization.python.core.quantization.keras.default_8bit import default_8bit_quantize_configs ModuleNotFoundError: No module named 'tensorflow_model_optimization' --------------------------------------------------------------------------- 라고 에러가 발생합니다. 기존 버전이 업데이트 된 듯 합니다 어떻게 해결해야 할까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
SPP-Net에서 궁금증
질문이 2개 있습니다. 1. 첫 번째 질문은 기존의 Spatial Pyramid Pooling은 Feature Map에서 위치 정보를 같이 가져가기 위해 분할한 후 Max Pooling을 적용하는 것으로 이해했습니다. 이를 RCNN에서는 Feature Map 내부의 Feature에 Spatial Pyramid Pooling 을 적용한 것이고요. 이렇게 이해하는 것이 맞나요? 2. 두 번째 질문은 원본이미지에서 Selective Search는 따로 work하여 Feature Map에 연결시킨다고 이해했습니다. 근데 Feature Map은 이미 크기가 작아져 있는 상태이지만 Selective Search 같은 경우에는 원본 이미지에 Bounding box를 한 상태일 텐데, 어떻게 Feature Map에 Mapping(connect) 시킬 수 있는지 궁금합니다. 즉, Selective Search에서 나오는 coordinate와 Feature Map에 Mapping하는 coordinate와 다를텐데 어떻게 연결지어지나요..?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
bounding box 시각화하기 코드에서 질문드립니다.
_, regions = selectivesearch.selective_search(img_rgb, scale=100, min_size=2000) 이를 코드를 통해 rect를 뽑아보면 bounding box의 coordinate가 나오는 것은 알겠는데,bounding box를 시각화를 할때 right와 bottom을 구하기 위해서 left와 top을 더하는 이유는 무엇입니까? 해당 bounding box의 값에 대한 즉, rect에서 나온 bounding box의 coordinate만 추출하면 되지 않나요..? 혹시 기준이 0에서 시작해서 그런 것인가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 강사님
저는 공부를 하면서 블로그에 정리하는 습관이 있는데요. 혹시 강의 자료의 어느 부분과 코드 부분을 스크린 샷을 통해 정리 해도 될까요..? 물론 reference는 달겠습니다. 가능할까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
제공되는 주피터 노트북이 window에서 경로를 잘 인식을 못하는데 (cd 명령) 이유를 알 수 있을까요?
분명 경로를 맞는데, 윈도우에서 다음 오류가 자꾸 발생하네요 감사합니다 선생님
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
custom dataset을 tfrecords로 변환할 때 디렉토리 문제
안녕하세요 열심히 수강하고 있는 수강생 입니다. 현재 efficientDet 강의를 수강하고 있고, tfrecord, 그중에서 pascal voc의 xml annotation 을 automl 수행을 위한 tfrecord로 변환하는 부분에 대한 질문이 있습니다. 질문은 기존 pascal voc dataset이 불완전한 상태여도 tfrecord로 변환하는데 문제가 없을까요? 제가 여기서 배운 걸로 프로젝트를 진행하고 있거든요. 영상처리를 하기위해 dataset을 직접 수집하고 labeling도 한 상태에서 tfrecord로 변환하고 최종학습하려 합니다. 그런데 detection만 하려는 목적 상 아무래도 segmentation은 필요가 없을 것 같아서 object, class, imageset 등 segmentation 관련 폴더는 유지하되 내용은 비우거나 더미이미지파일로 채우려고 하거든요. 그런데 tfrecord 특성을 보니 image와 annotation을 묶어서 저장하는 형태잖아요. 그래서 dataset의 구성의 완결성과 품질을 요구할 것으로 예상하는데, 저희 프로젝트는 segmentation에 시간이나 노력을 소모하고 싶진 않거든요 그래서 비워둔 상태나 형식만 갖춰 놓아도 tfrecord를 구성하는데에는 문제가 없을까요? 추가로 데이터셋 디렉토리에서 main은 꼭 구성을 해야 val, train을 구분할 수 있는 것같은데, 그 이외에 예를 들어 aeroplane_train 등 class 별로도 구분하고 그걸 txt파일로 남겨놔야하나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
해당 코드를 임의의 이미지로 변경하여 테스트 하던 중, 그림과 같이 에러가 발생합니다.
첨부한 이미지와 같이, 임의의 파일로, 비틀즈 이미지를 대체하여 테스트를 진행 하는데, 이미지와 같이 에러가 발생합니다. 구글드라이브를 attach 시켜서, 그 폴더에서, data 폴더로 복사하여, 진행 하면 에러가 발생하고, COLAB에서 해당 파일을 마우스로 드래그 & 드랍으로 이동하여 사용하면 문제가 없습니다. 무엇이 문제일까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
바운딩 박스가 한 사람에게 여러개 잡히는 경우
선생님 안녕하세요, 선생님덕에 어렵게만 느껴지던 cv를 조금씩 배우고 있어서 정말 감사드립니다. 제가 mask rcnn이나 mmdetection을 통한 segmentation을 다른 이미지를 넣어서 해봤는데요, 2모델 다 한 사람만 있는 여러 사진들에서 한 사람에 대해 서너개의 바운딩박스가 생기더라고요. (다 사람으로 예측하긴 하는데 accuracy는 갈수록 낮아지게 생깁니다.) 한명이 앞에 있고, 뒤에 또 사람이 겹쳐져 있는거다 이런 식으로 인식한 걸까요? 이런게 이례적인 경우인가요? 일반적인 경우라면 어떻게 하면 더 나은 결과가 나올 수 있을까요? 그냥 threshold를 높이면 되는 걸까요? 사진에 나오는 사람이 대체적으로 한명이고, 사람을 찾는 거라면 range(1)로만 하면 되는 걸까요? 그럼 자동으로 가장 accuracy가 높은거 하나만 나오는 건가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
탐지 정확도 관련
강사님의 강의를 토대로 과거 retinanet를 이용해서 야생동물(여우, 멧돼지 등)을 탐지할 때 학습자료이든 테스트 자료이든 원하는 결과는 나왔는데 개정된 강의에서 efficientdet 모델을 이용했는데 레티나넷 모델보다 잘 탐지하지 않는것 같아서 질문드립니다. 객체탐지면에서 속도면는 yolov5, efficientde이 높기는 한데 탐지정확도는 레티나넷모델도 높지가 않습니다. efficientdet04 버전까지 수행했습니다. 물론 mAP는 높게 산출되는데 실질적으로 학습동영상을 예측해도 바운딩한 객체는 0.98로 정확도가 높게 나타나는데 바운딩하지 않은 객체는 거의 탐지을 못하는데 그 이유가 궁금합니다. yolov5, efficientdet, 레티나넷모델중 어떤 모델이 가장 정확도면에서 효과적인 것인지도 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection관련 질문
강사님, 제가 Pascal VOC형태로 구성된 Custom Dataset에 대해 Object Detection을 수행하려고 합니다. 강의에서 잠깐 이야기 하셨던 것 같은데 mmdetection은 COCO 데이터셋의 형태에 맞춰서 구성이 되어있다고 하셨던 것 같은데 Pascal VOC 데이터셋의 형태로 구성되어 있는 Custom Dataset에 대해서는 kitti 데이터셋을 학습시키듯이 mmdetection의 CustomDataset을 상속 받아서 수행할 수 있는 건가요? 제 Custom Dataset은 data폴더 아래에 여러 폴더들로 구성되어 있고 하나의 폴더는 아래 그림과 같이 여러 이미지들을 저장하고 있는 1폴더와 여러 이미지들에 대해 annotation을 xml형식으로 저장하고 있는 1_annotations_v001_1폴더로 구성되어 있습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
efficientdet 학습시 'numpy.float64' object cannot be interpreted as an integer 오류
이포크 5번 수행하고 validation 결과 출력시 오류가 나옵니다. 해결방법이 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
import error가 생기고 진행이 안되네요.
mm_faster_rcnn_train_kitti.ipynb 강좌 중, [2]번 STEP에서, kernel을 재시작 했는데도, 계속 import error가 발생합니다. 어느 부분을 점검해 보아야 하는지 모르겠습니다. 지도 편달 부탁 드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
쥬피터노트북에서 efficientdet 실행여부
코랩이 아닌 일반 pc에서 아나콘다 환경의 쥬피터노트북에서는 efficientdet를 사용할 수 있는지 궁금합니다. 강사님이 배포한 efficientdet_train_pascal_voc파일에서 다음 구문을 실행하는데 오류메시지가 나옵니다. !cd /content/automl/efficientdet; PYTHONPATH="/content/automl/efficientdet:$PYTHONPATH" python dataset/create_pascal_tfrecord.py --data_dir=/content/VOCdevkit --year=VOC2007 --set=train --output_path=/content/tfrecord/train/pascal 물론 /content/ 부분을 e:/efficientdet_workspace로 변경해서 실행했습니다. 오류메시지 Traceback (most recent call last): File "dataset/create_pascal_tfrecord.py", line 34, in <module> from dataset import tfrecord_util ModuleNotFoundError: No module named 'dataset'
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 교수님
다름이 아니라 강의와는 상관없는 질문?이 있습니다. 구글링을 하다가 텐써플로우와 파이토치 속도차이 및 성능 차이가 꽤 있다는 글을 봤습니다. 개인적으로 딥러닝에서 속도와 성능이 갑?이라고 생각을 합니다 . 이러한 차이들이 향후 텐써플로우 유저들에게 큰 영향을 미칠까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
hub.load(module_handle) 실행시 오류 발생 관련
detector_model = hub.load(module_handle) 실행시 다음과 같이 오류가 나옵니다.또한 detector_model = get_detector() 구문을 실행할 때도 다음과 같은 메시지가 나옵니다.WARNING:tensorflow:Importing a function (__inference_EfficientDet-D0_layer_call_and_return_conditional_losses_103456) with ops with custom gradients. Will likely fail if a gradient is requested.현재 conda 가상환경에서 사용중이고 쥬피터노트북을 이용하고 있습니다.tensorflow 버전은 2.3.0입니다.warning이라 무시해도 되는 경우인지 궁금합니다. 왜 이런 메시지가 나오는지 궁금합니다. 이미지 추론하는데는 문제가 없이 실행됩니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection U-net 적용
안녕하세요 교수님 좋은 강의 잘 듣고 있습니다. mmdetection mask rcnn 모델 사용해서 balloon 데이터 세트 검출하는 강의를 보고 제가 진행하고 있는 프로젝트에 u-net 모델을 사용해보려고 합니다. 그런데 mmdetection u-net 모델에 들어가보니 (https://github.com/open-mmlab/mmsegmentation/blob/master/configs/unet/README.md) 지원되는 데이터 세트가 DRIVE, STARE, CHASE_DB1, HRF 밖에 없는데 이런 경우 balloon 데이터 세트처럼 coco 데이터 세트 포맷으로 변환해서 사용을 못하나요? 그리고 현재 진행하고 있는 프로젝트가 semantic segmentation인데 사용할만한 모델이나 성능향상에 도움이 될만한 데이터전처리에는 어떤게 있을까요?
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Yolo v3 Custom Dataset 결과 데이터 분석을 어떻게 해야 할 지요?
교수님 안녕하세요 . 개정되고 나서 다시 정주행 하고 있고 있습니다. 좋은 강의 감사드리고 교수님 강의들 머신러닝과 오라클 강의 또한 아주 잘 듣고 있습니다. 교수님 Yolo v3 Custom Dataset으로 학습 후 아래와 같이 텐소보드를 통한 결과 같은데 이 부분을 어떻게 해석을 하고 보완을 해야할 지 강좌 내용에는 아래와 같은 Train 에 대한 학습 Result 를 하는 내용을 아직 제가 찾지 못해서 데이터를 분석하고 이해하는 법을 알고자 이렇게 두루뭉실하게라도 여쭙니다. 감사합니다.