월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Anchor box
좋은 강의 항상 감사합니다!! 1. 먼저 8x8으로 그리신 feature 맵에 앵커박스를 그리신 부분은 편의상 그리실 걸로 알고 있습니다. 원래대로라면, 원본이미지에 해당 feature map의 특정 포인트에 해당하는 부분을 중심으로 하고, 그걸 기준으로 anchor box 를 그리고 원본이미지에서의 object 과 IOU 를 비교하는 것이지요? 2. 그리고 bounding box regression 할 때, 학습시에는 ground truth box를 알고 있음에도 굳이 positive anchor box 와의 차이를 통해 학습을 진행하는지 궁금합니다. 앞서 드린 질문에서 저렇게 얻은 positive anchor box를 regression 을 통해 ground truth box 와 비슷하게 만드는 줄 알았는데 아니었군요 ㅠㅠ
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
OOM의 원인에 대해서 궁금한 점이 있습니다
안녕하세요 모델을 훈련할 때 GPU 하드웨어 부족으로 인해 발생하는 OOM 문제의 원인은 여러가지로 있는 것 같습니다 여러가지 원인 중 해결방법은 레이어들의 총 파라미터 합을 낮춰야 하는 것인가요? 레이어 층의 깊이보다는 이미지 사이즈 (리사이즈 여부 등 )으로 발생하는 파라미터 갯수를 낮추면 될까요? 주로 아래 Error로 훈련을 중지하게 됩니다 OOM when allocating tensor with shape[64,64,256,256] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc [Op:Conv2DBackpropInput]layer summary는 아래와 같습니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
단순한 것이지만
안녕하세요, 단순한 것이지만 confirm받기 위해 적어봅니다. colab을 쓰는 경우, 앞서 설명해주셨던 Google Cloud Platform의 VM은 중지하거나 사용하지 않는 것이죠? 항상 감사드립니다.
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
여러 오픈소스와 패키지, 라이브러리
안녕하세요. 오픈소스와 패키지, 라이브러리의 용어가 헷갈려 질문드립니다. Object Detection과 Segmentation을 위한 주요 Dataset으로는 Pascal VOC, COCO, Google Open Images가 있고, Detection, Segmantation 패키지로는 Open CV의 DNN 모듈, Tensorflow Object Detection API등이 있다 라고 배웠습니다. 여기서 그냥 Tensorflow, YOLO는 어디에 속하나요? 또한, Tensorflow Object Detection API와 OpenCV와 호환이 가능한가요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
구글 클라우드 서비스 이용 못 함으로써,, 윈도우 wls2 ubuntu로 실습하고있습니다.
궁금한점은cuda, cuDnn을 설치하는 방법이나 영상도 같이 올려주실 수 있을까요??,,
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
앵커박스
RPN을 이용하면 픽셀단위가 아니라 feature 맵의 한 점(?) 을 중심으로 9개의 앵커박스가 형성되고, 그 앵커박스에 object이 있는지 detection 하는건가요? 만약 그렇다면 이미 9개으 앵커박스는 모양과 크기가 정해져있고, 중심도 정해져있으니 bb box regression 이 필요한가요?
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
conda 탭 미생성
윈도우 + 로컬 환경에서 진행중입니다. start_jn.sh 파일이 존재하지 않습니다. install_tf113.sh , install_tf115.sh 를 통해서 가상환경 tf113, 115는 생성이 정상적으로 되었습니다. 주피터 노트북의 우측 상단 New 항목 아래에서도 정상적으로 표시 됩니다. 어디선가 놓친 것 같은데 못찾겠습니다! 윈도우라서 mac의 과정을 따라가기가 조금 헷갈려서 질문드립니다. * git clone을 통해 DLCV를 생성했지만, 아나콘다와 주피터 노트북은 이미 깔려있는 상태라 이전 강의에서 설치하지 않았습니다.
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
data/ 에서 VOC없음
안녕하세요. 강의대로 data/voc에 들어가려고 했으니 해당 디렉토리가 뜨지 않습니다. 그냥 mkdir로 voc디렉토리를 만든 후, 진행해도 될까요? 감사합니다. (사진 첨부합니다.)
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
오차행렬 질문
안녕하세요. 오차행렬 중, FN 이 헷갈려 질문드립니다. 강의 8분 17초쯤에 '실제도 Negative예요, 실제 Negative인데 예측을 Positive로 한거예요' 라고 말씀하셨는데 잘 이해가 되지 않습니다. FN은 'Negative로 예측을 하였는데, 그 예측이 틀린 경우'라고 생각됩니다. 즉 실제로는 Positive라고 생각됩니다. 제가 틀린 것인지 여쭙고 싶습니다. 감사합니다. 참고로, 직접 댓글 달아주신 다른 댓글도 첨부합니다. https://www.inflearn.com/questions/30573
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
ground truth는 누가 설정한 것인가요?
안녕하세요. ground trurh 에 대해 질문드립니다. ground trurh는 사람이 직접 잡아주는 것인가요? 그렇다면 사람은 어떤 기준으로 잡아주게 되나요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
코랩 python version이 3.7로 업그레이드 됐습니다.
os.chdir('/usr/local/lib/python3.6/dist-packages/keras/backend') YOLO 학습에서 기존 코드는 3.6으로 되어 있는데, 아래와 같이 3.7로 바꿔야 될 것 같습니다. os.chdir('/usr/local/lib/python3.7/dist-packages/keras/backend')
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mask rcnn 학습에 관해서
안녕하세요 강의 너무나 잘 듣고 있습니다. 정말 감사드립니다. mask를 학습하는 부분에서 궁금한 점이 있어 질문드립니다. 1. RPN에서 예측해준 바운딩 박스를 align한 최종 14x14x80 feature를 대상으로 mask 를 각 그리드별로 클래스가 positive냐 negative인가만 분류하는 것으로 이해했는데요, 이를 학습하려면 실제 이미지의 각 ground truth box를 14x14로 맞추고 각 그리드의 80개 채널들에 정답을 넣어준 후에 두 14x14x80의 cross entrophy 로 back prop하면 되는 것으로 이해했는데 맞나요? 2. 1번에 대한 이해가 맞다면, 이렇게 해서 나온 3개의 예측값, a.클래스 예측값 b.바운딩 박스 좌표 예측값 c.14x14크기의 마스크 예측 들을 이용해서 14x14크기의 마스크를 예측된 바운딩 박스 좌표 크기에 맞게 resize하고 거기에맞게 마스크값도 할당하고 이를 실제 이미지에 덮어씌운다. 이렇게 하면 바운딩 박스를 그리는 것과 함께 바운딩 박스안에 해당하는 클래스부분 픽셀만 다른 컬러로 구분할 수 있다. 이런식으로 이해했는데, 잘못 이해한 부분이 있다면 지적 부탁드립니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
방화벽 문제
안녕하세요. 현재 학교 연구실의 GPU 서버를 mobaXterm으로 접속하여 사용하고 있습니다. 17분 50초경, http://p100:8888로 나오지 않고 http://localhost:8888로 출력됨과 동시에 firefox로 jupyter가 열리긴 합니다. 그냥 이대로 진행해도 될까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Region Proposal Network 구현 이슈
본래 딥러닝 네트워크를 적용하듯이 RPN에서 anchor box 없이도 당연히 작동을 하겠지요? 굳이 anchor box 를 사용하는 이유는 속도 때문이지요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
coco annotation 작성 시 occluded?!와 그 외 질문이 있습니다
안녕하세요. CVAT 툴로 annotation을 하고 있고, coco 형식으로 export 하려고 합니다 annotation할 때 궁금한 점이 있는데, 분홍색은 전체 프린팅(색감)이 잘못되어서 annotation을 했고, 그 안은 따로 얼룩 같은 클래스로 박스를 쳤습니다 1. 궁금한게, coco에서 저렇게 box가 겹칠 때 occluded라는 항목이 있는데, 이를 따로 쳐야 하나요? 2. 그리고 맨 아래 얼룩을 제가 한꺼번에 저렇게 하나의 클래스로 묶었는데 하나하나씩 하는 것이랑 모델 성능 차이가 클까요? 감사합니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
SPP 에서의 bounding box regression
SPP 알고리즘을 활용하여 2000개의 추천 regions에 해당하는 2000개의 동일 크기의 벡터가 만들어졌다고 가정했을 떄, 추출된 벡터 하나하나는 마치 각자가 새로운 이미지처럼 여겨지므로 결국 FC layer의 차원은 (1, vector_size)가 되고 FC layer 1은 classification, FC layer 2는 bounding box regression 을 위해 활용되는 것인가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
SPM 의 분면
'SPM 을 이용하여 서로 다른 크기의 Feature map 을 균일한 Vector 크기로 표현' 슬라이드에서, 8x8 피쳐맵을 63개의 벡터값으로 표현가능하다고 하셨는데, level2 단계에서 48개의 vector 값은 level 0, level 1 을 포함하는 정보 아닌가요?? 즉, 48개의 원소만으로 표현가능한데 굳이 63개의 원소를 이용하는 이유가 궁금합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolo 를 gpu 사용하여 돌리는데 점유율이 1.5 밖에 안나옵니다.
제가 YOLO 를 사용하다가 궁금한것이.. 인터넷 서핑을 통해 자가 gpu 를 이용해서 YOLO를 돌리는 방법을 사용하고있습니다. 그런데 작업 관리자에 들어가서 점유율이 얼마나 높은지 확인해봤는데 1.5 밖에 되지 않았습니다. 크롬에서 '트위치' 라는 방송 사이트는 10% 가 나오는데... YOLO 는 1.5% 밖에 나오지 않아서 이게 정상인가 싶었습니다.. 현재 gpu를 사용한 YOLO 의 FPS 는 대략 10 ~ 11 정도가 나옵니다. gpu 점유율을 높인다면 ( ? 사실 이게 뭔지는 모르지만 어쨌든 gpu를 YOLO에 더 사용하면..? ) 아마도 FPS 가 더 높게 나오지 않을까? 해서요. 제 생각이 맞나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
GPU optimized Debian m32의 유무
예전에는 강의처럼 있었는데, 현재는 아래와 같습니다. 어느 것을 골라야 할까요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLO 에 OBS라는 방송 녹화 / 송출 프로그램의 영상을 실시간으로 디텍션 하려 합니다.
YOLO 를 사용해서 실시간으로 obs 라는 프로그램의 화면을 디텍션 하려 합니다. 송출 컴퓨터와 게임 컴퓨터가 있는데 게임 컴퓨터의 영상을 '캡쳐보드'를 통하여 모니터 화면 그대로 송출 컴퓨터에 가져와서 obs 라는 방송용 프로그램에 띄웁니다. 그리고 이것을 실시간으로 디텍션하려 하는데 어떻게해야 obs의 화면 창을 YOLO 프로그램에서 띄울 수 있나요...? 혹시나 obs가 아니라 그냥 캡쳐보드로 가져온 실시간 영상을 있는 그대로 사용할 수 있다면.. 좋겠습니다. 다른 방법이 있을까요 ㅜ hdmi 비디오 캡쳐 장치로 가져온 실시간 영상을 YOLO를 이용해 실시간 검출을 하고싶습니다 /// hdmi 비디오 캡쳐 장치로 가져온것을 YOLO 에서 ' 0 ' 으로 웹캠 설정으로 돌렸을때 뜨는 에러 메시지. [ WARN:0] global C:\TheCodingBug\OpenCV_CUDA\opencv-4.4.0\opencv-4.4.0\modules\videoio\src\cap_msmf.cpp (373) `anonymous-namespace'::SourceReaderCB::OnReadSample videoio(MSMF): OnReadSample() is called with error status: -1072875772 [ WARN:0] global C:\TheCodingBug\OpenCV_CUDA\opencv-4.4.0\opencv-4.4.0\modules\videoio\src\cap_msmf.cpp (385) `anonymous-namespace'::SourceReaderCB::OnReadSample videoio(MSMF): async ReadSample() call is failed with error status: -1072875772 [ WARN:1] global C:\TheCodingBug\OpenCV_CUDA\opencv-4.4.0\opencv-4.4.0\modules\videoio\src\cap_msmf.cpp (912) CvCapture_MSMF::grabFrame videoio(MSMF): can't grab frame. Error: -1072875772 Elasped time: 0.00 Traceback (most recent call last): File "run_yolo.py", line 38, in <module> get_yolo_preds(net, input_vid_path, output_vid_path, confidence_threshold, File "C:\TheCodingBug\YOLO_OpenCV\run_yolo\my_utils.py", line 85, in get_yolo_preds print("FPS: {:.2f}".format(fps.fps())) File "C:\Users\lante\anaconda3\lib\site-packages\imutils\video\fps.py", line 33, in fps return self._numFrames / self.elapsed() ZeroDivisionError: float division by zero [ WARN:1] global C:\TheCodingBug\OpenCV_CUDA\opencv-4.4.0\opencv-4.4.0\modules\videoio\src\cap_msmf.cpp (435) `anonymous-namespace'::SourceReaderCB::~SourceReaderCB terminating async callback 소스코드는 너무 길어서 못올리는데 제가 짠게아니라 유튜브의 외국인 영상에서 YOLO를 웹캠을 사용해 실시간 검출을 하길래 따라서 해봤는데 정말 되는겁니다. 그런데 영상 파일같은게 아닌 모니터 화면 자체를 그냥 검출 한다든가. 특정 창을 검출 한다든가 하는걸 못하겠네요..