월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 강사님 ~!!
안녕하세요 .. ? 지금 mmdetection kitti_tiny 학습 강의를 듣고 있습니다. 혹시 Pretrained된 모델을 학습 시키고 나서, 학습 시킨 inference 모델을 다시 불러 올 때, tutorial_exps 폴더에 있는 epoch_12.pth 파일을 가져오면 되나요 .. ? 이렇게 하면 될까요 .. ? config_file = '/content/mmdetection/configs/faster_rcnn/faster_rcnn_r50_fpn_1x_coco.py' checkpoint_file = '/content/mmdetection/tutorial_exps/epoch_12.pth'
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
bounding box regerssion
안녕하세요 선생님 bounding box regerssion에 의문점이 생겨 질문 드립니다. 강의를 수강하면서 object detection은 region proposal이 없으면 물체를 탐지하는 성능이 떨어진다고 알고있습니다. 궁금한점은 10:00 ~10:15쯤 유사한 유형의 데이터가 들어오면 학습 모델을 기반으로 object detection 힌다고 언급하십니다. 그런데, CCTV 영상과 같이 탐지하고자 하는 물체의 위치가 특정 좌표가 아닌 모든 좌표에서 검출 되는 경우 region proposal에 대한 bounding box regression 학습이 의미 없다고 생각되는데, 잘 못 생각한 것일까요? 즐거운 강의 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
train_detection을 하는데 오류가 발생합니다
코랩이 아닌, 제 로컬에서 학습을 하고있습니다. Kitty_tiny 커스텀 데이터셋을 만드는것까진 되는데, train_detection을 하는과정에서 오류가 뜨네요. Study/Kitty_Dataset.ipynb at master · GreedyNote/Study (github.com) 전체 오류코드는 링크를 올리겠습니다. RAM이 16GB이긴한데 램용량이 부족해서 그런것같기도 합니다. 혹시 램때문이라면 MMdetection에서 Batch 사이즈를 조정할 수 있는 방법이 있나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
from keras import anchors 에러
아래 그림처럼 에러가 발생했어요 바뀐점도 없는 것같고 어제까지만 해도 잘됬는데 갑지가 이러네요 ㅠ 뭐가 원인인지 모르겠습니다 (기존 keras는 삭제가 되었습니다) keras와 연관된 것들은 모두 import가 안되는 것같습니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Fully connectied layer 입력값이 고정 되어야 하는 이유
안녕하세요 선생님. Fully connectied layer 에서 입력값이 왜 고정되도록 설계 되었는지 모르겠습니다. 생각하기로는 가중치가 입력 사이즈에 따라 결정이 되는데, 입력 사이즈가 가변적이면 문제가 될 수 있기 때문이라고 생각했습니다. 예를들어 층이 3개인 신경망이 있을때 , 입력 사이즈가 3이고 히든레이어의 노드수가 4 일떄 이때 총 가중치 수는 12개이다. 그러나 입력사이즈가 3이 아닌 4가 들어왔다면, 총 가중치의 수는 16이 된다. 그러면 기존에 없던 가중치들이 필요하기 때문에 문제가 될 수 있다 . 이렇게 생각했는데 제가 맞게 생각한걸까요 ? 즐거운 강의 감사합니다 :)
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
obj.names
obj.names 를 열려고 하는데 열 수 있는 프로그램이 없어서 교수님이 사용하시는 EidtPlus를 다운로드하려고 하니 4만원이나 하더라고요.. 혹시 이번류의 파일을 열 수 있는 무료앱이 있을까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
efficientdet
DLCV - efficientdet 의 폴더경로가 맞나요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLO v3 탐지 큰 이미지에 적용
안녕하세요. 이전에 항공사진에서 나무를 찾는 프로젝로 질문을 드렸었는데요. 제가 사용한 이미지는 23160*28750 크기의 .tiff 파일로, 해당 이미지를 500*500 크기의 이미지로 자른 뒤, 그 중 약 50여개의 분할된 이미지로부터 CVAT을 활용해 class : tree 에 대한 annotation을 약 300개 만든 후 train 하였습니다. 500*500으로 자른 이미지에 inference 했을 땐, 일부 탐지에 성공하였으나, 원본 이미지 (23160*28750) 에 사용 시, 하나도 탐지해내지 못했습니다. 이처럼 해상도의 차이가 큰 이미지에 적용할 때 탐지가 되지 않는 이유는 무엇인가요? 그리고 해결방안이 있는지도 여쭤봅니다. 감사합니다 :) ※코드는 'yolov3_train_incredibles.ipynb' 코드를 활용하여 작동하였습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
opencv import 에러 관련 문의드립니다.
안녕하세요. 제가 yolov5를 Django와 연동하다가 opencv import 에러에 부딛히게 됐는데, 아무리 해도 해결이 안되어 문의드립니다. 에러는 표시는 다음과 같습니다. 혹시 방법이 없을까요???
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
서버에서 설치해서 돌리는 중 에러가 발생해서 문의드립니다.
안녕하세요. 별도의 서버에서 pretrained 모델 기반으로 video inference 실행을 하는 중에서 계속 다음과 같은 에러가 발생하여 문의드립니다. colab이 아닌 별도 서버에서 실행하였고, 선생님이 주신 코드를 파일 경로 부분만 수정해서 사용하였습니다. ------------------- import sys sys.path.append("/home/jongmin/mmdetection") # config 파일과 pretrained 모델을 기반으로 Detector 모델을 생성. from mmdet.apis import init_detector, inference_detector import cv2 import matplotlib.pyplot as plt labels_to_names_seq = {0:'person',1:'bicycle',2:'car',3:'motorbike',4:'aeroplane',5:'bus',6:'train',7:'truck',8:'boat',9:'traffic light',10:'fire hydrant', 11:'stop sign',12:'parking meter',13:'bench',14:'bird',15:'cat',16:'dog',17:'horse',18:'sheep',19:'cow',20:'elephant', 21:'bear',22:'zebra',23:'giraffe',24:'backpack',25:'umbrella',26:'handbag',27:'tie',28:'suitcase',29:'frisbee',30:'skis', 31:'snowboard',32:'sports ball',33:'kite',34:'baseball bat',35:'baseball glove',36:'skateboard',37:'surfboard',38:'tennis racket',39:'bottle',40:'wine glass', 41:'cup',42:'fork',43:'knife',44:'spoon',45:'bowl',46:'banana',47:'apple',48:'sandwich',49:'orange',50:'broccoli', 51:'carrot',52:'hot dog',53:'pizza',54:'donut',55:'cake',56:'chair',57:'sofa',58:'pottedplant',59:'bed',60:'diningtable', 61:'toilet',62:'tvmonitor',63:'laptop',64:'mouse',65:'remote',66:'keyboard',67:'cell phone',68:'microwave',69:'oven',70:'toaster', 71:'sink',72:'refrigerator',73:'book',74:'clock',75:'vase',76:'scissors',77:'teddy bear',78:'hair drier',79:'toothbrush' } def get_detected_img(model, img_array, score_threshold=0.3, is_print=True): # 인자로 들어온 image_array를 복사. draw_img = img_array.copy() bbox_color=(0, 255, 0) text_color=(0, 0, 255) # model과 image array를 입력 인자로 inference detection 수행하고 결과를 results로 받음. # results는 80개의 2차원 array(shape=(오브젝트갯수, 5))를 가지는 list. results = inference_detector(model, img_array) # 80개의 array원소를 가지는 results 리스트를 loop를 돌면서 개별 2차원 array들을 추출하고 이를 기반으로 이미지 시각화 # results 리스트의 위치 index가 바로 COCO 매핑된 Class id. 여기서는 result_ind가 class id # 개별 2차원 array에 오브젝트별 좌표와 class confidence score 값을 가짐. for result_ind, result in enumerate(results): # 개별 2차원 array의 row size가 0 이면 해당 Class id로 값이 없으므로 다음 loop로 진행. if len(result) == 0: continue # 2차원 array에서 5번째 컬럼에 해당하는 값이 score threshold이며 이 값이 함수 인자로 들어온 score_threshold 보다 낮은 경우는 제외. result_filtered = result[np.where(result[:, 4] > score_threshold)] # 해당 클래스 별로 Detect된 여러개의 오브젝트 정보가 2차원 array에 담겨 있으며, 이 2차원 array를 row수만큼 iteration해서 개별 오브젝트의 좌표값 추출. for i in range(len(result_filtered)): # 좌상단, 우하단 좌표 추출. left = int(result_filtered[i, 0]) top = int(result_filtered[i, 1]) right = int(result_filtered[i, 2]) bottom = int(result_filtered[i, 3]) caption = "{}: {:.4f}".format(labels_to_names_seq[result_ind], result_filtered[i, 4]) cv2.rectangle(draw_img, (left, top), (right, bottom), color=bbox_color, thickness=2) cv2.putText(draw_img, caption, (int(left), int(top - 7)), cv2.FONT_HERSHEY_SIMPLEX, 0.37, text_color, 1) if is_print: print(caption) return draw_img # config 파일을 설정하고, 다운로드 받은 pretrained 모델을 checkpoint로 설정. config_file = './configs/faster_rcnn/faster_rcnn_r50_fpn_1x_coco.py' checkpoint_file = './mmdetection/checkpoints/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth' model = init_detector(config_file, checkpoint_file, device='cuda:2') img = '/demo/demo.jpg' img_arr = cv2.imread(img) detected_img = get_detected_img(model, img_arr, score_threshold=0.5, is_print=True) # detect 입력된 이미지는 bgr임. 이를 최종 출력시 rgb로 변환 detected_img = cv2.cvtColor(detected_img, cv2.COLOR_BGR2RGB) plt.figure(figsize=(12, 12)) plt.imshow(detected_img) ------------------------------아래 내용입니다. 해당 내용에서 대해서 검색해보았을 때는 잘못된 메모리에 접근해서 그렇다고 하는데.. 잘 이해가 되지 않아 문의드립니다. RuntimeError: CUDA error: invalid device function Segmentation fault (core dumped)
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
적은 클래스에 대한 불량 검출하는 semantic segmentation 모델과 패키지 중에 추천해주실 만한 것이 있을까요?
안녕하세요 배경을 포함해서 3개 정도 클래스를 구분하는 segmentation 문제를 풀어보려고 하는데 유명한 패키지? 라고 해야 하나 아래 2개정도로 생각이 드는데, 아래 패키지에서 잘 알려진 DeepLabV3+ 다른걸 써보고 싶은데, 너무 생소한 이름의 모델이 많아서요 혹시 생각나신 것이 있으면 살짝 언급해주실 수 있나요? https://github.com/qubvel/segmentation_models.pytorch https://github.com/open-mmlab/mmsegmentation
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection에서의 mask-rcnn에 대해서 질문이 있습니다
안녕하세요 mmdetection 모델 목록에 mask-rcnn이 있는데, 그 이유가 roi-align 부분만 빼면 Detection 모델인 Faster-RCNN이랑 똑같기 때문에 그런 것인가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Anchor Box의 IOU값 관련 및 여러 질문
1. GT Box와 Anchor Box의 IOU값을 통해 Positive, Negative를 나눈다고 하셨는데, 해당 과정은 Feature Map이 아닌 원본 이미지에서 Anchor Box와 GT Box사이에서 얻어진 IOU값으로 결정이 되는 것인가요? 2. 또 제가 이해한 바로는 가장 좋은 Positive Anchor Box를 기준으로 하여 GT Box와 최대한 동일한 예측 BBox를 얻는 것이 목표다 라고 이해하였는데 맞는지 궁금합니다. 만약 맞다면 예측BBox의 초기좌표 및 w, h 값이 어떻게 설정되는 것인지 궁금합니다. 3. 또한 강의 커리큘럼에서 RCNN, SSD, YOLO 등 여러 모델이 있는데 순차적으로 듣는 것이 좋은지, 아니면 자신에게 필요하고 맞는 모델부터 우선적으로 들어도 괜찮은지 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
헬멧과 마스크 검출
공사장 작업자의 헬멧과 마스크 착용 유무를 검출하려고 합니다. 어떤 식으로 하면 좋을까요? 효율적인 방법 있으면 조언을 부탁드립니다. 먼저 사람을 찾나요? 그리고 나서 헬멧과 마스크 검출?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
MMCV 윈도우 설치 가능한가요?
- 좋은 강의에 감사드립니다. -MMDetection 설치하려고 MMCV-full을 설치했더니 오류가 나면서 중단되었습니다. MMDetection은 윈도우 환경에서는 지원되지 않나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Dump annotation이 없습니다.
안녕하세요 교수님! 좋은 수업 잘 듣고 있습니다. 밑의 캡처 사진을 보시다시피 Dump annotation 버튼이 없는데 어떻게 해야할까요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
ROI Pooling 이후 과정 및 Region Proposal에 대한 질문
1. 14:25 강의자료를 예시로 ROI Pooling 이후 N x N Pooling된 (N x N x 512) 결과가 3개가 나오는데, 그렇다면 이후에 결과 데이터 각각을 Flatten 한 후 FC layer에 넣어주어 학습을 진행시키는, 즉 FC layer에 넣어주는 데이터가 3개라고 보면 되는건가요? 2. Feature Map에서 Selective search 결과를 맵핑시켜준다고 하였는데, 그렇다면 regression에 필요한 원본 이미지에 대한 GT Box도 Feature Map에 맵핑시켜준 후, Feature Map에 맵핑된 Selective search Box와 GT Box의 좌표 비교를 통해 regression이 진행되는 것인가요? 세세하게 알 필요까지 없는 부분을 질문드리는게 아닌가 죄송합니다ㅠㅠ
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Flatten 이후 SVM 적용하는 과정에서 질문이 있습니다.
Feature Map 데이터를 Flatten한 후 그 데이터를 바로 SVM에 적용시키는 것인가요 아니면 Flatten한 후 DNN을 통과시켜 얻어진 값들을 softmax를 통과시키지 않고 SVM에 적용시키는 것인가요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
inferece를 할 때 config가 필요한 이유는 무엇인가?
pretrained 모델을 기반으로 해서 이미지를 돌릴 때 모델을 만들 때, 왜 config가 필요한지 헷갈려서 문의드립니다. 제가 이해한 내용으로는 pretrained 모델이란 결국 네트워크의 각 weight에 대한 데이터의 집합이기 때문에 config를 통해서 해당 구조에 대한 정보를 입력하지 않으면 전체 모델을 설계 할 수 없기 때문에 그런 것으로 이해하면 될지 아니면 다른 의미가 있는 것인지 알고 싶어 문의드립니다. 기초적인 질문을 해서 죄송합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
cap.read() 질문드립니다
cap.read()는 반드시 반복문과 같이 써야하는 것인가요?? VideoCapture를 통해 불러들인 영상을 반복문과 read를 통해 영상 전체를 각각의 Frame 및 다음 프레임의 여부값으로 잘게 나누는 것인지 궁금합니다. 좀 헷갈리네요ㅠㅠ