월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolov5 학습 에러
안녕하세요 강사님 수업 잘 듣고 있습니다. 다름아니라 제가 지금 yolov5로 이용하여 졸업작품을 만들고 있는 학생입니다. 그런데 데이터셋을 AIhub의 COCO 데이터로 가져왔고 그걸 YOLO 데이터셋으로 바꾸었습니다. yaml파일도 만들어서 했는데 c:\Users\DBIR\AppData\Local\Programs\Python\Python39\lib\site-packages\setuptools\distutils_patch.py:25: UserWarning: Distutils was imported before Setuptools. This usage is discouraged and may exhibit undesirable behaviors or errors. Please use Setuptools' objects directly or at least import Setuptools first. warnings.warn( train: weights=yolov5x.pt, cfg=D:\fish_detection\yolov5\models\yolov5x.yaml, data=D:\fish_detection\fish_Dataset\fish_detection.yaml, hyp=yolov5\data\hyps\hyp.scratch-low.yaml, epochs=100, batch_size=500, imgsz=2704, rect=False, resume=False, nosave=False, noval=False, noautoanchor=False, noplots=False, evolve=None, bucket=, cache=None, image_weights=False, device=, multi_scale=False, single_cls=False, optimizer=SGD, sync_bn=False, workers=8, project=yolov5\runs\train, name=yolov5_coco, exist_ok=False, quad=False, cos_lr=False, label_smoothing=0.0, patience=100, freeze=[0], save_period=-1, seed=0, local_rank=-1, entity=None, upload_dataset=False, bbox_interval=-1, artifact_alias=latest github: YOLOv5 is out of date by 12 commits. Use `git pull` or `git clone https://github.com/ultralytics/yolov5` to update. requirements: psutil not found and is required by YOLOv5, attempting auto-update... Requirement already satisfied: psutil in c:\users\dbir\anaconda3\pkgs\python-3.8.13-h6244533_0\lib\site-packages (5.9.1) requirements: 1 package updated per D:\fish_detection\yolov5\requirements.txt requirements: Restart runtime or rerun command for updates to take effect YOLOv5 v6.1-295-gf8722b4 Python-3.9.1 torch-1.10.0+cu102 CUDA:0 (GeForce RTX 2080 SUPER, 8192MiB) hyperparameters: lr0=0.01, lrf=0.01, momentum=0.937, weight_decay=0.0005, warmup_epochs=3.0, warmup_momentum=0.8, warmup_bias_lr=0.1, box=0.05, cls=0.5, cls_pw=1.0, obj=1.0, obj_pw=1.0, iou_t=0.2, anchor_t=4.0, fl_gamma=0.0, hsv_h=0.015, hsv_s=0.7, hsv_v=0.4, degrees=0.0, translate=0.1, scale=0.5, shear=0.0, perspective=0.0, flipud=0.0, fliplr=0.5, mosaic=1.0, mixup=0.0, copy_paste=0.0 Weights & Biases: run 'pip install wandb' to automatically track and visualize YOLOv5 runs (RECOMMENDED) TensorBoard: Start with 'tensorboard --logdir yolov5\runs\train', view at http://localhost:6006/ Traceback (most recent call last): File "D:\fish_detection\yolov5\train.py", line 667, in <module> main(opt) File "D:\fish_detection\yolov5\train.py", line 562, in main train(opt.hyp, opt, device, callbacks) File "D:\fish_detection\yolov5\train.py", line 106, in train data_dict = data_dict or check_dataset(data) # check if None File "D:\fish_detection\yolov5\utils\general.py", line 475, in check_dataset assert k in data, emojis(f"fish_detection.yaml '{k}:' field missing ❌") AssertionError: fish_detection.yaml 'train:' field missing 에러가 뜹니다. 에러 원인은 인터넷에서 찾아보고 있습니다.그런데 찾아도 답이 안 나와서 혹시 에러 원인을 알 수 있을까요?? 개발환경은 window입니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Mask R-CNN 추론결과 질문
안녕하세요 강사님, 항상 좋은 강의 잘 듣고있습니다. mmdetection을 통해 Mask R-CNN을 구현하던 도중 문제점이 생겨 질문드립니다. Mask R-CNN 모델로 이미지를 추론한 결과 result를 binary 이미지로 저장하는 코드를 작성하였습니다. 추론결과 아래와 같이 하나로 이루어진 Mask 정보를 반환받길 원합니다. 그러나 100번에 1번꼴로 아래 사진과 같은 masking result를 반환 받아서 데이터에 이상치가 발생합니다. segmentation 반환결과, 위와 같이 떨어진 픽셀영역을 마스킹하는 문제를 해결하는 방법이 있을까요? (해당 영역을 지워버리고 싶습니다) 감사합니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Labeling /recall 문의
교수님 안녕하세요 수강생입니다 현재 가르쳐주신 Mmdetection- faster-rcnn으로 실제 모델에 적용하여 tranning 중 문의사항이 있어 메일 보내드립니다. ◇ 문의사항 1. Recall이 낮을때 : 실제 모델이 적용했을 경우 Accuracy는 상당히 높으나 Recall이 너무 낮아 검출이 잘 안되고 있습니다 ㅠㅜ 이를 극복하기 위해 이미지 수를 늘리려 합니다. 맞는 방향일까요? 2. Labeling 시 겹침 문의 : 라벨링 시 각 객체간 너무 인접해 있어 box 설정시 겹치게 됩니다. 이럴경우 제외하고 넘어가야할까요? 아니면 같은 class의 객채만 아니면 겹쳐도 상관없을까요? 바쁘시겠지만 답변 부탁드립니다 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
import mmdet 오류
!pip intsall mmcv-full 하기전에 위와 같이 torch 버전을 출력하면 버전이 나옵니다. 그리고 mmcv install 하실 때 위에 서 나온 cuda 113 이랑 파이토치 버전을 1.12.0으로 설치를 했습니다. 그저께 까지는 cu/111/1.10.0으로 해도 잘 됐던 것 같은데 갑자기 버전이 바뀐 것 같습니다. 학습 하는데 참고가 되면 좋을 것 같아서 올려드립니다. 이런 이슈가 종종 발생하는 것 같아서,. https://github.com/open-mmlab/mmdetection/issues/3525 참고하시면 좋을 것 같습니다. CNN 기초 부터 선생님 강의를 너무 잘 듣고 있습니다. 감사합니다.
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Neck에서 Head 부분을 연결할 때 어떤 연산을 거치는지 궁금합니다!
안녕하세요 선생님 그림상 Neck에서 Head로 넘어갈 때 5개의 결과 값들이 각각 class prediction, box prediction으로 합쳐지는 것 같은데 어떤 연산으로 합치는지 논문에는 안나와 있는 것 같더라구요,, 혹시 코드를 통해서 설명이 가능하면 그렇게 해주시면 너무나도 감사하겠습니다 바쁘신데 귀찮게 해드려서 죄송합니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 Tfrecord 관련 질문드립니다!
항상 좋은 강의 감사드리고 더위 조심하시길 바랍니다. Autmoml 패키지의 단점?으로 Tfrecord 형태로 데이터를 변환해야된다고 하셨는데 EfficientDet D0~D7은 Automl 패키지로 구현한게 아니라서 데이터 변환이 필요 없을까요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection mask-rcnn 추론결과 title 이름 변경 관련
안녕하세요 강사님 mmdetection 관련해서 이론적으로나 실무적으로나 항상 많은 도움 받고있습니다. 강의 내용을 바탕으로 mmdetection code를 작성하던 도중 질문사항이 생겨서요 ㅎㅎ mmdetection Mask R-CNN 모델을 이용하여 추론결과 아래 사진과 같이 mask, bbox 두가지가 나타나는데 bbox위에 나타나는 title(coin) 대신 변수를 표시하고 싶습니다. class name, confidence score 가 아닌 ID, pixel number를 표시하고 싶습니다. 제 코드는 다음과 같습니다. img_name = path_dir + '/' + file_list[i] img_arr= cv2.imread(img_name, cv2.IMREAD_COLOR) img_arr_rgb = cv2.cvtColor(img_arr, cv2.COLOR_BGR2RGB) # cv2.imshow('img',img) fig= plt.figure(figsize=(12, 12)) plt.imshow(img_arr_rgb) # inference_detector의 인자로 string(file경로), ndarray가 단일 또는 list형태로 입력 될 수 있음. results = inference_detector(model, img_arr) #추론결과 디렉토리에 저장 model.show_result(img_arr, results, score_thr=0.8, title= bbox_color=(0,0,255),thickness=0.5,font_size=7, out_file= f'{save_dir1}{file_list[i]}') 이 결과 추론되는 사진은 다음과 같습니다 아래는 mmdetection/mmdet/core/visualization/image.py에 있는 imshow_det_bboxes 함수입니다. 아래 함수가 시각화 해주는 함수여서 해당 함수를 수정하면 될 것 같은데 아무리 뜯어봐도 어디를 고쳐야할 지 도저히 감이 오질 않습니다 ...ㅠㅠ def imshow_det_bboxes(img, bboxes, labels, segms=None, class_names=None, score_thr=0, bbox_color='green', text_color='green', mask_color=None, thickness=2, font_size=13, win_name='', show=True, wait_time=0, out_file=None): """Draw bboxes and class labels (with scores) on an image. Args: img (str or ndarray): The image to be displayed. bboxes (ndarray): Bounding boxes (with scores), shaped (n, 4) or (n, 5). labels (ndarray): Labels of bboxes. segms (ndarray or None): Masks, shaped (n,h,w) or None class_names (list[str]): Names of each classes. score_thr (float): Minimum score of bboxes to be shown. Default: 0 bbox_color (str or tuple(int) or :obj:`Color`):Color of bbox lines. The tuple of color should be in BGR order. Default: 'green' text_color (str or tuple(int) or :obj:`Color`):Color of texts. The tuple of color should be in BGR order. Default: 'green' mask_color (str or tuple(int) or :obj:`Color`, optional): Color of masks. The tuple of color should be in BGR order. Default: None thickness (int): Thickness of lines. Default: 2 font_size (int): Font size of texts. Default: 13 show (bool): Whether to show the image. Default: True win_name (str): The window name. Default: '' wait_time (float): Value of waitKey param. Default: 0. out_file (str, optional): The filename to write the image. Default: None Returns: ndarray: The image with bboxes drawn on it. """ assert bboxes.ndim == 2, \ f' bboxes ndim should be 2, but its ndim is {bboxes.ndim}.' assert labels.ndim == 1, \ f' labels ndim should be 1, but its ndim is {labels.ndim}.' assert bboxes.shape[0] == labels.shape[0], \ 'bboxes.shape[0] and labels.shape[0] should have the same length.' assert bboxes.shape[1] == 4 or bboxes.shape[1] == 5, \ f' bboxes.shape[1] should be 4 or 5, but its {bboxes.shape[1]}.' img = mmcv.imread(img).astype(np.uint8) if score_thr > 0: assert bboxes.shape[1] == 5 scores = bboxes[:, -1] inds = scores > score_thr bboxes = bboxes[inds, :] labels = labels[inds] if segms is not None: segms = segms[inds, ...] mask_colors = [] if labels.shape[0] > 0: if mask_color is None: # Get random state before set seed, and restore random state later. # Prevent loss of randomness. # See: https://github.com/open-mmlab/mmdetection/issues/5844 state = np.random.get_state() # random color np.random.seed(42) mask_colors = [ np.random.randint(0, 256, (1, 3), dtype=np.uint8) for _ in range(max(labels) + 1) ] np.random.set_state(state) else: # specify color mask_colors = [ np.array(mmcv.color_val(mask_color)[::-1], dtype=np.uint8) ] * ( max(labels) + 1) bbox_color = color_val_matplotlib(bbox_color) text_color = color_val_matplotlib(text_color) img = mmcv.bgr2rgb(img) width, height = img.shape[1], img.shape[0] img = np.ascontiguousarray(img) fig = plt.figure(win_name, frameon=False) plt.title(win_name) canvas = fig.canvas dpi = fig.get_dpi() # add a small EPS to avoid precision lost due to matplotlib's truncation # (https://github.com/matplotlib/matplotlib/issues/15363) fig.set_size_inches((width + EPS) / dpi, (height + EPS) / dpi) # remove white edges by set subplot margin plt.subplots_adjust(left=0, right=1, bottom=0, top=1) ax = plt.gca() ax.axis('off') polygons = [] color = [] for i, (bbox, label) in enumerate(zip(bboxes, labels)): bbox_int = bbox.astype(np.int32) poly = [[bbox_int[0], bbox_int[1]], [bbox_int[0], bbox_int[3]], [bbox_int[2], bbox_int[3]], [bbox_int[2], bbox_int[1]]] np_poly = np.array(poly).reshape((4, 2)) polygons.append(Polygon(np_poly)) color.append(bbox_color) label_text = class_names[ label] if class_names is not None else f'class {label}' if len(bbox) > 4: label_text += f'|{bbox[-1]:.02f}' ax.text( bbox_int[0], bbox_int[1], f'{label_text}', bbox={ 'facecolor': 'black', 'alpha': 0.8, 'pad': 0.7, 'edgecolor': 'none' }, color=text_color, fontsize=font_size, verticalalignment='top', horizontalalignment='left') if segms is not None: color_mask = mask_colors[labels[i]] mask = segms[i].astype(bool) img[mask] = img[mask] * 0.5 + color_mask * 0.5 plt.imshow(img) p = PatchCollection( polygons, facecolor='none', edgecolors=color, linewidths=thickness) ax.add_collection(p) stream, _ = canvas.print_to_buffer() buffer = np.frombuffer(stream, dtype='uint8') img_rgba = buffer.reshape(height, width, 4) rgb, alpha = np.split(img_rgba, [3], axis=2) img = rgb.astype('uint8') img = mmcv.rgb2bgr(img) if show: # We do not use cv2 for display because in some cases, opencv will # conflict with Qt, it will output a warning: Current thread # is not the object's thread. You can refer to # https://github.com/opencv/opencv-python/issues/46 for details if wait_time == 0: plt.show() else: plt.show(block=False) plt.pause(wait_time) if out_file is not None: mmcv.imwrite(img, out_file) plt.close() return img 감사합니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
RetinaNet 실습
안녕하세요 강사님 RetinaNet 강의를 열심히 듣다가 이론듣고 실습으로 넘어간다고 했는데 실습이 없어서요 RetinaNet 실습부분은 어디서 참조 할 수있을까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
train 오류
안녕하세요 교수님. 실습 코드(python3 train.py --img 640 --batch 16 --epochs 3 --data coco128.yaml --weights yolov3.pt --nosave) 수행 중 아래와 같은 오류가 발생햬습니다. 어떻게 하면 오류를 해결 할 수 있을지 궁금합니다. 현재 코랩 환경이 아닌 우둔투 local 환경에서 수행하고 있습니다. RuntimeError: Unable to find a valid cuDNN algorithm to run convolutionException ignored in: <bound method _MultiProcessingDataLoaderIter.__del__ of <torch.utils.data.dataloader._MultiProcessingDataLoaderIter object at 0x7f22b6b32588>>Traceback (most recent call last): File "/home/haneul/.local/lib/python3.6/site-packages/torch/utils/data/dataloader.py", line 1328, in __del__ File "/home/haneul/.local/lib/python3.6/site-packages/torch/utils/data/dataloader.py", line 1262, in _shutdown_workersAttributeError: 'NoneType' object has no attribute 'python_exit_status'Exception ignored in: <bound method _MultiProcessingDataLoaderIter.__del__ of <torch.utils.data.dataloader._MultiProcessingDataLoaderIter object at 0x7f235350fc18>>Traceback (most recent call last): File "/home/haneul/.local/lib/python3.6/site-packages/torch/utils/data/dataloader.py", line 1328, in __del__ File "/home/haneul/.local/lib/python3.6/site-packages/torch/utils/data/dataloader.py", line 1262, in _shutdown_workersAttributeError: 'NoneType' object has no attribute 'python_exit_status
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
dataset 선택에 대하여 질문드립니다.
안녕하십니까 교수님 최근 진행중인 프로젝트 수행을 위해서 강의를 듣고 있는 학생입니다. 현재 depth camera 를 이용하는 딥러닝 프로젝트를 진행하며 여러가지 오픈소스를 찾던 중 ssd-mobilenet 을 PASCAL VOC 로 학습한 것과 같은 알고리즘 ssd-mobilenet를 사용하여 COCO dataset으로 학습된 것을 봤습니다. 만약 오픈 소스를 사용하는 입장이면(학습하는 시간을 고려하지 않았을 때) 무조건 데이터 분류가 많고, 사진 당 오브젝트 수가 많은 COCO 데이터셋이 학습된 소스가 좋다고 생각하는데 혹시 다른 차이가 있을까 궁금해서 이렇게 질문드리게 되었습니다 학습 분류가 많을수록 FPS 에 의한 차이가 있나요? 학습 분류가 많을수록 특정 사물에 대한 detection 성능의 차이가 있을 수 있나요? - 예를 들어 person 데이터만 필요할 때 PASCAL VOC, COCO 또는 open image 를 사용할 때 성능 차이가 발생하나요? 다른 차이가 있을까요? 강의는 항상 잘 듣고 있습니다. 덕분에 다양한 프로젝트를 진행하여 취업까지 연결할 수 있었습니다. 아직 반정도 남았지만 분발하여 꼭 완강하도록 하겠습니다. 감사합니다!!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
cvat 가입 시 오류
가입 시 오류가 납니다. 크롬, ie, Edge, 파폭에서 동일하게 발생하네요 ㅜㅜ
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
AP^m(S, M , L), AP^b(S, M, L)의 정확한 차이가 궁금합니다.
좋은 강의 감사하고, 항상 잘 듣고 있습니다. 질문을 드리려고 하는데, 제목에 있는 성능 지표의 정확한 차이가 궁금합니다. 작은 객체, 중간 객체, 큰 객체가 있는 경우에 성능을 평가한 것인지 m과 b는 또 무엇인지 궁금합니다. 감사합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
컴퓨터 비전 수학 관련 질문
안녕하세요 강사님 컴퓨터 비전 분야 공부 시작한 대학원생입니다. 비전 분야로 직업을 삼고 싶은데 수학적인 실력이 필요할 수 있다는 이야기를 들어서 질문 여쭙고 싶습니다. 비전 분야의 일을 할 정도면 어느 정도의 수학적 실력을 갖춰야 하는지, 모델에 필요한 수식에 대한 정도를 이해하면서 학습하면 되는지 궁금합니다. 감사합니다.
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Ground Truth가 없는 이미지에 대한 Inference의 confidence score 값은?
안녕하세요 강사님, 강사님의 강의를 통해서 Yolov5를 Custom Dataset 에 적용시켜봤습니다. Custom dataset은 약 120개의 이미지이고 Training 60/ Valid 30/ Testing 30 객체가 하나뿐인 이미지들입니다 (로고 탐지). Roc_Auc score를 계산했을 때 0.96정도가 나와서 좋은 성능을 보인다고 보고 있습니다. 해결되지 않는 의문이 있습니다. 위의 Training/Valid/Testing은 모두 Ground Truth를 Cvat을 이용해서 annotating 해주고, export한 데이터 입니다. 그러므로 Inference후에 생성되는 txt 파일 5번째 줄에 confidence score가 계산 되어 나온다고 생각합니다 (GT와 예측 BB의 IOU * 해당 클래스일 확률 (100%). 그런데 Test 세트가 아닌 새로운 이미지 (GT가 없는)에 대한 Confidence score는 어떻게 계산되어 나오는 걸까요? 해당 객체일 *확률* 이라고 보고 있지만, IOU가 있을 수 없는 상황인데,,, (클래스일 확률은 100%겠죠, 객체가 하나이니) 이 점이 풀리지를 않고 있습니다. 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mask-rnn 질문있습니다!
안녕하세요. 이번에 인프런 처음 수강신청해서 잘 듣고 있습니다. 몇가지 질문이 있어 글남겨 봅니다. 1.custom dataset을 labelme 툴을 사용해서 labelme2coco->coco format으로 변환시켜 사용하려 하는데, ballon_coco 데이터셋 양식이랑 순서가 조금 다르게 나오게 되었습니다. coco파일을 읽었을 때는 문제 없는 것 같은데, 학습을 예제와 동일 코드로 class명만 바꾸게 되면 학습이 진행될까요? 2. 1) balloon data 예제의 pth 파일을 가지고 pycharm에서 실행시켜 segmentation을 진행하려 하는데, cv2.dnn.readnet pb, pbtxt파일처럼 수행하려고 했을 때, pth 파일만 가지고 readnet을 수행할 수 있나요? 3. 2)를 가지고 dnn.readnet 파일이 읽어지지 않아, 직접 pycharm에 mm detection(mmcv-full)을 설치해 import mmcv 및 파일을 다가져오는 것까지 완료했습니다. mm detection을 사용하려고 했을 때, from mmcv import Config 의 import 부분에서 cannot import name 'Config' from 'mmcv'오류가 뜨게 되는데, colab 이외의 환경에서 mm detection을 사용할 수는 없는 것인가요? 그렇게되면 어떻게 custom data를 학습하여 개인 project에 적용시킬 수 있는지 알고싶습니다. 강의내용 정말 도움 많이 되고있습니다. 감사합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
제 연구실 gpu 여러개로 모델을 학습시키고 싶습니다(mask-rcnn)
안녕하세요 강의 감사합니다. 저희 랩실 gpu를 이용하여 모델을 돌려보고 싶은데 os.environ['CUDA_DEVICE_ORDER'] = 'PCI_BUS_ID' os.environ['CUDA_VISIBLE_DEVICES'] = '0,1' 이런 식으로 진행하면 될까요? 아니면 config에 수정할 부분이 있을까요? 일단 코랩으로만 진행해 보았는데 한 번 수정해보겠습니다. 감사합니다./
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
모델 파일을 불러와서 실행시킬시 config 파일
수업내용을 보면 config를 오버라이드 해서 수정해서 학습하고 모델을 사용하여 결과를 도출하였는데 학습을 따로 테스트 따로 시킬시에 테스트 할때 저장한 모델을 불러오고 config를 다시 오버라이드 시켜서 사용 해야 하나요? 또 config도 저장 시켜서 사용 할 수 있나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
PDF 자료
선생님, 이 부분은 PDF 자료가 없는지요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
맥북 환경
안녕하세요 강의 잘 듣고 있습니다! 제가 지금 맥북 로컬 환경에서 코드를 실행 시켜려고 하는데 cfg.device = 'cpu' 로 설정하고 train_detector(model, datasets, cfg, distributed=False, validate=True) 를 실행했을 때 아래와 같은 오류가 발생합니다. RuntimeError: DataLoader worker (pid(s) 11663) exited unexpectedly 로컬 환경에서 돌리기 위해서는 nvidia GPU 컴퓨터에서 cuda를 따로 설치하여야 이번 강의 코드를 실행 시킬 수 있는 건가요? cuda 관련하여 아직 지식이 많이 부족합니다 ㅜ 혹시 맥북에서 cpu를 사용하여 실행 시킬 수 있는 방법이 없을 까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
우분투에 콘다 MMDetection 설치 시 질문 합니다.
기존 우분투에 cuda 잡혀있습니다. 아나콘다 설치 후 가상환경 만들어 주고 가상환경쪽에도 cuda 잡아준 후 MMDetection 설치해야하는건가요?