월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLOv3 loss 계산 질문
안녕하세요. YOLOv3 논문을 읽고 정리하다가 궁금한 점이 생겨서 질문 드립니다. 해당 논문에 다음과 같은 문단이 나오는데요."YOLOv3 predicts an objectness score for each bounding box using logistic regression. This should be 1 if the bounding box prior overlaps a ground truth object by more than any other bounding box prior. If the bounding box prior is not the best but does overlap a ground truth object by more than some threshold we ignore the prediction, following [17]. We use the threshold of .5. Unlike [17] our system only assigns one bounding box prior for each ground truth object. If a bounding box prior is not assigned to a ground truth object it incurs no loss for coordinate or class predictions, only objectness." [17]은 Faster R-CNN에 해당합니다. YOLOv3의 경우 logistic regression을 이용하여 anchor box의 objectness를 예측하는데 ground truth와의 IoU가 최고인 anchor box의 경우에만 1을 할당하고 나머지 anchor box의 objectness score는 무시한다고 이해했습니다. 그러면 이미지에 객체가 하나가 있을 경우, 생성된 전체 anchor box 중에 객체의 ground truth와 IoU가 가장 높은 하나의 objectness score만 1이고 나머지 anchor box의 objectness score는 모두 0이 되는 건가요? 그리고 이 값을 이용해서 Object Confidence Loss가 계산되는건가요? YOLOv1의 경우 나눠진 각 grid cell의 책임 BBox의 (Object일 확률 x ground truth와의 IoU값)으로 Object Confidence Loss가 계산된 걸로 아는데 너무 헷갈리네요 ㅜㅜ
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
코랩 세션 다운
안녕하세요. 학습에 관련하여 질문이 있어 남깁니다. 현재 코랩에서 이미지 데이터에 대한 학습을 진행 중에 있습니다. import os.path as osp mmcv.mkdir_or_exist(osp.abspath(cfg.work_dir)) train_detector(model, datasets, cfg, distributed=False, validate=True)위와 같은 코드를 진행하였을 때, epoch 1번 수행 후 세션이 종료 됩니다. 위와 같은 문제로 validate=false로 진행 할 경우, 학습은 잘 작동하지만 validation에 대한 loss값만 표시되고 AP 값은 나오지 않아 학습된 모델의 평가를 어떻게 진행해야 할지 의문입니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하십니까! 질문이 있습니다.
32 32 에서는 보다 작은 이미지들이 검출되고4 * 4에는 보다 큰 이미지들이 검출된다고 말씀하셨는데. FC layer은 사이즈 마다 실행되는건가요?예를들어 32 32에서는 사람이 검색되고 4 4에서는 자동차가 검출되었다고 했을 때 32 32에서도 FClayer가 수행이되고 4 4에서도 FClayer가 수행되서 결과로는 자동차 & 사람 모두가 검출되는 원리 인건가요?
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
데이터 세트에 대한 기능 부분 질문입니다.
안녕하세요.. 데이터세트에 대한 질문이 있습니다.강의에서 train, validation으로 테이터 세트를 나누어서 진행하는 부분에서, 훈련용 데이터세트는 당연히 훈련 전용일것이고,Validation의 경우 epoch 를 반복하면서 모델 검정 간격을 정해주면 그때 사용 하는것 같은데.. 여기서 질문이 있습니다.Validation에서 객체를 잘못 구분할 경우 이것이 피드백이 되어 모델 훈련에 반영이 되는것인지요? 아니면 단순하게 mAP, mAR 만 확인하는 것인지요?만약 mAP, mAR 을 확인하는 것이라면 시간을 절약하기 위해서 validation 데이터 세트에 대한 검정간격을 자주 하지 않아도 되지 않을까 싶은데 이러한 판단이 맞는 것인지 궁급합니다.만약 반대로 validation. 데이터 세트에 대한 검정자체가 모델 훈련에 직접적으로 피이드백을 해서 훈련 결과에 개선효과가 있다면 검정을 자주 하는 것이 좋은것인지요??이와는 별개로 GPU 성능에 따라서 동일한 데이터세트와 동일한 조건에 대한 학습 결과가 달라질수 있는지요??? 만약 그렇다면 GPU 성능을 높이고 batch size를 많이 할수록 학습 결과가 개선이 되는 것으로 이해하는 것이 맞는지요??항상 좋은 강의 고맙습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Ultralytics Yolo v3 pip dependency 오류 재발생 (pillow 버전)
안녕하세요 좋은 강의 감사드립니다.그런데 이번에도!cd yolov3;pip install -qr requirements.txt여기서 오류가 발생합니다. 그 내용은 아래와 같습니다.ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts. imageio 2.31.6 requires pillow<10.1.0,>=8.3.2, but you have pillow 10.2.0 which is incompatible.저번과 같이 requirements.txt 에서 해당 내용을 주석 처리하면 되는 걸까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolonas augmentation
안녕하세요.배운 내용을 기반으로 yolonas를 학습해보는 과정에서 질문이 있습니다.nas에서 기본적으로 사용하고 있는 transforms 대신에 albumentations 라이브러리를 사용하고 싶은데 계속해서 image 가 없다는 에러가 뜹니다.코드를 어떻게 수정해야하는지 궁금합니다.############## 기존 학습 코드 from super_gradients.training import Trainer from super_gradients.training import dataloaders from super_gradients.training.dataloaders.dataloaders import ( coco_detection_yolo_format_train, coco_detection_yolo_format_val ) from super_gradients.training import models from super_gradients.training.losses import PPYoloELoss from super_gradients.training.metrics import ( DetectionMetrics_050, DetectionMetrics_050_095 ) from super_gradients.training.models.detection_models.pp_yolo_e import PPYoloEPostPredictionCallback from tqdm.auto import tqdm import os import requests import zipfile import cv2 import matplotlib.pyplot as plt import glob import numpy as np import random ROOT_DIR = '/home/바탕화면/test_data' train_imgs_dir = 'train/images' train_labels_dir = 'train/labels' val_imgs_dir = 'val/images' val_labels_dir = 'val/labels' classes = ['fallen', 'normal'] dataset_params = { 'data_dir':ROOT_DIR, 'train_images_dir':train_imgs_dir, 'train_labels_dir':train_labels_dir, 'val_images_dir':val_imgs_dir, 'val_labels_dir':val_labels_dir, 'classes':classes } EPOCHS = 50 BATCH_SIZE = 16 WORKERS = 8 train_data = coco_detection_yolo_format_train( dataset_params={ 'data_dir': dataset_params['data_dir'], 'images_dir': dataset_params['train_images_dir'], 'labels_dir': dataset_params['train_labels_dir'], 'classes': dataset_params['classes'] }, dataloader_params={ 'batch_size':BATCH_SIZE, 'num_workers':WORKERS } ) val_data = coco_detection_yolo_format_val( dataset_params={ 'data_dir': dataset_params['data_dir'], 'images_dir': dataset_params['val_images_dir'], 'labels_dir': dataset_params['val_labels_dir'], 'classes': dataset_params['classes'] }, dataloader_params={ 'batch_size':BATCH_SIZE, 'num_workers':WORKERS } ) train_params = { 'silent_mode': False, "average_best_models":True, "warmup_mode": "linear_epoch_step", "warmup_initial_lr": 1e-6, "lr_warmup_epochs": 3, "initial_lr": 5e-4, "lr_mode": "cosine", "cosine_final_lr_ratio": 0.1, "optimizer": "Adam", "optimizer_params": {"weight_decay": 0.0001}, "zero_weight_decay_on_bias_and_bn": True, "ema": True, "ema_params": {"decay": 0.9, "decay_type": "threshold"}, "max_epochs": EPOCHS, "mixed_precision": True, "loss": PPYoloELoss( use_static_assigner=False, num_classes=len(dataset_params['classes']), reg_max=16 ), "valid_metrics_list": [ DetectionMetrics_050( score_thres=0.1, top_k_predictions=300, num_cls=len(dataset_params['classes']), normalize_targets=True, post_prediction_callback=PPYoloEPostPredictionCallback( score_threshold=0.01, nms_top_k=1000, max_predictions=300, nms_threshold=0.7 ) ), DetectionMetrics_050_095( score_thres=0.1, top_k_predictions=300, num_cls=len(dataset_params['classes']), normalize_targets=True, post_prediction_callback=PPYoloEPostPredictionCallback( score_threshold=0.01, nms_top_k=1000, max_predictions=300, nms_threshold=0.7 ) ) ], "metric_to_watch": 'mAP@0.50:0.95' } trainer = Trainer( experiment_name='yolo_nas_m', ckpt_root_dir='checkpoints' ) model = models.get( 'yolo_nas_m', num_classes=len(dataset_params['classes']), pretrained_weights="coco" ) trainer.train( model=model, training_params=train_params, train_loader=train_data, valid_loader=val_data ) ############## 기존 학습 코드에서 변경 시킨 부분 train_data = coco_detection_yolo_format_train( dataset_params={ 'data_dir': dataset_params['data_dir'], 'images_dir': dataset_params['train_images_dir'], 'labels_dir': dataset_params['train_labels_dir'], 'classes': dataset_params['classes'], 'transforms' : [ A.CLAHE(p=1.0), A.RandomBrightnessContrast(p=1.0), A.RandomGamma(p=1.0), ] }, dataloader_params={ 'batch_size':BATCH_SIZE, 'num_workers':WORKERS } ) val_data = coco_detection_yolo_format_val( dataset_params={ 'data_dir': dataset_params['data_dir'], 'images_dir': dataset_params['val_images_dir'], 'labels_dir': dataset_params['val_labels_dir'], 'classes': dataset_params['classes'], 'transforms' : [ A.CLAHE(p=1.0), A.RandomBrightnessContrast(p=1.0), A.RandomGamma(p=1.0), ] }, dataloader_params={ 'batch_size':BATCH_SIZE, 'num_workers':WORKERS } )
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
코드가 에러가 납니다
for i, img in enumerate(imgs): length = valid_len[i] img = inference.visualize_image( img, boxes[i].numpy()[:length], classes[i].numpy().astype(np.int)[:length], scores[i].numpy()[:length], label_map=config.label_map, min_score_thresh=config.nms_configs.score_thresh, max_boxes_to_draw=config.nms_configs.max_output_size) output_image_path = os.path.join('/content/data_output', str(i) + '.jpg') Image.fromarray(img).save(output_image_path) print('writing annotated image to %s' % output_image_path)AutoML Efficientdet Inference수행 결과 분석 및 시각화 강의입니다. (8분 48초)여기에서 Image.fromarray(img).save(output_image_path) 부분에서 TypeError: function takes at most 14 arguments (17 given) 이라고 뜹니다. (강의에서는 정상적으로 작동하네요...)뭐가 문제일까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
강의를 듣다 잘못표기된게 있는것같아서 적습니다.
'Fast RCNN의 이해 14x7ROI 부분이 12x7로 보이는데 14x7이였다면 전체를 표기해야하지않나' 가 제 질문입니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요!
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.안녕하세요! 항상 좋은 강의 너무 감사합니다.강의 중 몇가지 질문이 있어 이렇게 남기게 되었습니다.Segmentation 시각화 강의 중 1. ploygon 좌표로 그린 mask 정보는 ground truth와는 다른 정보라고 이해했는데, 이부분이 맞는지 여쭤보고 싶습니다.2. 만약 한 이미지에 여러 동일한 물품이 분포되어 있고, mask rcnn 모델을 이용하여 각각의 객체를 인스턴화한 후에 불량과 양품을 분류하고 싶을 때, '데이터를 직접 수집할 경우' 라벨링을 양품과 불량품 이외에도 물품의 ground truth 정보를 같이 라벨링 해야하는지 궁금합니다.또한, 위에서 말씀드린 이미지를 개별 인스턴화를 통해 양품,불량품을 판별해기 위해 mask rcnn 모델이 적합한지 여쭤보고 싶습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
cvat 태스크에서 이미지를 추가하고 싶습니다.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요, 첫 수강이라 전체흐름 위주로 듣고 있습니다. 도움 많이 받고 있습니다. 현재 맥에서 도커를 이용해 로컬호스트로 이용해서 제가 가진 이미지로 라벨링하고 학습시켜보았는데요.추론까지 제대로 되는데, 클래스마다 이미지수가 편차가 있다보니, 이미지가 많은 클래스로 인식하는 경향이 있는 것 같은데, 기분탓인지요? 그래서, 적은 클래스의 이미지를 추가해서 전체적으로 숫자를 맞추고 싶은데, 기존 태스크에 이미지를 추가하는 방법이 있는지요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
딥러닝 수업과 컴퓨터 비전 수업
안녕하십니까 질문이 있어 문의 드립니다.현재 로드맵을 따라 다음과 같은 수업을 신청하여 수강중에 있습니다. 딥러닝 CNN 완벽 가이드 - Fundamental 편딥러닝 컴퓨터 비전 완벽 가이드 컴퓨터 비전 수업을 수강하기 위해서 1번 수업의 'CNN 모델 구현 및 성능 향상 기본 기법 적용하기' 까지만 수강해도 이해가 될지 여쭙습니다.
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection maskRCNN 훈련 예제를 데스크탑에서 적용가능한가요?
mmdetection maskRCNN 코랩 훈련 예제 코드를 폴더 설정만 변경해서 테스크탑 MS vscode 로 돌리면 에러가 발생합니다.inference는 vscode에서 문제 없이 작동하는데, 훈련의 경우는 데스크탑에서는 동작이 안되는 것인지 문의드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
colab과 github의 연동
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.안녕하세요 교수님강의 잘 듣고 있습니다.colab의 github 사본 저장을 통해 github에 코드를 저장해두었는데 코드를 옮기게 되면 Invalid syntax라고 뜹니다.구글링을 해보아도, 도무지 해답이 나오지 않아 colab에서 코드를 다운로드하고, github에 그냥 업로드를 시켰습니다.강의와 다른 질문이지만, 해결해주시면 감사하겠습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetction 학습 후 성능지표 그래프
안녕하세요. 자꾸 질문드려 죄송합니다.mmdetection mask R-CNN 학습 후 validation 데이터에 대한 성능지표 그래프를 보고 싶은데요. 학습데이터와 검증데이터로 나누어, 학습을 약 10시간 이상 수행하였는데, 성능지표 그래프가 나오지 않아서요.YOLO 같은 경우는 학습시킨 후, ultra_workdir 디렉토리에, cofusion_matrix.png, f1_curve.png, PR_curve.png와 같은 파일들이 생기고, 배치 이미지에 대한 식별 및 분류사진이 있었는데, mmdetection에서도 이와 같은 성능지표 그래프를 볼 수가 있는지 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mask rcnn에서 mmdetection의 배치사이즈 설정
안녕하세요. 교수님 강의 잘듣고 있습니다.Mask rcnn의 수업과정의'Balloon 데이터를 이용한 Train 실습 - Train 실행 및 Gray Scale로 배경 적용한 Segmentation 구현하기'를 참고해서,제가 가지고 있는 이미지 데이터에 학습을 시켜보고 있습니다.MMDetection은 배치사이즈를 어디서 설정하는지 궁금합니다. config 파일을 보면, 'mask_rcnn_r50_fpn.py'은 mmdetection/configs/base/models에 위치해 있는데,배치사이즈로 볼만한 내용이,다음 내용밖에는 없거든요.cfg.auto_scale_lr = dict(enable=False, base_batch_size=62)16을 62로 변경했는데, Epoch의 배치사이즈는 변하지 않고 그대로 10으로 설정되는것 같습니다.Mask Rcnn은 배치사이즈를 어디서 설정하는지 궁금합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mm_faster_rcnn_train_coco_bccd.ipynb 코드 오류 발생
선생님 안녕하세요.mm_faster_rcnn_train_coco_bccd.ipynb 코드 실행하다가 오류가 발생해서 해결방법을 모르겠어서 질문남깁니다..코드는 수정한건 없고 그대로 실행하였습니다. 버전도 통일했는데, 해당오류가 발생해서 혹시 해결방법을 알 수 있을까요?감사합니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
wget 문의
안녕하세요 선생님저는 주피터노트북으로 선생님 코드를 따라 실습해보고 있습니다.!wget -O /content/pretrained/yolov3.cfg https://github.com/pjreddie/darknet/blob/master/cfg/yolov3.cfg?raw=true 위와 같이 파일을 wget으로 다운로드 받을 때 마다wget.download(다운경로, 저장경로)로 구현하고 있었는데요.raw=True에 대해서는 주피터노트북으로 어떻게 구현할 수 있을까요?
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
pytorch downgrade 문의
안녕하세요,pytorch 1.13 설치하는 과정에서 아래와 같은 에러가 발생합니다. (주피터노트북 환경)원인과 해결 방법을 알 수 있을까요..?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
경로 설정 문의
안녕하세요!평소 파이썬 공부를 하다가 헷갈렸던 부분이 있는데,경로를 설정할 때 ./과 /의 차이에 대해서 알 수 있을까요?cv2_image = cv2.imread('./content/data/beatles01.jpg')cv2_image = cv2.imread('/content/data/beatles01.jpg')
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
iou 계산 식 문의
안녕하세요! 너무 좋은 수업을 들을 수 있어 감사합니다!질문이 있는데요,위 코드에서 iou를 구하려면 cand_box에서와 같이 gt_box의 2,3번째 값도 x max와 y max로 바꿔줘야 하는게 아닌가요??