묻고 답해요
140만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Ultralytics Yolo v3 pip dependency 오류 재발생 (pillow 버전)
안녕하세요 좋은 강의 감사드립니다.그런데 이번에도!cd yolov3;pip install -qr requirements.txt여기서 오류가 발생합니다. 그 내용은 아래와 같습니다.ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts. imageio 2.31.6 requires pillow<10.1.0,>=8.3.2, but you have pillow 10.2.0 which is incompatible.저번과 같이 requirements.txt 에서 해당 내용을 주석 처리하면 되는 걸까요?
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
2-7번 강의 수업 자료 관련
큰 문제는 아니지만 Section2의 '[실습] PyTorch 기초 - Transforms' 강의의 수업 자료가 이전 강의의 수업 자료로 잘못 업로드 되어 있는것 같아서 질문드려봅니다!
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolonas augmentation
안녕하세요.배운 내용을 기반으로 yolonas를 학습해보는 과정에서 질문이 있습니다.nas에서 기본적으로 사용하고 있는 transforms 대신에 albumentations 라이브러리를 사용하고 싶은데 계속해서 image 가 없다는 에러가 뜹니다.코드를 어떻게 수정해야하는지 궁금합니다.############## 기존 학습 코드 from super_gradients.training import Trainer from super_gradients.training import dataloaders from super_gradients.training.dataloaders.dataloaders import ( coco_detection_yolo_format_train, coco_detection_yolo_format_val ) from super_gradients.training import models from super_gradients.training.losses import PPYoloELoss from super_gradients.training.metrics import ( DetectionMetrics_050, DetectionMetrics_050_095 ) from super_gradients.training.models.detection_models.pp_yolo_e import PPYoloEPostPredictionCallback from tqdm.auto import tqdm import os import requests import zipfile import cv2 import matplotlib.pyplot as plt import glob import numpy as np import random ROOT_DIR = '/home/바탕화면/test_data' train_imgs_dir = 'train/images' train_labels_dir = 'train/labels' val_imgs_dir = 'val/images' val_labels_dir = 'val/labels' classes = ['fallen', 'normal'] dataset_params = { 'data_dir':ROOT_DIR, 'train_images_dir':train_imgs_dir, 'train_labels_dir':train_labels_dir, 'val_images_dir':val_imgs_dir, 'val_labels_dir':val_labels_dir, 'classes':classes } EPOCHS = 50 BATCH_SIZE = 16 WORKERS = 8 train_data = coco_detection_yolo_format_train( dataset_params={ 'data_dir': dataset_params['data_dir'], 'images_dir': dataset_params['train_images_dir'], 'labels_dir': dataset_params['train_labels_dir'], 'classes': dataset_params['classes'] }, dataloader_params={ 'batch_size':BATCH_SIZE, 'num_workers':WORKERS } ) val_data = coco_detection_yolo_format_val( dataset_params={ 'data_dir': dataset_params['data_dir'], 'images_dir': dataset_params['val_images_dir'], 'labels_dir': dataset_params['val_labels_dir'], 'classes': dataset_params['classes'] }, dataloader_params={ 'batch_size':BATCH_SIZE, 'num_workers':WORKERS } ) train_params = { 'silent_mode': False, "average_best_models":True, "warmup_mode": "linear_epoch_step", "warmup_initial_lr": 1e-6, "lr_warmup_epochs": 3, "initial_lr": 5e-4, "lr_mode": "cosine", "cosine_final_lr_ratio": 0.1, "optimizer": "Adam", "optimizer_params": {"weight_decay": 0.0001}, "zero_weight_decay_on_bias_and_bn": True, "ema": True, "ema_params": {"decay": 0.9, "decay_type": "threshold"}, "max_epochs": EPOCHS, "mixed_precision": True, "loss": PPYoloELoss( use_static_assigner=False, num_classes=len(dataset_params['classes']), reg_max=16 ), "valid_metrics_list": [ DetectionMetrics_050( score_thres=0.1, top_k_predictions=300, num_cls=len(dataset_params['classes']), normalize_targets=True, post_prediction_callback=PPYoloEPostPredictionCallback( score_threshold=0.01, nms_top_k=1000, max_predictions=300, nms_threshold=0.7 ) ), DetectionMetrics_050_095( score_thres=0.1, top_k_predictions=300, num_cls=len(dataset_params['classes']), normalize_targets=True, post_prediction_callback=PPYoloEPostPredictionCallback( score_threshold=0.01, nms_top_k=1000, max_predictions=300, nms_threshold=0.7 ) ) ], "metric_to_watch": 'mAP@0.50:0.95' } trainer = Trainer( experiment_name='yolo_nas_m', ckpt_root_dir='checkpoints' ) model = models.get( 'yolo_nas_m', num_classes=len(dataset_params['classes']), pretrained_weights="coco" ) trainer.train( model=model, training_params=train_params, train_loader=train_data, valid_loader=val_data ) ############## 기존 학습 코드에서 변경 시킨 부분 train_data = coco_detection_yolo_format_train( dataset_params={ 'data_dir': dataset_params['data_dir'], 'images_dir': dataset_params['train_images_dir'], 'labels_dir': dataset_params['train_labels_dir'], 'classes': dataset_params['classes'], 'transforms' : [ A.CLAHE(p=1.0), A.RandomBrightnessContrast(p=1.0), A.RandomGamma(p=1.0), ] }, dataloader_params={ 'batch_size':BATCH_SIZE, 'num_workers':WORKERS } ) val_data = coco_detection_yolo_format_val( dataset_params={ 'data_dir': dataset_params['data_dir'], 'images_dir': dataset_params['val_images_dir'], 'labels_dir': dataset_params['val_labels_dir'], 'classes': dataset_params['classes'], 'transforms' : [ A.CLAHE(p=1.0), A.RandomBrightnessContrast(p=1.0), A.RandomGamma(p=1.0), ] }, dataloader_params={ 'batch_size':BATCH_SIZE, 'num_workers':WORKERS } )
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
코드가 에러가 납니다
for i, img in enumerate(imgs): length = valid_len[i] img = inference.visualize_image( img, boxes[i].numpy()[:length], classes[i].numpy().astype(np.int)[:length], scores[i].numpy()[:length], label_map=config.label_map, min_score_thresh=config.nms_configs.score_thresh, max_boxes_to_draw=config.nms_configs.max_output_size) output_image_path = os.path.join('/content/data_output', str(i) + '.jpg') Image.fromarray(img).save(output_image_path) print('writing annotated image to %s' % output_image_path)AutoML Efficientdet Inference수행 결과 분석 및 시각화 강의입니다. (8분 48초)여기에서 Image.fromarray(img).save(output_image_path) 부분에서 TypeError: function takes at most 14 arguments (17 given) 이라고 뜹니다. (강의에서는 정상적으로 작동하네요...)뭐가 문제일까요?
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
from torchvision.models.resnet import model_urls 에러
첨부된 9-5 ipynb 에 resnet weight 를 불러올 때 from torchvision.models.resnet import model_urls에서 오류가 나와 찾아보니 torchvision 0.13 버전 이후에model_urls 는 없어졌다고 하네요. https://github.com/pytorch/vision/blob/main/torchvision/models/resnet.py 아래와 같이 해결을 해보았습니다.from torchvision.models.resnet import ResNet50_Weights checkpoint = load_state_dict_from_url(ResNet50_Weights.IMAGENET1K_V2.url)
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
강의를 듣다 잘못표기된게 있는것같아서 적습니다.
'Fast RCNN의 이해 14x7ROI 부분이 12x7로 보이는데 14x7이였다면 전체를 표기해야하지않나' 가 제 질문입니다.
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
섹션 6. Partial Diffentiation 예시
12 page 2번째 문재에서 x1 에 대해 미분할 때 log(x2) 항은 사라져야하는 것이 맞죠?그리고 x2 에 대해 미분할 때는 sin(x1) 항이 사라져야하는 것이 맞죠?
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
실습3-데이터로드: data_2d_h36m_cpn_conf.npz
No such file or directory: '../3DHPE/datasets/data_2d_h36m_cpn_conf.npz' 이렇게 에러가 나는데 해당 파일은 없는 것 같습니다.data_2d_h36m_cpn_ft_h36m_dbb.npzdata_2d_h36m_gt.npzdata_3d_h36m.npz 이렇게 다운받았는데, data_2d_h36m_cpn_conf.npz 파일은 어디서 받나요?
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Google Drive 에서 Colaboratory 항목이 안보이는 경우
연결할 앱 더보기에서 검색해서 연결을 해주면 됩니다
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요!
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.안녕하세요! 항상 좋은 강의 너무 감사합니다.강의 중 몇가지 질문이 있어 이렇게 남기게 되었습니다.Segmentation 시각화 강의 중 1. ploygon 좌표로 그린 mask 정보는 ground truth와는 다른 정보라고 이해했는데, 이부분이 맞는지 여쭤보고 싶습니다.2. 만약 한 이미지에 여러 동일한 물품이 분포되어 있고, mask rcnn 모델을 이용하여 각각의 객체를 인스턴화한 후에 불량과 양품을 분류하고 싶을 때, '데이터를 직접 수집할 경우' 라벨링을 양품과 불량품 이외에도 물품의 ground truth 정보를 같이 라벨링 해야하는지 궁금합니다.또한, 위에서 말씀드린 이미지를 개별 인스턴화를 통해 양품,불량품을 판별해기 위해 mask rcnn 모델이 적합한지 여쭤보고 싶습니다.
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
실습 데이터가...
실습 3 - A simple yet effective baseline for 3d human pose estimation 의 강의 내용대로 코드를 돌리다 보면 data_2d_h36m_cpn_conf.npz 파일이 없어 코드 진행이 안됩니다.ㅠㅠ해당 파일을 아래의 구글 드라이브에 업로드했다고 하시는데 들어가보면 저 파일만 없구요.https://drive.google.com/drive/folders/112GPdRC9IEcwcJRyrLJeYw9_YV4wLdKC 제가 뭔가 놓친걸까요?? 어떻게 데이터셋을 받을 수 있을까요?
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
강의에서 제공받은 h5 파일을 적용할때 결과가 나빠지는 이유가 뭘 까요?
pipeline = keras_ocr.pipeline.Pipeline() images = [ keras_ocr.tools.read('42.jpg') ] prediction_groups = pipeline.recognize(images) fig, ax = plt.subplots(figsize=(20, 20)) image, predictions = images[0], prediction_groups[0] keras_ocr.tools.drawAnnotations(image=image, predictions=predictions, ax=ax) plt.show()이렇게 했을때 결과값은 이런데강의에서 제공받은 h5을 사용하면 어노테이션을 전혀 그리지 못합니다.import matplotlib.pyplot as plt import keras_ocr detector = keras_ocr.detection.Detector() detector.model.load_weights('detector_carplate.h5') recognizer = keras_ocr.recognition.Recognizer() recognizer.model.load_weights('recognizer_carplate.h5') pipeline = keras_ocr.pipeline.Pipeline(detector=detector, recognizer=recognizer, scale=1) images = [ keras_ocr.tools.read('42.jpg') ] prediction_groups = pipeline.recognize(images) fig, ax = plt.subplots(figsize=(20, 20)) image, predictions = images[0], prediction_groups[0] keras_ocr.tools.drawAnnotations(image=image, predictions=predictions, ax=ax) plt.show()이런식으로 ocr 결과값이 잘 수행되지 않는데 어떤 원인들이 있을까요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
cvat 태스크에서 이미지를 추가하고 싶습니다.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요, 첫 수강이라 전체흐름 위주로 듣고 있습니다. 도움 많이 받고 있습니다. 현재 맥에서 도커를 이용해 로컬호스트로 이용해서 제가 가진 이미지로 라벨링하고 학습시켜보았는데요.추론까지 제대로 되는데, 클래스마다 이미지수가 편차가 있다보니, 이미지가 많은 클래스로 인식하는 경향이 있는 것 같은데, 기분탓인지요? 그래서, 적은 클래스의 이미지를 추가해서 전체적으로 숫자를 맞추고 싶은데, 기존 태스크에 이미지를 추가하는 방법이 있는지요? 감사합니다.
-
미해결C# OpenCV 컴퓨터비전 입문 강좌
동영상 실행이 안돼요
동영상 불러오기하면 폼 화면에 동영상 영상이 안나오고 빈 폼만 나와서 실행되는데, 경로가 문제인가요? 절대경로로 변경해서 실행해도 동일하게 출력됩니다...ㅜㅜ
-
해결됨차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
크래프트 모델 다운 못받는 이유가 있을까요?
h5 모델 둘 다 같은 경로에 있는데 왜 이런걸까요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
딥러닝 수업과 컴퓨터 비전 수업
안녕하십니까 질문이 있어 문의 드립니다.현재 로드맵을 따라 다음과 같은 수업을 신청하여 수강중에 있습니다. 딥러닝 CNN 완벽 가이드 - Fundamental 편딥러닝 컴퓨터 비전 완벽 가이드 컴퓨터 비전 수업을 수강하기 위해서 1번 수업의 'CNN 모델 구현 및 성능 향상 기본 기법 적용하기' 까지만 수강해도 이해가 될지 여쭙습니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection maskRCNN 훈련 예제를 데스크탑에서 적용가능한가요?
mmdetection maskRCNN 코랩 훈련 예제 코드를 폴더 설정만 변경해서 테스크탑 MS vscode 로 돌리면 에러가 발생합니다.inference는 vscode에서 문제 없이 작동하는데, 훈련의 경우는 데스크탑에서는 동작이 안되는 것인지 문의드립니다.
-
미해결[OpenCV] 파이썬 딥러닝 영상처리 프로젝트 - 손흥민을 찾아라!
주피터 실행 관련 문제
주피터를 실행시켰는데 로고만 뜨고 빈화면이 떠요
-
해결됨최신 딥러닝 기술과 객체인식
yolo anchor box 질문
안녕하세요 질문있어서 남깁니다.input 이미지를 backbone을 거치고 정보가 함축된 이미지 feature map을 만든 후 cell별 anchor box를 통해 Detection을 진행하는걸로 이해했는데요,실제 이미지는 feature map과 스케일이 다를텐데, 그러면 최종 결과 이미지에서는 이 값(x,y,w,h)을 보정한 최적 bounding box 값을 출력하는 건가요?
-
해결됨최신 딥러닝 기술과 객체인식
yolov4 bifpn
안녕하세요 yolov4 bifpn에서 input과 다른 여러 scale의 이미지를 합치는데 resize해서 concat하는 건가요 아니면 그냥 element sumwise하는건가요?!