월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
cvtColor 후 imwrite 하면 저장 형태가 어떻게 되나요?
imread (BGR) -> cvtColor (RGB)로 바꾼 후 imwrite로 저장한다면 그때도 파일형식은 RGB로 저장되나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
cv_out[0,0,: , : ] 부분
cv_out 은 4차원인걸로 이해했는데 cv_out[0,0,: , : ] 은 무엇을 의미하나요?? for detection in cv_out[0][0][:][:]로 해야 100번 반복하는 것이지 않나요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
ultralytics_yolov3 Quantization
원래 32였는데 8이나 16 float 및 int로 바꾼다라고 하셨는데 이 부분을 어디서 확인 및 직접 조정해볼수 있을까요? 그리고 혹시 성능 개선을 위해 시도할 수 있는 방법들에 대해 코멘트 해주시면 감사하겠습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mask-rcnn에서 dataset 준비
강사님 안녕하세요, 정말 좋은강의 감사드립니다. 제가 최종적으로 구현하고 싶은 모델은 이미지 상에 존재하는 다양한 모양의 원형 입자를 구분하고, 이 좌표를 추출하는 것입니다. 이를 위해 mask-rcnn을 적용해보고자 하는데, 하나의 문제점이 제가 구분하고자 하는 모양의 내부에 구멍이 뚫려 있다는 것입니다. 예를 들면 위와 같이 내부 구멍의 모양으로 구분이 되게 되는데, 따라서 segmentation 좌표가 외부1, 내부4로 나오게 됩니다. 외부 segmentation 좌표에서 내부 segmentation 좌표를 빼는 방법으로 위와 같이 마스크를 구현을 해보긴 했으나, 이를 어떻게 coco dataset으로 변경해서 학습해야할까요? 구글에서도 정보를 찾기 어려워 이렇게 질문을 남기게 되었습니다. 항상 감사드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
프레임워크 개념관련해서 질문드립니다
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요. 고퀄 강의 감사드립니다~ robotics분야에서 Control과 Localization을 개발하고 있는데 CV딥러닝에 대한 것은 잘 몰라서 강의를 듣게 되었고 매우 만족하며 수강중입니다. 아직 초반 밖에 듣지 않았지만 , 사용하는 툴에 대해 궁금한 점이 있어서 질문드립니다. 보통 같이 일하는 CV쪽 딥러닝 엔지니어들 이야기들어보면 텐서플로우에 케라스 사용해서 직접 딥러닝 모델을 만들어 디텍을 하는 거라고 생각했는데, MMDetection이나 Detectron2같은 프레임워크를 사용하여 모델을 만드는 것이 더 일반적인 가요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
NMS와 서로 다른 class와의 관계에 대해서 질문이 있습니다
안녕하세요 혹시 NMS에서 서로 다른 class에 대한 confidence score, IoU에 대해서도 삭제하게 되나요? 삭제 하는 기준의 조건이 서로 같은 class로 예측했을 때를 말하는 것인가요? 아니면 다른 것인지 궁금합니다 만일 그렇다면 겹쳐있는 것 중 서로 다른 클래스로 정확히 예측했던 것들 중 하나가 삭제되는 것 아닌가 해서요!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
object detection을 위한 커스텀 데이터 학습에 가장 적합한 방법
안녕하세요. 저는 관련분야 비전공자로, 강사님 강의 들으며 조금씩 배우고 있습니다. 제 최종목적은 항공사진에서 나무를 탐지해내는 것인데요. 겨울에 찍은 사진이라 잎이 전부 떨어진 나무입니다. 이 사진에는 잎이 떨어진 낙엽수, 잎이 있는 상록수 2종류의 나무를 볼 수 있는데, 2개 클래스를 학습시키고 탐지해내는데 가장 적합한 알고리즘은 무엇일지 추천해주실 수 있을까요? 또, 강의 중 어떤 부분을 집중해서 듣는게 좋을지도 말씀해주시면 감사하겠습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
openCV로 이미지 로딩할때의 에러 질문입니다
강사님 안녕하세요, 먼저 좋은 강의 정말 감사드립니다. 코딩과 전혀 관련없는 연구를 하고 있는 연구원인데, 이미지 분석에 딥러닝 기술을 이용하고 싶어서 방법을 찾던 도중 강사님의 강의를 보게 되었습니다. 걷기도 전에 때론 뛰어야 한다는 말씀이 너무 가슴깊이 와닿아서 열심히 하고있지만, 경험도 없고 코딩에 소질이 없어서 그런지 정말 어렵네요.. 그래도 강사님 덕분에 어느정도 따라가고 있습니다. 진심으로 감사드립니다. 오늘 질문드리고 싶은 내용은 다음과 같습니다 구글 드라이브에 있는 이미지를 colab으로 옮겨서 로딩하려고 하는데, 위와 같은 에러가 자꾸 뜹니다. 혹시 해결방법이 있을까요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
model.cfg = cfg
안녕하세요. tiny kitti 데이터로 MMDetection Train 실습 - Train 실행 후 이미지 inferece 강의 마지막 부분에서 model.cfg = cfg 부분의 코드가 이해가 되지 않아서 문의드립니다. 먼저 inferece를 하기 전에 왜 model.cfg = cfg 라는 코드가 필요한지 이해가 되지 않습니다. ㅜㅜ 그런데 해당 작업을 하지 않으면 코드가 되지 않는 것을 보아서 왜 그런지 이해가 되지 않은 상태입니다 .... 애초에 model이라는 객체를 생성할 때 수정된 cfg에 대한 내용이 반영되는 것으로 이해를 하고 있어서요.... 아니면 train_detector(model, datasets, cfg, distributed=False, validate=True)코드 이후에 .. cfg에 대한 부분이 반영이 되고 해당 cfg를 반영하기 위해서 model.cfg = cfg로 작업을 하는지 궁금합니다. 두번째 질문입니다. model = build_detector(cfg.model, train_cfg=cfg.get('train_cfg'), test_cfg=cfg.get('test_cfg')) model.CLASSES = datasets[0].CLASSES model.cfg 해당 데이터셋을 모델에 넘겨줄 때, model이라는 객체를 생성하는데 왜 이 경우에는 model.cfg의 경우, 에러가 발생하는지 문의드립니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
gt_box 내의 object의 크기는 알 수 없나요??
강의 중 궁금한 점이 생겨서 질문드립니다. cand_box가 탐지한 object의 크기를 알 수 있는 것 처럼 사용자가 이미지에 설정해준 gt_box 내의 object의 크기는 얼마인지도 알 수가 있나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
강사님 추가 질문 있습니다 ~!!
우연히 검색하다가 WSL을 알게 됐는데, 윈도우에 하위 시스템으로 리눅스를 설치하고 거기에 anaconda를 설치를 하면 강의를 들으면서 따라하기에 문제가 없을까요 .. ?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdet error 질문입니다 ~!!!
안녕하세요 강사님 .. ? 강사님 수업 재밌게 듣고 있습니다. 다만 수업을 진행하던중에 mmcv를 설치하고 git으로 mmdetection을 다운 받은 후 설치를 진행 했고 from mmdet.apis import init_detector, inference_detector 위 코드를 실행 했는데 위와 같은 오류가 나왔습니다. anaconda3를 지우고 재설치해도 같은 증상이 나타납니다. 혹시 해결 방법이 있을까요 .. ? 현재 로컬에서 진행하고 있고, 컴퓨터 사양은 i7- 4세대 램은 32기가 GPU는 RTX 3060 12GB를 사용하고 있습니다. 파이토치 버전은 1.9.0으로 colab 버전과 똑같이 맞추웠습니다. 아까 잠깐 검색으로 mmdetection이 윈도우를 정식적으로 지원하지 않는다고 하는데 혹시 이것때문에 안되는 걸까요 .. ? 궁금합니다. ㅠㅠ
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mm모듈에서 datasets 경로 질문 있습니다.
안녕하십니까 교수님! 좋은 강의 들려주셔서 감사합니다. 강의를 듣고 다양한 데이터를 사용해보고 싶어서 ADE20K라는 데이터 셋으로 MMsegmentation을 적용해보고 있었습니다. 해당 데이터셋은 다양한 카테고리 안에 또 카테고리가 있고 그 안에 이미지와 json파일이 있는데 이럴경우 config.data.train/val 경로를 어떻게 해야할지 궁금합니다! https://github.com/open-mmlab/mmsegmentation/blob/master/mmseg/datasets/ade.py 의 사이트에 보면 CustomDataset을 상속받았고 https://github.com/open-mmlab/mmsegmentation/blob/master/mmseg/datasets/custom.py 해당구조를 따르라고 했습니다. 첨부한 사진처럼 img_dir 에 원본이미지 넣고 ann_dir에 annotation이 담긴 json파일을 넣어 옮겨주면 되는것일까요?? 아니면 coco dataset처럼 여러개의 annotation 정보가 담긴 json 파일을 하나의 json으로 합치는 작업을 해야될까요?? 혹시 다른 방법이 있을까요? 질문 읽어주셔서 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
efficientdet 실습 질문
강사님 안녕하세요 올려주신 efficientdet 수업과 예제를 통해서 제가 가지고 있는 데이터셋으로 object detection을 해보려고 하는데 계속 오류가 발생해서 질문을 작성하게 되었습니다 현재 커스텀데이터로 tfrecord 파일을 만드는 것까지는 전부 완료한 상태입니다. 코드에서 변경한 부분은 주소와 자료에서 라벨이름이 car, pool 예제에서와 같이 숫자가 아닌 한글 단어로 되어있어 해당 부분을 int가 아니라 byte로 바꾸고 encode를 추가한 것 외에는 없습니다 만들어진 tfrecord를 가지고 모델에 학습시키는 코드를 실행했을 때 코드 가장 앞에 requirements.txt를 이용하는 코드를 돌리면 numpy가 1.19로 다시 재설치 되기 때문에 config.override(params, True)가 포함된 셀에서 ValueError: numpy.ndarray size changed, may indicate binary incompatibility. Expected 88 from C header, got 80 from PyObject 에러가 발생하게 됩니다. 찾아보니 해당 오류는 numpy 버전이 낮아서 발생한다고 해서 requirements.txt 실행 후 numpy를 삭제하고 다시 설치하는 방식으로 버전을 1.21로 변경하면 오류가 발생하기 않다가 model.fit을 하는 셀에서 NotImplementedError: Cannot convert a symbolic Tensor (parser/strided_slice_16:0) to a numpy array. This error may indicate that you're trying to pass a Tensor to a NumPy call, which is not supported 이라는 에러가 발생하게 됩니다 혹시 어떻게 해결하면 좋을지에 대해 조언해주실수 있으실까요? 감사합니다 아래는 문제가 생겼던 셀의 코드 입니다 class TRAIN_CFG: model_name='efficientdet-d2' strategy='' model_dir=model_weight pretrained_ckpt = ckpt_path#coco로 pretrained된 checkpoint파일이 있는 디렉토리 위치 #num_classes=3으로 변경 hparams='num_classes=3,moving_average_decay=0,mixed_precision=true' use_xla=False use_fake_data=False #max_instances_per_image를 200으로 설정하고 #d2모델이 상대적으로 더 크기 때문에 batch_size를 8로 설정시 GPU Out of Memory발생 batch_size=4 eval_samples=5000 #evaluation image데이터 갯수 steps_per_execution=1 #train시 steps 횟수 num_examples_per_epoch=3000 #1epochs 시 적용하는 examples 개수 num_epochs=20 #epochs 횟수 train_file_pattern=train_temp+'/*.tfrecord' test_file_pattern=test_temp+'/*.tfrecord' test_json_file=None #optional coco validation json mode='traineval' #train만 적용 또는 train과 eval함께 적용(traineval) num_shards=100 max_instances_per_image=100 num_cores=2 tpu=None gcp_project=None tpu_zone=None eval_master='' eval_name=None tf_random_seed=2021 profile=False debug=False sys.path.append('./automl/efficientdet') from keras.train import setup_model import hparams_config import utils from keras import tfmot from keras import train_lib from keras import util_keras config=hparams_config.get_detection_config(TRAIN_CFG.model_name) config.override(TRAIN_CFG.hparams) steps_per_epoch=TRAIN_CFG.num_examples_per_epoch // TRAIN_CFG.batch_size if tf.config.list_physical_devices('GPU'): ds_strategy=tf.distribute.OneDeviceStrategy('device:GPU:0') else: ds_strategy=tf.distribute.OneDeviceStrategy('device:CPU:0') print(ds_strategy) params=dict( profile=TRAIN_CFG.profile, mode=TRAIN_CFG.mode, model_name=TRAIN_CFG.model_name, steps_per_execution=TRAIN_CFG.steps_per_execution, num_epochs=TRAIN_CFG.num_epochs, model_dir=TRAIN_CFG.model_dir, steps_per_epoch=steps_per_epoch, strategy=TRAIN_CFG.strategy, batch_size=TRAIN_CFG.batch_size, tf_random_seed=TRAIN_CFG.tf_random_seed, debug=TRAIN_CFG.debug, test_json_file=TRAIN_CFG.test_json_file, eval_samples=TRAIN_CFG.eval_samples, num_shards=ds_strategy.num_replicas_in_sync, max_instances_per_image = TRAIN_CFG.max_instances_per_image ) config.override(params, True) #image size를 tuple 형태로 변환. 512는 (512,512)로 '1920x880'은 (1920, 880)으로 변환 config.image_size=utils.parse_image_size(config.image_size) print(config) sys.path.append('./automl/efficientdet') from keras import train import numpy as np config.batch_size=4 train_steps_per_epoch=train_df.shape[0] test_steps_per_epoch=test_df.shape[0] print('train_steps_per_epoch : ',train_steps_per_epoch, 'test_steps_per_epoch : ', test_steps_per_epoch) test_dataset=get_dataset(False, config) if 'eval' in config.mode else None model.fit( get_dataset(True, config), epochs=20, steps_per_epoch=train_steps_per_epoch, callbacks=train_lib.get_callbacks(config.as_dict(), test_dataset), validation_data=test_dataset, validation_steps=test_steps_per_epoch ) tf.keras.backend.clear_session()
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
local setting 질문
안녕하세요 강사님 좋은 강의 감사합니다. object detection을 local pc에 세팅해보고자 하는데 올려주신 code를 그대로 실행하는데 에러가 자꾸 납니다. 제 환경은 아래와 같습니다. CPU : i5-10400 GPU : RTX3060 SW : - torch 1.9.0 - cuda 11.4 - mmdet : 2.14.0 - mmcv : 1.3.9 두가지 질문을 드리고자 합니다. 1. 아래와 같은 에러는 어떻게 잡아야 하는지 궁금합니다. mm_faster_rcnn_train_kitti.ipynb file 에서 train_detector(model, datasets, cfg, distributed=False, validate=True) # <= 왼쪽 코드를수행 할 때 에러가 납니다. 위 결과를 보는것도 mmdet나 mmcv 코드를 열어서 확인하면서 하나씩 수정하면서 보고 있습니다. 위 결과 이전에는 아래와 같은 에러가 났었습니다. 위 에러를 수정하기 위해서 site-packages/mmdet/datasets/builder.py 126번 줄에 num_workers=0 라는 코드를 추가하니 문제가해결되었는데 바로 질문 1번에 있는 에러가 나왔습니다. 이렇게 하나씩 에러를 해결하는 게 쉽지 않습니다. 언제 local에서 학습을 해볼 수 있을지 걱정이 많습니다. 어떻게 하는게 좋을까요? 2. local에 setting하는 방법에 대한 설명을 추가로 요청드려도 될까요? 가능하다면 local setting하는 방법에 대한 설명을 요청드리고 싶습니다! 좋은 강의 감사합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
faster RCNN 질문
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요? faster RCNN에 궁금한 점이 있어 문의드립니다. 1) 3*3 conv를 통해 나온 피쳐맵 --> 1*1 conv --> 앵커박스 매핑 까지의 단계를 말씀하시는 건가요?? 2) 그렇게 해서 나온 18개 채널 (https://www.inflearn.com/questions/109566 참고했습니다)이 앵커박스와 매핑해서 결과값을 가지고 softmax를 한다고 했는데 1*1conv 통과한 피쳐맵에 각 픽셀마다 앵커박스를 9개 생성하고 아래 그림처럼 매핑하여 loss를 계산하는건가요..?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
시각화 강의문의
pycocotools를 이용하여 변환된 coco json의segmentation 시각화 설명 강의가 없고 바로 pretrained 모델 다운로드로 넘어 온것같은데 확인 한번 부탁드리겠습니다 ~
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
HSV 질문
안녕하세요~ 질문이 있습니다~! HSV를 왜 사용해야만 하는지 알고 싶습니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection에서 custom-dataset 학습하기
Faster RCNN에서 mmdetection을 이용하여 custom-dataset을 학습하는 부분에서 질문이 있습니다. coco-dataset형태로 json형태의 train.json 형태로 custom-dataset을 생성하여 pretrained된 모델에 학습하는 과정에서, Custom-dataset의 CLASSES = ('WBC', 'RBC', 'Platelets')로 classes를 정의해주는 것은 이해했습니다. 그러면 모델 자체가 coco-data로 pretrained된 모델인 것으로 알고 있는데, CLASSES를 3개로 정하면, coco dataset으로 훈련된 나머지 80개의 object는 더 이상 detect하지 않는건가요? 아니면, 80개에 제가 추가해준 3개를 추가로 detect할수 있는 건가요?
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
자율주행 자동차
이제 막 섹션2 강의를 다 들었습니다. 성능과 속도는 둘다 잡을 수 없다고 하셨는데.. 자율주행 자동차에서는 어떤걸 포기하나요??