묻고 답해요
158만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
주피터 노트북에서 mmdetection
안녕하세요 강사님 좋은 강의 너무 감사드립니다. colab환경에서 하신 code들 바탕으로 주피터노트북 환경에서 연습하고 있었습니다. 그런 중 잘 안되는 부분이 생겨 질문드립니다. 먼저 mmdetecion 설치를 한 제 코드입니다.오류 메세지는 다음과 같습니다pycocotools 다운 받고 런타임 재시작부터 다 해봤습니다ㅠ 파일도 다운 받아있는데 왜 import가 안될까요? 감사합니다
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
MMDetection 추론 시 Pretrained Model 적용에 관한 문의
안녕하세요.이렇게 좋은 강의 들을 수 있는 기회 주셔서 감사드립니다.강의를 들을때마다, 강의의 내용과 질에 감탄하고 있습니다.강의를 듣다, 궁금한 점이 있어 질문드립니다.섹션 4의 MMDetection의 이해와 Faset RCNN 적용 실습 01의‘tiny kitti 데이터로 MMDetection Train 실습 - Train 실행 후 이미지 Inference’ 에서 궁금한 점이있습니다.저는 GPU를 가지고 있어 우분투 환경에서 아나콘다의 spyder를 에디터로 사용하고 있습니다. 첫번째 질문입니다.mm_faster_rcnn_train_kitti.py 파일의 225라인train_detector(model, datasets, cfg, distributed=False, validate=True) 에서 12epoch 동안 학습을 하고,다음과 같이 00000068.jpeg 파일에 대해 추론을 했습니다.--추론부분 시작-------------img = cv2.imread('./kitti_tiny/training/image_2/000068.jpeg')model.cfg = cfgresult = inference_detector(model, img)show_result_pyplot(model, img, result)--추론부분 종료------------- 그런데, 추론을 할때 여전히 pretrained model로서 faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth 을 이용하여 학습을 하는 것 같습니다.(혹시 tiny kitti 데이터를 이용하여 학습한 결과의 파라미터가 faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth에도 적용되는지도 궁금합니다.faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth의 속성을 찍어보면 최종 modified date는 2021년 11월 3일로 되어있어서 적용이 안되는것으로 추정됩니다.)print(model.cfg)로 찍어보면 다음과 같이 되어 있습니다.load_from = '../mmdetection/checkpoints/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth'제 소견에는 학습을 했으면0000068.jpeg 파일에 대해 추론을 할때 사전학습을 통해 새롭게 만들어진 epoch_12.pth이나 latest.pth을 pretrained model로서 사용하는것이 어떤가 하는것입니다.만약 그렇게 하자면, 다음과 같이 바꾸면 되는지도 궁금합니다.---추론부분 수정 시작-------------------------------img = cv2.imread('../kitti_tiny/training/image_2/777.jpeg')cfg.load_from = './tutorial_exps/latest.pth' ; pretrained 모델 바꾸는 부분model.cfg = cfgresult = inference_detector(model, img)show_result_pyplot(model, img, result)---추론부분 수정 종료---------------- 두번째, 질문입니다.위에서 추론을 할때 model.cfg=cfg를 하고print(model.cfg)를 출력을 해보면,다음과 같이 roi_head 부분에 train_cfg, test_cfg가 하나씩 생기고바로 그 밑에 보면 train_cfg, test_cfg가 하나씩 더 있는데 내용이 pos_iou_thr, neg_iou_thr, pos_iou 등 설정값이 서로 다르게 되어 있습니다.train_cfg, test_cfg가 서로 다르게 2개씩 설정되어 있다면 추론이나 학습이 어떤 cfg가 적용되는지 궁금합니다. 세번째, 질문입니다.만약 resnet을 transfer learning이나 fine tuning을 하려면, /mmdetection/mmdet/models/backbones/resnet.py를 수정하면 되는지 문의드립니다. 강의를 듣다보니, 지식이 짧아 제대로 질문드렸는지 모르겠습니다.강의를 이해하지 못해 드리는 우문이라면, 수강생의 열정으로 생각해주시고 너그러이 이해하여 주시기 바랍니다.좋은 강의, 열강에 감사드리며 앞으로 이런 강의가 많이 만들어지기를 희망합니다.감사합니다.
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
early stopping관련
안녕하세요, tensorflow로 다른 강의들을 듣다가 torch를 공부하기 시작한지 얼마안돼서 여쭤보는 질문입니다.tensorflow에서는 callback함수로 간단히 earlystopping이나 checkpoint등을 가져와 쓸 수 있는 모듈이 있는걸로 알고있습니다. 혹시 torch에서는 그런 모듈이 따로 없는건가요?
-
미해결Google 공인! 텐서플로(TensorFlow) 개발자 자격증 취득
쿼리 중 궁금한 부분이 있습니다
CNN 부분 시작할 때( [실습] 이미지 분류 문제 전처리 )for x, y in original_generator: pic = x[:5] breakplt.imshow(pic[0]) 이 쿼리는 실행할 때마다 사진이 바뀌더라구요.이 코드 각 줄이 무슨 의미인지 잘 이해가 안 되어서 여쭤봅니다.
-
미해결Do It! 딥러닝 입문
YOLO v5 모델은 비지도학습이 맞나요?
YOLO v5 모델은 비지도학습이 맞나요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolov3 , yolov5를 DenseNet 으로 변경할 수 있나요? 한다면 어떻게 해야 하나요?
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
-
해결됨최신 딥러닝 기술과 객체인식
transductive learning & inductive learning
transductive learning & inductive learning의 차이점이 궁금합니다 !
-
미해결예제로 배우는 딥러닝 자연어 처리 입문 NLP with TensorFlow - RNN부터 BERT까지
소스코드 실행 시 에러
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.from nltk.util import pad_sequence from nltk.util import bigrams from nltk.util import ngrams from nltk.util import everygrams from nltk.lm.preprocessing import pad_both_ends from nltk.lm.preprocessing import flatten위 구문 실행 시, 아래와 같은 에러가 뜹니다.------------------------------------------------------------------------ --------------------------------------------------------------------------- ImportError Traceback (most recent call last) <ipython-input-5-db6c290979e8> in <cell line: 5>() 3 from nltk.util import ngrams 4 from nltk.util import everygrams ----> 5 from nltk.lm.preprocessing import pad_both_ends 6 from nltk.lm.preprocessing import flatten /usr/local/lib/python3.10/dist-packages/nltk/lm/counter.py in <module> 13 from __future__ import unicode_literals 14 ---> 15 from collections import Sequence, defaultdict 16 17 from six import string_types ImportError: cannot import name 'Sequence' from 'collections' (/usr/lib/python3.10/collections/__init__.py) --------------------------------------------------------------------------- NOTE: If your import is failing due to a missing package, you can manually install dependencies using either !pip or !apt. To view examples of installing some common dependencies, click the "Open Examples" button below. ---------------------------------------------------------------------------
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
Code 에러 도와 주십시오.
안녕하세요 선생님첫 예제인 Gradient_Descent_Pra...을 시험 해보려고 Kaggle에 입력 하였는데 위 그럼 같은 에러가 나옵니다.제가 보기에는 버전이 안 맞은것 같은데요, 확인 부탁 드립니다.
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
prepare_data에서 질문있습니다.
3분 14초쯤에 load_data_hm36.py 파일에서prepare_data에 56줄에서 pos_3d[:, 1:] -= pos_3d[:, :1]을 빼주는데각 subject중에서, 어느 한 action에 해당하는 3차원 point배열에서 첫번째 값들만 빼오고 그 값들을 전체 pos_3d에 빼주는 과정을 해주는데, 이 과정을 해주는 이유가 normalization 때문에 해주는 것인가요? 맞다면, 보통 normalization을 하는 과정이 데이터들의 평균값으로 빼주는 것으로 알고 있는데, 첫번째 값을 빼주신이유가 궁금합니다!!
-
미해결OpenCV 를 활용한 명함인식 기능 구현 강좌
jupiter notebook에서 python gui 화면이 안 떠요 (자답 포함)
예제 실습에서 이미지 표시를 해 보면 다음과 같이 python gui 화면이 안 뜨고 응답없음이라고 import cv2def handle_image():imgfile = 'images/sample.png'img = cv2.imread(imgfile, cv2.IMREAD_COLOR) cv2.imshow('image', img) cv2.waitKey(0)cv2.destroyAllWindows()cv2.waitKey(1) if name == '__main__':handle_image() 실습파일 - 실습예제코드(python3.5&opencv3.2)monterey 12.6.6 / conda 23.3.1 / opencv 4.6.0 jupiter notebook 환경이 아닌 일반 python3 로 해당 코드를 실행해도 위와 똑같습니다. 자답)강의자료는 conda install -c menpo opencv 로 해서 opencv 4.6.0 이 설치되는데pip3 install opencv-python 으로 설치하면 opencv 4.7.0 이 설치되고jupiter notebook과 일반 python 환경 모두에서 정상 동작함 pip3 로 설치해도 되는것 맞겠죠?
-
미해결혼자 공부하는 머신러닝+딥러닝
03-2 160쪽 릿지 회귀
지금 train_scaled, train_target을 그대로 쓰는데 train_scaled=ss.transform(train_poly)더라고요, 근데 앞에 코드 보면 poly=PolynomialFeatures(degree=5, include_bias=False) 이렇게 쓰이던데 릿지는 계수를 제곱한 항을 기준으로 한다했는데 지금 5제곱 항을 쓰는걸로 이해가 되거든요.... 개념이 어디서 헷갈린 건가요?
-
미해결따라하면서 배우는 3D Human Pose Estimation과 실전 프로젝트
Canonical space란?
canonical space가 정확히 어떤 의미를 갖는건지 알려주실 수 있으실까요?
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
수강 중 질문 있습니다.
이전 강의 영상에 작성한 질문에 이어 질문 드립니다.일단 이중 객체 검출을 수행 해보려 하는데 힘든 부분이 있습니다. 이전 질문에 대해 말씀드리면 먼저 모델로 큰 이미지를 찾고 같은 모델을 사용하여 작은 이미지를 찾는 것 입니다.1. 이 강의 영상 포함하여 dataset이나 yaml파일을 선생님의 깃허브에서 불러오시는데 제가 자체 제작한 dataset은 제 컴퓨터의 로컬에 있습니다.(ex 바탕화면의 image폴더) 이를 불러오려고 구글링 하여 아래 코드를 사용했습니다.folder_path = r"C:\Users\user\Desktop\image"# 폴더 내의 모든 파일을 가져옴file_list = os.listdir(folder_path)위 코드를 사용하면 없는 폴더라고 에러가 뜨더군요.. 혹시 로컬에서 코랩으로 개인 데이터를 가져오는 방법이 있는지 궁금합니다.2. yaml파일이 잘 이해가 되지 않습니다. 일단 이해한 바로는 설정 파일이나 데이터 구조를 표현하기 위해 사용하는 파일 같은데 이전에 yolo inference 강의 영상에선 못 본 것 같아(있는데 못 봤을 수도 있습니다..) 왜 Ultralytics Yolo에는 사용하는지 궁금합니다.위에 말씀드린 것처럼 개인 dataset을 cvat로 200장 정도 만들어 뒀습니다.. 이미지는 블랙박스 이미지로 도로위 번호판을 annotation하여 로컬에 저장했습니다. (class는 '번호판' 하나)이를 위한 yaml파일을 로컬에서 생성하고 업로드 하는 방법이 궁금합니다.원래 yolo v3로 이중 객체 검출을 만들려고 했습니다. 구상한 모델은 일단 yolo inference 강의의 코드로 pre-training된 yolo에 저의 이미지를 업로드 하여 결과 값의 자동차 부분만 crop하여 자동차 부분의 이미지를 폴더에 저장하고 싶습니다.3. 저의 이미지로 모델을 돌리면 사람 자동차 등 80개의 class에 대해 bbox가 나오는데 이 중 특정 class에 대해서만 보고 싶다면 어떻게 해야 할까요?4. yolo의 수행 결과로 bbox가 나오는데 이 bbox의 좌표값으로 원본 이미지를 crop하는 것이 궁금합니다.5. 제가 구상한 모델의 특성 상 test하기가 애매합니다.자동차 부분을 crop하고 번호판을 찾는 것이라 crop한 이미지에 대한 label을 붙이기도 힘들 것 같습니다.따라서 저의 Custom dataset으로 yolo를 학습시켜 inference한 경우와(1), pre-training yolo v3에서 자동차 부분을 찾아(3~4번 질문) 추출된 이미지를 Custom dataset으로 학습 된 yolo(2)의 성능 비교를 하고 싶다면 어떤 방법이 있을까요?마지막으로 yolo v3모델로 하려고 했는데 Custom dataset의 사용과 학습 시키는 것은 Ultralytics Yolo에서 설명 해주셔서 yolo v3모델로의 Custom dataset학습은 힘든가 궁금하기도 합니다.두서 없이 궁금한 부분을 적어 봤는데 긴 질문에 대해 죄송합니다. object detection에 관심이 생겨서 하나하나 공부하고 있는데 하면 할수록 어렵네요 ㅠㅠ...
-
미해결Google 공인! 텐서플로(TensorFlow) 개발자 자격증 취득
슬랙 가입메일이 안 왔습니다
슬랙 가입메일이 안 왔습니다초대 이메일 부탁드립니다lastjisu87@gmail.com감사합니다
-
해결됨[입문자를 위한] 캐글로 시작하는 머신러닝 • 딥러닝 분석
[해결] '모형별 비교'강의 sqrt함수 미정의 오류 수정
from sklearn.metrics import mean_squared_errordef RMSE(y_test, y_predict):return np,sqrt(mean_squared_error(y_test, y_predict))print("RNN RMSE:", RMSE(test, rnn))코드의 경우, NameError: name 'sqrt' is not defined가 뜹니다. 이것은 에러 메시지를 보면 sqrt 함수가 정의되지 않았다는 것을 나타내고 있습니다. sqrt 함수는 numpy 모듈이 아닌 math 모듈에 속해 있습니다. 따라서 코드를 수정하여 sqrt 함수를 math.sqrt로 호출해야 합니다. 또한 np와 sqrt 사이에 있는 ,도 제거해야 합니다.수정된 코드는 다음과 같습니다.import mathdef RMSE(y_test, y_predict): return math.sqrt(mean_squared_error(y_test, y_predict))print("RNN RMSE:", RMSE(test, rnn)) 저 같은 경우 아래의 값이 나오네요.RNN RMSE: 162.4618184423233
-
해결됨[입문자를 위한] 캐글로 시작하는 머신러닝 • 딥러닝 분석
[해결] GRU모형 keras 불러오기 오류 수정
전 강의에서 고쳤던 부분과 마찬가지로 최신 버전의 Keras에서는 keras.layers.recurrent 모듈이 폐기되었으며, 대신 keras.layers에서 직접 GRU 레이어를 가져와야 합니다.from keras.layers.recurrent import GRU는from keras.models import Sequentialfrom keras.layers import GRU, Dense로 수정해주시면 쾌적하게 코드가 돌아가시는 걸 경험하실수 있습니다.
-
해결됨[입문자를 위한] 캐글로 시작하는 머신러닝 • 딥러닝 분석
[해결] LSTM모형 케라스 recurrent 모듈 도입 에러 수정
from keras.layers.recurrent import LSTM로 작성할 경우 ModuleNotFoundError: No module named 'keras.layers.recurrent' 라는 오류가 뜹니다. 이것은 최근 버전의 Keras (Keras 2.4.0 이상)에서는 recurrent 모듈이 폐기되었기 때문입니다.대신에, keras.layers에서 직접 LSTM 레이어를 가져올 수 있습니다. 다음은 수정된 코드입니다.from keras.models import Sequentialfrom keras.layers import LSTM, Denselstm = Sequential()lstm.add(LSTM(units=6, activation='relu', input_shape=(1,1)))lstm.add(Dense(units=1, activation='linear'))
-
해결됨[입문자를 위한] 캐글로 시작하는 머신러닝 • 딥러닝 분석
[해결] 시계열 차수 추정하기 코드 에러 수정
from statsmodels.graphics.tsaplots import plot_pacf plot_pacf(pacf, lags=20, method='ols', title='pa').showValueError: Can only compute partial correlations for lags up to 50% of the sample size. The requested nlags 20 must be < 10.이런 에러가 떠서 좀 헤맸네요. 결론적으로 선생님 코드from statsmodels.tsa.stattools import pacfpacf = pacf(df['cnt'], nlags=20, method='ols')print(pacf)from statsmodels.graphics.tsaplots import plot_pacfplot_pacf(pacf, lags=20, method='ols', title='pa').show는from statsmodels.tsa.stattools import pacfpacf_values = pacf(df['cnt'], nlags=20, method='ols')print(pacf_values)from statsmodels.graphics.tsaplots import plot_pacfplot_pacf(df['cnt'], lags=20, method='ols', title='pa').show 로 바꿔주시면 에러 없이 차트 표출이 됩니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Opencv DNN을 이용한 Inference 수행 절차 시 Faster-RCNN 적용 시점
안녕하세요, OpenCV의 DNN을 이용한 Object Detection 구현 개요 및 관련 실습에서 질문이 있습니다. cv2.dnn.readNetFromTensorflow 라이브러리에서 Faster-RCNN ResNet-50 가중치 모델 파일과 환경 설정 파일을 통해 inference 네트웍 모델을 생성한다고 설명해주셨습니다. 또한, cvNet.forward()를 통해 생성한 inference 네트웍 모델에서 output을 추출, 그리고 추출한 output에서 detect 정보를 시각화 합니다. 제 질문은, Pretrained된 가중치 모델 파일은 구체적으로 무엇이며, 또한 Faster-RCNN 수업에서 설명해주신 RPN은 언제 수행하는지 궁금합니다. 제가 이해하지 못하는 부분은 다음과 같습니다.제가 이해하기로는, cvNet.forward를 통해 inference 네트웍에서 output을 추출하여, 추출한 output으로 부터 object detect를 할 수 있는데, 이때 object detect를 할 때 사용되는 알고리즘이 Faster-RCNN이라고 이해하였습니다. 그러나, Pretrained된 가중치 모델 파일은 Faster-RCNN, MobileNet, Mask-RCNN 등의 모델을 지원합니다. 가중치 모델 파일은 pretrained 된 것으로서, 이미 coco 데이터 세트 (80개의 object) 를 모두 학습해 놓은 모델이며, 즉 coco 데이터 세트를 학습할 때 Faster-RCNN 알고리즘으로 수행된 모델이라고 이해하면 될까요? 즉, Pretrained된 가중치 모델 파일이 Faster-RCNN을 지원한다는 것이 어떤 의미를 가지는지 궁금합니다.해당 pretrained된 가중치 모델 파일과 환경 설정을 통해 생성한 inference 네트웍을 통해 object detection 수행 시에 RPN을 기반으로 객체 탐지를 하는 것인지 궁금합니다. 감사합니다.