묻고 답해요
158만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
dataset 선택에 대하여 질문드립니다.
안녕하십니까 교수님 최근 진행중인 프로젝트 수행을 위해서 강의를 듣고 있는 학생입니다. 현재 depth camera 를 이용하는 딥러닝 프로젝트를 진행하며 여러가지 오픈소스를 찾던 중 ssd-mobilenet 을 PASCAL VOC 로 학습한 것과 같은 알고리즘 ssd-mobilenet를 사용하여 COCO dataset으로 학습된 것을 봤습니다. 만약 오픈 소스를 사용하는 입장이면(학습하는 시간을 고려하지 않았을 때) 무조건 데이터 분류가 많고, 사진 당 오브젝트 수가 많은 COCO 데이터셋이 학습된 소스가 좋다고 생각하는데 혹시 다른 차이가 있을까 궁금해서 이렇게 질문드리게 되었습니다 학습 분류가 많을수록 FPS 에 의한 차이가 있나요? 학습 분류가 많을수록 특정 사물에 대한 detection 성능의 차이가 있을 수 있나요? - 예를 들어 person 데이터만 필요할 때 PASCAL VOC, COCO 또는 open image 를 사용할 때 성능 차이가 발생하나요? 다른 차이가 있을까요? 강의는 항상 잘 듣고 있습니다. 덕분에 다양한 프로젝트를 진행하여 취업까지 연결할 수 있었습니다. 아직 반정도 남았지만 분발하여 꼭 완강하도록 하겠습니다. 감사합니다!!
-
해결됨(UPDATED) Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
코드 오류 질문입니다!
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해 계속 저런 오류가 뜨는데 어떻게 해결할 수 있을까요?? 그리고 데이터 파일은 어디서 받아볼 수 있을까요??
-
해결됨[딥러닝 전문가 과정 DL1101] 딥러닝을 위한 파이썬 레벨1
수강기한 문의
[딥러닝 전문가 과정 DL1101] 딥러닝을 위한 파이썬 레벨1 이랑 기초대수학 이수중인데, 수강기한 조금만 더 늘려주실 수는 없을까요? ㅠㅠ 생각보다 3개월이 짧네요....
-
미해결[입문자를 위한] 캐글로 시작하는 머신러닝 • 딥러닝 분석
더미처리 후 model.fit() 에서 오류가 납니다.
# 범주형 데이터의 카테고리 df_out['weather_code'] = df_out['weather_code'].astype('category') df_out['season'] = df_out['season'].astype('category') df_out['year'] = df_out['year'].astype('category') df_out['month'] = df_out['month'].astype('category') df_out['hour'] = df_out['hour'].astype('category') df_out['dayofweek'] = df_out['dayofweek'].astype('category') # dayofweek 추가됨 # 더미처리 df_out = pd.get_dummies(df_out, columns=['weather_code','season','year','month','hour','dayofweek']) # dayofweek 추가됨 # 종속변수 'cnt', 독립변수('나머지 컬럼')을 분리하는 작업 df_y = df_out['cnt'] # 종속변수 Y df_x = df_out.drop(['timestamp', 'cnt'], axis = 1) # 독립변수 X # 훈련용, 테스트용 데이터 분리 from sklearn.model_selection import train_test_split x_train, x_test, y_train, y_test = train_test_split(df_x, df_y, random_state=66, test_size=0.3, shuffle=False) # 매번 동일한 래덤값을 고정하여 값 변경되지 않게, shuffle=False는 시계열 데이터 이므로 ## .... 이후 model.compile(loss='mae', optimizer='adam', metrics=['mae']) early_stopping = EarlyStopping(monitor='loss', patience=5, mode='min') history = model.fit(x=x_train, y=y_train, epochs=50, batch_size=1, validation_split=0.1, callbacks=[early_stopping]) train 데이터 오류로 인해 딥러닝이 되지 않습니다. 선생님 강좌와 차이점은 dayofweek을 추가한 내용입니다. 왜? dayofweek을 카테고리 & 더미 처리를 하면 딥러닝이 되지 않는지? 궁금합니다.
-
해결됨(UPDATED) Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
코드를 똑같이 따라햇을때
데이터프레임에서 강의에 나오는거랑 같지 않은 값들이 나온다면 사이에 먼가 코드를 잘못 짰다고 봐도 될까요?
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
선생님 안녕하세요 질문 좀 드려도 될까요?ㅠㅠ
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 선생님 안녕하세요. 선생님 수업 머신러닝 완벽 가이드와 CNN fundamental편을 듣고 연구에 cnn모델을 적용하여 해보고 있는 대학원생입니다. 혹시 질문 좀 드려도 될까요?ㅠ 질문1. fold별로 loss를 찍어봤는데 다음과 같이 로스함수가 나옵니다. 1번 폴드에서 왜 이렇게 나오는 걸까요? randomness고정도 하였습니다. 이 링크는 상세 코드입니다 https://github.com/jeguring/2022_neoantigen-prediction/blob/master/code/Untitled_1.py batch_size 256 data "HLA-A_10_random" dataset_mode "random" erls_patience 30 fold_num 5 learning_rate 0.01 model "efficientnet-HLA-A-10-short"efficientnetb0모델에서 res값만 제 데이터에 맞게 바꿨습니다.(width=1.0, depth=1.0, res=[276,10], dropout=0.2) n_epoch 800 scheduler_gamma(scheduler : stepLRoptimizer : Adam) 0.1 scheduler_step_size 10 질문2. 제 데이터의 경우 matrix가 276x10입니다. 그런데, efficientnet의 원래 coefficient는 다음과 같습니다. # Coefficients: width,depth,res,dropout 'efficientnet-b0': (1.0, 1.0, 224, 0.2), 'efficientnet-b1': (1.0, 1.1, 240, 0.2), 'efficientnet-b2': (1.1, 1.2, 260, 0.3), 'efficientnet-b3': (1.2, 1.4, 300, 0.3), 'efficientnet-b4': (1.4, 1.8, 380, 0.4), 'efficientnet-b5': (1.6, 2.2, 456, 0.4), 'efficientnet-b6': (1.8, 2.6, 528, 0.5), 'efficientnet-b7': (2.0, 3.1, 600, 0.5), 'efficientnet-b8': (2.2, 3.6, 672, 0.5), 'efficientnet-l2': (4.3, 5.3, 800, 0.5), 제 데이터의 경우 276x10인데 기본 모델의 res값과 일치하는 게 없는데 이런 경우는 어떻게 해야 하나요? 일단 사용 중인 coefficient값은 efficientnetb0모델에서 res값만 제 데이터에 맞게 바꿨습니다.(width=1.0, depth=1.0, res=[276,10], dropout=0.2)
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
문의 드리겠습니다.
안녕하세요 선생님 현재 회사에서 CLASS 가 500 개 되는 것을 다양한 속성 FEATURE 를 통해서 Softmax 를 통해 다중 분류(Multi-classification) 하는 프로그램을 개발하려고 하는데요 결론적으로 다양한 독립변수 INPUT (정형데이터) 값들이 DB 로 있고 , 정해진 500개의 TYPE 중에 어떤 TYPE 인지 분류 하는 모델로 개발하고싶습니다. . . RULE-BASED 로 개발 진행하다가.. 머신러닝/딥러닝도 가능할꺼같아서요.. 이럴 경우에, 딥러닝 , 머신러닝 어떤 학문을 깊게 공부하면 좋을까요? 물론 둘다 공부를 하긴 할꺼지만요 .. 시간이 촉박해서요.. 딥러닝 수강을 해놨지만.. 결국 이미지나 일반 텍스트가 아닌 정형 데이터를 보고 Class 를 분류하는 거면.. 머신러닝이 될꺼같은데 맞나요? 또 500개의 클래스를 10개정도의 속성으로 분류하는 모델을 만들면 .. DB 가 충분할 경우 머신러닝으로 실제로 분류가 가능할지.. 궁금합니다.. NUMPY,PANDAS 및 SKLEARN 에 기본 회귀,분류 모델은 전에 몇번 돌릴 정도 실력이지만 (유튜브에서 이런저런 영상을 보며 분류, 회귀 기본 모델은 DATASETS 을 LOAD 하여 코랩으로 돌려봤습니다..) 아직 머신러닝에 대해 깊이 배우진 않아서요 .. 바쁘시더라도 답변 부탁드립니다. 만약 딥러닝 보단 머신러닝을 깊게 배워야 한다면 선생님의 머신러닝 강의부터 다시 들어볼 계획이라서요 ㅎ
-
해결됨[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
검증 및 테스트 진행시 Drop-out 질문
드롭아웃은 학습시에만 사용해야한다고 하였는데, 그렇다면 검증 및 Test를 진행할때 model.eval()을 해주면 드롭아웃이 자동으로 비활성화 되는 것인가요?? 아니면 따로 설정을 해주어야 하는건가요??
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Mask RCNN 모델훈련시
안녕하세요 종은 강의 잘 청강하고 있습니다. Mmdetection mask RCNN 모델을 훈련시키려고 하는데, 강좌중 정확도와 재현성에 대한 강의를 보고 궁금증이 생겼습니다. 정확도와 재현성을 조정이라는 표현이 맞는지 모르겟는데, 정확도와 재현성중 사용자가 둘중 어떤 것을 높여서 교육시키는 것이 가능한지요? 가능하다면 훈련시 어떤 변수를 조정해서 훈련을 시켜야하는지요?? Mmdetection. Config 변수가 너무 많아서 좀 복잡한것 같은데... 이러한 부분은 어떤 문서를 봐야 이해가 될수 있을까요?? 홈페이지도 너무 광범위해서 초보자는 좀 헤매게 되는것 같습니다. 참. 그리고 혹시 tracking 에 대한 강좌 계획은 없으신지도 궁금합니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
custom 데이터셋의 정밀도와 재현율 관련 질문드립니다.
안녕하세요. '딥러닝-컴퓨터비전-완벽가이드'를 수강하고 있는 고준규입니다. 다름이 아니라 정밀도와 재현율에 대해 질문이 있어서 글을 남깁니다. COCO 데이터셋이나 Pascal VOC 데이터셋과 같이 성능평가로 검증된 데이터셋이 아닌 직접 object detection을 사용하여 문제를 해결하기위해 custom 데이터를 활용하여 데이터 라벨링을 하였습니다. 이 때, 모델의 평가를 진행하였는데, precision score (0.6)가 recall score (0.9)에 비해 낮은 결과를 얻는 것을 확인했습니다. 이를 자체적으로 분석해본 결과, 사람이 직접 라벨링을 하다보니 사람이 놓친 부분을 모델이 탐지하여 precision score가 낮아지는 것을 확인하였고 결론지었습니다. 이럴 경우, custom 데이터셋을 새롭게 수정해서 학습을 시켜야하는 것이 맞는 방법인 것으로 보이나 현실적으로 이를 수정하기에는 비용이 생각보다 많이 들 것 같아서 다른 방법을 생각해보고 있습니다. 혹시 이와 관련되어 조언을 얻을 수 있을까요?
-
해결됨(UPDATED) Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
강의자료는 어디서 다운로드 받을 수 있나요?
강의자료는 어디서 다운받을 수 있나요? OT의 PDF 말고 수업이 진행되는 ppt또는 pdf 자료를 어디서 받나요?
-
미해결
pycharm tensorflow를 사용중인데 속도가 너무 느린데 이럴때 정확도를 좀 낮추더라도 더 빨리 할 수 있는 방법이 있을까요?
epoch는 건드릴 수 없어서 learning_rate를 0.001에서 0.1로 높였는데도 너무 속도가 느려서요..
-
해결됨(UPDATED) Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
ML 방식 모델 활용방안에 대해서
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요 강의 수강을 통해 추천시스템에 대해 이해에 많은 도움이 되었습니다 현업에 적용하기위해 강의를 시청하여, 추천시스템을 만들고자하는데 파이썬 및 인공지능 기초적인 지식이 부족하여 문의드립니다 인공지능을 활용한 학습모델생성 강의를 수강 후, 학습시킨 모델을 직접 활용해서 추천결과를 얻고싶은데 코드를 어떻게 구현하면 추천결과를 얻을 수 있을까요?
-
해결됨(UPDATED) Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
화면이 안나오는데 정상인가요?
안녕하세요 아래 캡처처럼 화면이 안나오는데 제가 원래 이런건지 궁금합니다.
-
해결됨(UPDATED) Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
아이템 기반 CF 코드 질문
안녕하세요. 강의 7분 43초에 나오는 부분이 이해가 안갑니다.. rating_matrix_t[user_id] -> 이 부분은 기존 rating_matrix에서 transpose된 matrix니까 movie_id가 들어가야 하는게 아닌가요? 제가 이해를 잘 못하겠어서 조금만 더 설명해주시면 감사하겠습니다! 좋은 강의 감사합니다!
-
해결됨(UPDATED) Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
실시간 처리 질문
안녕하세요. 먼저 강의 잘 보고 있습니다! 강의를 보면서 의문이 드는게 있습니다. 현업에서는 데이터들이 많고 반응 속도가 중요할 것이라고 생각됩니다! 1. 많은 데이터들을 모두 메모리에 올리고 하나요? 아니면 db에 어떤 형식으로 저장을 하나요?? db에 저장한다해도 결국 cosine_similarity를 하려면 모든 정보를 다 메모리로 불러와야 되는건가요...? 이러면 다시 처음 질문으로 돌아가서 너무 궁금합니다ㅠㅠ 2. 지금 알려주시는 방법들이 실무에서 사용이 되나요? 예를 들어 쇼핑몰 제일 처음 들어갔을 때 맞춤 상품들을 보여준다고 하면, 사용자들이 로딩을 보는 시간이 몇초 될 것 같은데 제 예상과는 달리 지금 알려주시는 방법들이 빠른가요?? 아니면 다른 방법들을 사용하시는 걸까요?? 3. 지금 설명해주시는 방법들이 다 시간과는 연관이 없어보입니다! (강의 소개에서 연속값을 사용하는 개인화 추천 기술을 다룬다고 하셔서 제가 잘못 이해해서 시간도 고려한 데이터들을 사용하는 줄 알았습니다 ㅠㅠ) 제가 연속된 값들 즉 영화 A -> B -> C -> D를 본사람이 존재(p사람) 영화 A -> C -> B -> E를 본사람이 존재(q사람) 일떄 어떤 사람이 A -> B - > G 를 봤다면 다음에 볼 영화를 추천해준다 할 떄 p랑 시간 순으로 비슷하니 p가 본 C 또는 D를 추천해준다와 같이 시간도 예측 범위 안에 포함하고 싶다면 어떻게 해야하나요?? 지금 보여주시는 데이터들은 column들이 영화 이름으로 되어있어서 시간 정보가 삭제되는 것 같은데 해당 내용도 궁금합니다!! 좋은 강의 감사합니다!
-
해결됨(UPDATED) Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
CF 관련 질문
안녕하세요. 제가 보다가 궁금증이 생겼습니다! sim_scores를 할 때 자기 자신에 대한 값은 제외하지 않고 하나요?? 좋은 강의 감사합니다!
-
해결됨(UPDATED) Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
best-seller 정확도 측정
'추천시스템의 정확도 측정' best-seller방식으로 구한 예측값의 RMSE를 계산하는 부분에 질문이 있습니다. y_pred = movie_mean[ratings.loc[user]['movie_id']] 이렇게 하면, User가 본 영화의 전체 평점이 예측값으로 나오는데요. '특정 영화의 User의 평점 - 전체 평점평균' 에 대한 RMSE를 구하는 것이여서 Best-Seller 방식과는 관계없는 것 아닌가요? 알고리즘이 어떤 영화에대한 평균이 어떤 의미인지 잘 이해가 안되요. Best-seller방식이라면 상위 한 개를 뽑는거여서 추천방식이 'Star Kid' 영화만 y_pred로 들어가야하지 않나요?
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
원핫인코딩 질문
Dense Layer로 Fashion MNIST 예측 모델 구현하기 - 모델 설계 및 학습 수행 강의를 보다가 궁금중이 생겨 질문합니다. 1차원이던 label을 원핫인코딩을 해서 2차원으로 만들어졌는데 이유를 모르겠습니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Fast R-CNN 구현 질문
Fast R-CNN 구현중에 가장 난감한 부분이 RoI pooling layer 였는데, 논문에서 보면 mini-batch를 이미지 2개에 roi box를 128개 사용한다고 써있더라구요. 그러면 학습할 때 입력 데이터로 이미지 2개 + roi box(region proposal된 roi)가 들어간다고 이해했습니다. 그런데 여기서 이해가 안되는 점이 여러개가 있습니다 . 1. 이론상 fast rcnn은 입력 크기가 정해지지 않아도 되는데, tensorflow 에서 pre-trained vgg16 모델을 사용하려면 입력 크기가 224x224x3으로 고정되어 있어서 결국 mini-batch를 구성할 때 입력 사이즈를 모두 224x224x3으로 맞춰줘야 하는건가요? 2. 이미지 + roi box가 입력으로 들어가면 multi input으로 인풋값을 동시에 두 가지를 분리해서 넣어줘야 하나요? 3. 마지막에 box regressor와 classifier에서 box regressor는 x,y, w,h 좌표를 output으로 / classifier는 K(클래스 개수) + 1(배경) 총 K+1개 output이 도출되어야 하는데 입력 데이터 구성이 이미지 데이터 + roi box에 주어진 target 데이터는 ground truth box여서 mini-batch 구성할 때 Pascal IoU 기준에 따라 ground truth box와 이미지당 roi box 64개를 roi 비교하여 0.5이상인 경우는 1 0.2이상 0.5 미만을 0으로 구성한 후에 학습을 해야 하는건가요? 여기서 예를 들어 클래스가 4개라고 가정했을 때 target 데이터는 [N, 64, 4] (N은 데이터 개수) 크기로 구성하는게 맞을까요? (64개는 roi 개수 4개는 클래스입니다) 추가 설명 : [1, 64, 4]라고 했을 때 1개 이미지에 해당하는 64개 roi 각각 4개 클래스 중 overlap되는 roi가 0.5이상 되는 경우 1을 추가하고 클래스가 강아지, 고양이, 사람, 배경이라고 했을 때 강아지가 2마리 사람이 1명 이면 [2, 0, 1, 0] 이렇게 target 데이터가 구성되는게 맞나요..? ㅠㅠ 4. Roi pooling layer에 들어가는 input값이, 14x14x256(input 크기가 224x224x3이라고 가정했을 때) feature map + roi 인걸로 이해 했는데, tensorflow 구현시 roi는 input으로 어떻게 넘겨 줘야 할지 모르겠습니다..ㅠㅠ 5. Pre-trained model로 imagenet 데이터로 학습된 vgg16모델을 쓴다고 했을 때, 만약에 한식 이미지를 detection 해야 하는 문제가 있으면 fine tuning 한 후에 적용해야 정확도가 올라가겠죠? pre trained 된 이미지와 새로 detection할 이미지가 유사한지 유사하지 않은지는 추론해보고 결과가 좋지 못하면 fine tuning을 해야겠다 판단하는 건가요 아니면 사전에 학습된 이미지와 새로 학습하거나 추론할 이미지와 유사성을 분석 해보고 fine tuning을 하나요..? 당연히 추론해보고 결과가 좋지 못하면 할것 같지만, fine tuning을 해야 겠다 판단하는 기준이 혹시 따로 있을지 궁금합니다 논문보고 이해가 안가는 부분은 블로그도 보고 이것 저것 참조하다 보니 엄청 헷갈리는 상태가 돼서 질문이 정갈하지 않는 점 양해부탁드립니다 ㅠㅠ