묻고 답해요
158만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
val_loss값이 계속 커지는 현상이 왜 나오나요?
안녕하세요.코드를 타이핑하며 실행해 보는데, 강의 화면과는 달리 vla_loss값이 점점 커지는 결과가 나왔습니다.처음에는 제가 타이핑을 잘못해서 그런가 했는데, 선생님이 제공해주신 코드를 그대로 실행해도 비슷한 결과가 나왔습니다.여러 번 런타임을 재실행하고 해봐도 마찬가지입니다.왜 이런 현상이 나타나나요?(kaggle에서 실행했습니다)
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
tf hub row_detection_boxes
현재 TF HUB의 SSD 모델 Inference를 수행중입니다.result의 키값 중 row_detection_boxes의 경우shape가 (1,1917,4)가 나옵니다.이 경우 SSD의 bounding box가 8700개정도로 나오는 걸로 알고있는데 그중에 1917개의 bounding box를 뽑아준건가요? 일단 시각화를 해보니 이렇게 나오긴 했습니다.
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
embedding이 뭔가요?
sentiment analysis 이론 강의까지 들었는데, embedding 의 기능만 설명하시고 embedding이 뭔지에 대한 설명이 없어서 이해하기 힘들어요. embedding이 뭔지 개념 설명좀 부탁드립니다
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
LSTM 모델에서 return_state를 False로 놨을때 출력되는 o,h,c
LSTM 모델에서 return_state를 False로 놨을때 출력되는 o,h,c에 대한 질문이 있습니다..o는 output, h는 hidden layer 맞나요? 그리고 c는 뭔가요?
-
해결됨최신 딥러닝 기술 Vision Transformer 개념부터 Pytorch 구현까지
Multi-Head Attention 모델 구조에서 궁금한게 있습니다.
안녕하세요. 코드 공부하면서 궁금한 점이 생겨 질문남깁니다.앞선 이론 강의에서 이해한 바로는 MSA과정에서 Attention*value를 통해 [배치수, 헤드수, 패치수+1, Dh] 차원의 결과들이 나오고 Linear Projection을 통해 [배치수, 패치수+1, D] 차원의 결과가 얻어지는 것으로 이해했습니다.attention = torch.softmax(q @ k / self.scale, dim=-1) x = self.dropout(attention) @ v x = x.permute(0,2,1,3).reshape(batch_size, -1, self.latent_vec_dim)위와 같이 제공해주신 코드에는 이를 위한 Linear 과정이 따로 없는 것 같고 Attention*value 결과에 permute와 reshape를 해주었는데, 해당 과정이 이론에서 설명해주신 Linear 과정과 동일한 효과를 지니는 것일까요??
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
저장된 모델에는 무엇이 들어 있나요? 그리고 weight만 저장했을 경우 어떻게 사용하나요?
매개변수를 하나하나 알기 쉽게 설명해주셔서 감사합니다. [질문 1] fit 중에 콜백함수를 이용해 모델을 저장할 수 있다고 하셨는데요, 모델 안에 무엇이 저장되는지 궁금합니다. loss, accuracy, weights 는 저장되어 있을 것 같은데요, 그 외에 무엇이 저장되어 있나요? 혹시 학습 데이터도 저장되나요? 저장 목록을 알려면 어떤 명령어를 써야 하나요? [질문 2] fit 중에 오류가 발생해 다운되었을 때, 저장된 모델을 불러 fit을 이어서 할 수 있나요? [질문 3] save_weights_only 했을 경우 어떻게 사용해야 하나요? 저장된 모델을 불러 바로 predict 하면 되나요? 모델을 저장하고 불러 와 사용한 적이 없다보니 질문 범위가 너무 넓은 것 같아 죄송합니다. 혹시 참고할 만한 사이트를 알려주시면 공부해보겠습니다.
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
감성 분석 실습 모델 만들때 질문 드립니다!
다시 한 번 좋은 강의 너무 감사합니다 :)회사에서 NLP로 업무가 바뀌며 열공하느라 질문이 많네요..^^; 030_IMDB_movie_reviews.ipynb 의 아래 코드에서model = Sequential([ Embedding(vocab_size+1, 64), Bidirectional(tf.keras.layers.LSTM(64)), Dense(64, activation='relu'), Dense(1, activation='sigmoid') ])embedding의 차원 64와 LSTM hidden size 64와 Dense의 64는 항상 같아야 되는게 맞나요? tf.keras.layers.LSTM(64))위 코드를 해석해보면, LSTM의 input에 대한 weight 개수가 64개 인데 Dense(64, activation='relu'),그 weight들을 fully connected 뉴런들로 덧붙여주겠다는 뜻으로 해석하면 될까요?
-
미해결YOLO 구현으로 배우는 딥러닝 논문 구현 with TensorFlow 2.0
MNS 질문
섹션 3 YOLO 모델 리뷰 10:54초에 말씀하시는 부분은 [클래스별 softmax 결과] * [grid cell에 object가 존재할 확률] 을 곱해서 [하나의 바운딩 박스 좌표에 매핑되는 결과]를 설명하시는 부분이고,섹션 3 Non-Maximum Suppression 4분 10초부터 말씀하시는 부분에서는 위에서 언급한 96개의 (1,20)에 매핑되는 바운딩 방스를 가지고MNS를 진행한다고 말씀하셨다는 의도로 이해해도 될까요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
논문 구현 조언 부탁드립니다.
안녕하십니까 강의를 듣다 조언을 좀 부탁드릴 수 있을까 싶어 연락드립니다.현재 2학년 재학중으로 컴퓨터비전 분야의 대학원을 생각하고 있습니다.대학원을 준비하면서 여러 공부를 해본 결과 논문을 구현해보기로 결심했습니다.그래서 강의 초반에 설명하시는 faster rcnn을 구현하고자 했지만 실패하고 말았습니다.혹시 구현하기에 난이도가 좀 더 낮은 모델을 추천해주실 수 있는지 글 남깁니다.이상입니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
SSD 끝단에 대해
혹시 Faster RCNN에서 RPN 네트워크 레이어가 어떻게 되어있는지 보여주셨던 것 처럼 SSD에서 각 크기별 feature map에서 head로 가는 레이어가 어떻게 합쳐지는지 어떻게 생겼는지 알 수 있을까요?
-
해결됨최신 딥러닝 기술 Vision Transformer 개념부터 Pytorch 구현까지
전처리 관련해서 질문이 있습니다
안녕하세요 강사님. 항상 좋은 강의 감사드립니다.데이터 전처리에 대해서 2가지 궁금점이 있어서 질문드립니다.RandomCrop 이나 Flip 같은 전처리는 데이터 증강을 위해서도 사용된다고 알고있는데 해당 전처리를 적용해주면 원본 데이터가 변경되는 것인지, 혹은 원본 데이터는 유지되고 전처리가 적용된 이미지가 추가되는 것인지 궁금합니다. 전자에 해당된다면 데이터 갯수의 증강을 목적으로 사용하기 위해선 원본 이미지데이터셋을 따로 저장해두고 전처리된 데이터셋과 합쳐줘야 될까요??RandomCrop에서 패딩을 넣어주는 이유가 정확하게 무엇인지 알고싶습니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Oxford Dataset RCNN Inerence 질문
저는 mmdetection oxford Dataset의 품종에 대한 inference를 수행하였습니다.의문점이 너무 많이 겹치는 bounding box가 있다는 것입니다. 제가 첨부한 2번 4번 7번 사진의 경우 하나의 개사진에 매우 겹치는 2가지 bounding box가 있음을 알 수 있습니다. 제가 알기로는 RPN 네트워크에서 마지막에 NMS를 수행해 Confidence Score가 높은 순으로 정렬하고 Confidence Score가 가장 높은 bbox와 IOU가 큰 박스는 삭제하는 걸로 알고 있습니다만 제가 잘못 알고 있는 건지 여쭙고 싶습니다.
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
구글 코랩에서 sklearn version 확인하는 법?
안녕하세요, 강의에서 사용하시는 구글 코랩에서 sklearn 모듈의 버전을 확인하고 싶은데요, 보통 사용하는 sklearn.__version__ 이나 import 한 모듈 이것저것 시도해봐도 전부 AttributeError: type object 'CountVectorizer' has no attribute '__version__'나 NameError: name 'sklearn' is not defined 라는 오류가 뜹니다 (pd.__version__은 잘 작동) sklearn 버전은 어떻게 확인해야 하나요? 그리고 왜 sklearn은 정의되지 않았다는 오류가 뜨는건가요?
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
word embedding 훈련 예시 관련 질문 드립니다.
예를들어 skip-gram(window size 2) 에서I love king of Korea이라는 문장을 워드임베딩 하게 되면,'king', 'I love', 'of Korea' 5개의 단어 중 3차원(I love, king, of Korea) 의 벡터(ex. <0.3, 0.5, 0.1>) 가 되는건가요?차원은 어떻게 결정하는 것이고, 워드 임베딩 학습은 어떤식으로 진행되는지 예시를 설명해주실 수 있을까요?미리 감사합니다!
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
Beam-search 전략에서 joint probability를 만드는 문제 질문 드립니다.
안녕하세요.Beam-search 전략에서 joint probability를 만드는 문제 질문 드립니다.학습하면서 joint 확률분포를 여러 경우의 수에 대해 미리 모두 만들어놓는 개념이라고 보면 되나요?예를들어,"I love you so much" 를"난 널 매우 사랑해" 로 번역할 때 I가 나왔을 때, '그는 매우' 나 '철수는 사과를' 이 나올 확률보다는 '난 널' 이라고 나올 확률이 제일 높도록 학습하는 개념인가요?좋은 강의 감사합니다.
-
해결됨(UPDATED) Python을 이용한 개인화 추천시스템 | 추천알고리즘 | 추천인공지능
인구통계학적 추천 알고리즘
안녕하십니까 선생님 추천시스템을 수강하고 있는 학생입니다!개인적인 질문이 있어 글을 남기게 되었습니다. 혹시 추천시스템 중에 인구통계학 특성을 기준으로 추천해주는 알고리즘이 있을까요?(예를 들어, 성별 나이 소득 거주지 등)많이 알려진 추천시스템들은 보통 아이템을 기반으로 추천해주는 것 같아 궁금하여 여쭤봅니다. 감사합니다.
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
Upstream Gradient, Local Gradient의 의미를 제대로 이해했는지 몰라서요.
안녕하세요. Upstream Gradient와 Local Gradient를 제대로 이해했는지 몰라 질문드립니다.세터1의 가중치를 업데이트하려고 할 때Local Gradient는 구하고자 하는 가중치(세터1)가 직접 곱해지는 레이어의 gradient를 가리키는 것이고Upstream Gradient는 세터1이 직접 곱해지는 레이어 이전까지(역방항기준) 모든 레이어의 gradient를 가리키는 것이 맞나요? 상세하고 명쾌한 강의 감사드립니다.
-
미해결[라즈베리파이] IoT 딥러닝 Computer Vision 실전 프로젝트
강의자료를 크리애플 홈페이지에서 찾을 수 없네요..
강의자료를 크리애플 홈페이지에서 찾을 수 없네요..강의자료를 받을 수 있는 곳을 상세히 설명해주세요..강의자료를 받을 수 있는 페이지 링크라도 달아주세요..IOT 라즈베리파이 관련 강의자료 부탁합니다..
-
해결됨딥러닝 CNN 완벽 가이드 - TFKeras 버전
Sigmoid 함수의 특성
안녕하세요 교수님!섹션 2의 딥러닝 모델에서 활성화 함수의 적용 강의에서 의문점이 생겨서 작성합니다.Sigmoid 함수의 특성에서 평균값이 0.5, 즉 0이 아니라서 Gradient Update가 지그재그 형태로 발생한다고 하셨는데.. 이 부분이 이해가 잘 되지 않습니다.입력값의 크기가 양으로 크거나 음으로 클 때 기울기가 0에 가까워서 Gradient Update가 적어진다는 것은 알겠습니다. 하지만 입력값을 넣었을 때의 시그모이드 출력값의 평균과 Gradient Update가 어떤 관계인지가 이해가 되지 않습니다ㅜ시그모이드를 미분한 함수가 시그모이드 출력값을 입력값으로 넣는게 아닌데... 왜 지그재그로 발생하는 것인가요.....?감사합니다!
-
미해결예제로 배우는 딥러닝 자연어 처리 입문 NLP with TensorFlow - RNN부터 BERT까지
코랩에서 실행이 안됩니다
코랩에서 import gluonnlp as nlp을 실행하면자꾸 이렇게 뜨는데해결방법이 있을까요??