딥러닝 이론 + PyTorch 실무 완전 정복
딥러닝 현업에 종사하기 위해 필요한 딥러닝의 “핵심 개념”을 배우고 PyTorch을 활용한 실습을 통해서 실제 딥러닝 프로젝트를 수행하는데 필요한 실무를 가르쳐주는 강의입니다.

다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결
노션URL 이동문제
교재에 작성된 노션URL로 이동이 안됩니다
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllm둥이아빠
・
3달 전
0
45
1
- 미해결
섹션12 실습코드 의 initialization 각각 적용 코드 문의
실습코드에서 초기화 각각 적용 부분 self._init_weights(self.fc_layers[0], mode='kaiming')
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllm최동희
・
9달 전
0
91
0
- 미해결
오타
안녕하세요.7:13에 맨 오른쪽아래에 XN(t+1)에서 M인데 N으로 오타가 있습니다.
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmnick
・
일 년 전
0
78
0
- 해결
혹시 이론강의 자료도 공유가 가능하실까요?
안녕하세요 변정현 강사님.강의 잘 듣고있습니다. 실습 수업 때는 주피터 노트북 형식
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmYongju
・
일 년 전
1
144
1
- 미해결
[Sec. 2-8 실전] weight 곱의 위치
안녕하세요. 2-8에서 한 가지 질문이 더 있어서 다시 질문드립니다. FC NN Layer를 설명하는 부분인데요.<img src="https://cdn.i
iklee
・
일 년 전
0
91
2
- 미해결
[sec. 2-8 실습] 배치사이즈의 선택
안녕하세요. 좋은 강의 잘 듣고 있습니다. 반복해서 여러 차례 들을 수 있어서 정말 좋습니다. 조금 기초적인 질문인가 싶은데요. <p style="text
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmiklee
・
일 년 전
0
152
2
- 해결
[section 14 / [실습] 직접 만든 CNN 모델과 ResNet, VGGNet을 활용한 CV 프로젝트] transforms.Normalize 질문
cifar10 데이터셋에 대하여 Normalize를 적용하는 이유가 궁금합니다.mean과 std 리스트에 들어있는 값의 의미가 무엇인가요?이미 ToTensor()로 0~1값의 스케일링 된 데이터를, 표준화까지
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllm윤지형
・
1
206
1
- 해결
[section 14 / VGGNet ] receptive filed 질문
안녕하세요. 항상 강의 잘 듣고 있습니다. 감사합니다. 다름이 아니라 section14. vggnet 강의를 듣던 중 receptive field에 대해 의문이 생겨 질문하게 되었습니다. 교안 82페이지에 (3,3) conv layer 2개를 쌓으면 recepti
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllm윤지형
・
1
121
2
- 해결
[섹션3, PyTorch로 구현해보는 Loss Function] 분류task loss함수 질문입니다.
좋은 강의 정말 잘 듣고있습니다. 항상 감사합니다.다름이 아니라 nn.BCEloss 나 nn.BCEWithLogitsLoss에서 이름에 B(Binary)가 들어가 이진분류 문제에 사용하는 함수인가 싶었는데, 실습 강의때 처럼 다중 분류 문제의 loss
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllm윤지형
・
1
206
2
- 해결
KL Div Loss에서 Negative Entropy를 더해주는 의미에 대해서
안녕하세요.항상 친절하고 자세하게 강의해주셔서 재미있게 배우고 있습니다.다름이 아니라, 본 강의에서 설명해주신 Negative Entropy의 의미에 대해 제가 확실하게 이해한 것이 맞는지 질문하려고 글을 남깁니다.
딥러닝pytorch메타몽열공중
・
1
174
2
- 해결
GoogleNet Inception 모듈
안녕하세요 선생님강의 잘 보고 있습니다구글넷의 인셉션 모듈 설명 중에 MAX pooling이 포함되어 있는데요보통 max pooling은 인풋의 사이즈를 줄이는 것으로 알고 있는데 그러면 다른 컨볼루션이 통과된 아웃풋과 사이즈
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmHELLO
・
1
150
2
- 해결
Batch Normalization 효과
안녕하세요 선생님강의 정말 잘 보고 있고요제 많은 질문들에도 너무 성심성의껏 답변 달아주셔서 감사합니다 ㅎㅎBatchNorm이 설계된 의도는 internal covariate shift를 해결하기 위해 제안되었다는 것은 이해했
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmHELLO
・
1
167
2
- 해결
Layer Norm이 언어모델에 적합한 이유
안녕하세요 선생님강의 정말 잘 보고 있습니다.Layer Normalization을 보는 중에 입력 데이터를 Normalization하는 것을 통해 scale이나 shift에 robust하게 되는 것까진 이해했습니다.이런 효과가
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmHELLO
・
1
463
1
- 해결
9-2 fully connected NN
여기서 네트워크를 구성할 때 맨 마지막에 sigmoid를 태운 후에 마지막에 또 Softmax를 태우는데, 이렇게 할 거면 애초부터 네트워크의 마지막단을 sigmoid가 아닌 softmax를 태우면 되는 거 아닌가요?왜 sigmoid를 거친 후에 so
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmHELLO
・
1
117
1
- 해결
Mini-batch Gradient Descent computation time 질문
안녕하세요 선생님시간과 체력이 더 많았으면 좋겠다는 생각이 들 정도로 강의를 너무 재밌게 보고 있습니다Mini batch Gradient Descent 이론 편에서 Mini batch Size에 비례하지 않는다는 설명을 보았는데요.
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmHELLO
・
1
165
2
- 해결
Huber Loss에 대한 질문
안녕하세요?: 선생님강의 정말 재밌게 잘 보고 있습니다.강의 내용 중에 Huber Loss는 전미분이 한 번밖에 되지 않는다는 단점을 언급해주셨는데요Gradient Descent를 적용할 때는 weight에 대한 편미분만 적용
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmHELLO
・
1
288
2
- 해결
Batch size 가 극단적으로 작은 경우 (예를들어 batch_size =1) Normalization 적용 방안
강사님, 본 강의 들으면서 정말 많은 도움을 받고 있습니다. normalization 에 대해서 이렇게 상세하게 설명해 준 온라인 강의는 본 적이 없네요 🙂<
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllm아쿠아라이드
・
3
330
1
- 해결
Normalization 질문
안녕하세요, 수업 설명 감사드립니다. cnn이 아닌 일반적인 fully connected NN (multi-layer perceptron) 에서 혹시 batch/instance/layer normalization 을 어떻게 계산하
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmA+Plus
・
1
263
2
- 해결
Section 7 [Activation Function의 종류] Softmax logit 분포와 Entropy 질문이 있습니다
안녕하세요 선생님해당 강의 마지막 참고사항: what is entropy 부분에서 Temperature가 낮을수록 softmax logit의 분포가 쏠리면 Entropy가 감소하게 되는 것이 아닌지 궁금합니다!<
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmehdnjs
・
2
204
1
- 해결
Section 3 [실습] PyTorch로 구현해보는 Loss Function의 Cross Entropy 구현 관련하여 질문이 있습니다.
안녕하세요 선생님,batch_size = 16 n_class = 10 def generate_classification(batch_size=16, n_class=10): pred
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmehdnjs
・
1
281
1






