Complete mastery of deep learning theory + PyTorch practice
This course teaches the “core concepts” of deep learning required to work in the deep learning field and the practical skills required to perform actual deep learning projects through hands-on training using PyTorch.
520 learners
Level Basic
Course period Unlimited

Want to know what questions other learners frequently ask?
- Unresolved
노션URL 이동문제
교재에 작성된 노션URL로 이동이 안됩니다
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmsnjack0501
・
3 months ago
0
45
1
- Unresolved
섹션12 실습코드 의 initialization 각각 적용 코드 문의
실습코드에서 초기화 각각 적용 부분 self._init_weights(self.fc_layers[0], mode='kaiming')
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmchddhh7419
・
9 months ago
0
91
0
- Unresolved
오타
안녕하세요.7:13에 맨 오른쪽아래에 XN(t+1)에서 M인데 N으로 오타가 있습니다.
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmyoosoo07118763
・
a year ago
0
78
0
- Resolved
혹시 이론강의 자료도 공유가 가능하실까요?
안녕하세요 변정현 강사님.강의 잘 듣고있습니다. 실습 수업 때는 주피터 노트북 형식
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmkc73174430
・
a year ago
1
144
1
- Unresolved
[Sec. 2-8 실전] weight 곱의 위치
안녕하세요. 2-8에서 한 가지 질문이 더 있어서 다시 질문드립니다. FC NN Layer를 설명하는 부분인데요.<img src="https://cdn.i
iklee7286
・
a year ago
0
91
2
- Unresolved
[sec. 2-8 실습] 배치사이즈의 선택
안녕하세요. 좋은 강의 잘 듣고 있습니다. 반복해서 여러 차례 들을 수 있어서 정말 좋습니다. 조금 기초적인 질문인가 싶은데요. <p style="text
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmiklee7286
・
a year ago
0
152
2
- Resolved
[section 14 / [실습] 직접 만든 CNN 모델과 ResNet, VGGNet을 활용한 CV 프로젝트] transforms.Normalize 질문
cifar10 데이터셋에 대하여 Normalize를 적용하는 이유가 궁금합니다.mean과 std 리스트에 들어있는 값의 의미가 무엇인가요?이미 ToTensor()로 0~1값의 스케일링 된 데이터를, 표준화까지
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmyun0106109971
・
1
206
1
- Resolved
[section 14 / VGGNet ] receptive filed 질문
안녕하세요. 항상 강의 잘 듣고 있습니다. 감사합니다. 다름이 아니라 section14. vggnet 강의를 듣던 중 receptive field에 대해 의문이 생겨 질문하게 되었습니다. 교안 82페이지에 (3,3) conv layer 2개를 쌓으면 recepti
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmyun0106109971
・
1
121
2
- Resolved
[섹션3, PyTorch로 구현해보는 Loss Function] 분류task loss함수 질문입니다.
좋은 강의 정말 잘 듣고있습니다. 항상 감사합니다.다름이 아니라 nn.BCEloss 나 nn.BCEWithLogitsLoss에서 이름에 B(Binary)가 들어가 이진분류 문제에 사용하는 함수인가 싶었는데, 실습 강의때 처럼 다중 분류 문제의 loss
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmyun0106109971
・
1
206
2
- Resolved
KL Div Loss에서 Negative Entropy를 더해주는 의미에 대해서
안녕하세요.항상 친절하고 자세하게 강의해주셔서 재미있게 배우고 있습니다.다름이 아니라, 본 강의에서 설명해주신 Negative Entropy의 의미에 대해 제가 확실하게 이해한 것이 맞는지 질문하려고 글을 남깁니다.
딥러닝pytorchnavyhourmj7636
・
1
174
2
- Resolved
GoogleNet Inception 모듈
안녕하세요 선생님강의 잘 보고 있습니다구글넷의 인셉션 모듈 설명 중에 MAX pooling이 포함되어 있는데요보통 max pooling은 인풋의 사이즈를 줄이는 것으로 알고 있는데 그러면 다른 컨볼루션이 통과된 아웃풋과 사이즈
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmreewoo46743300
・
1
150
2
- Resolved
Batch Normalization 효과
안녕하세요 선생님강의 정말 잘 보고 있고요제 많은 질문들에도 너무 성심성의껏 답변 달아주셔서 감사합니다 ㅎㅎBatchNorm이 설계된 의도는 internal covariate shift를 해결하기 위해 제안되었다는 것은 이해했
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmreewoo46743300
・
1
167
2
- Resolved
Layer Norm이 언어모델에 적합한 이유
안녕하세요 선생님강의 정말 잘 보고 있습니다.Layer Normalization을 보는 중에 입력 데이터를 Normalization하는 것을 통해 scale이나 shift에 robust하게 되는 것까진 이해했습니다.이런 효과가
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmreewoo46743300
・
1
463
1
- Resolved
9-2 fully connected NN
여기서 네트워크를 구성할 때 맨 마지막에 sigmoid를 태운 후에 마지막에 또 Softmax를 태우는데, 이렇게 할 거면 애초부터 네트워크의 마지막단을 sigmoid가 아닌 softmax를 태우면 되는 거 아닌가요?왜 sigmoid를 거친 후에 so
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmreewoo46743300
・
1
117
1
- Resolved
Mini-batch Gradient Descent computation time 질문
안녕하세요 선생님시간과 체력이 더 많았으면 좋겠다는 생각이 들 정도로 강의를 너무 재밌게 보고 있습니다Mini batch Gradient Descent 이론 편에서 Mini batch Size에 비례하지 않는다는 설명을 보았는데요.
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmreewoo46743300
・
1
165
2
- Resolved
Huber Loss에 대한 질문
안녕하세요?: 선생님강의 정말 재밌게 잘 보고 있습니다.강의 내용 중에 Huber Loss는 전미분이 한 번밖에 되지 않는다는 단점을 언급해주셨는데요Gradient Descent를 적용할 때는 weight에 대한 편미분만 적용
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmreewoo46743300
・
1
288
2
- Resolved
Batch size 가 극단적으로 작은 경우 (예를들어 batch_size =1) Normalization 적용 방안
강사님, 본 강의 들으면서 정말 많은 도움을 받고 있습니다. normalization 에 대해서 이렇게 상세하게 설명해 준 온라인 강의는 본 적이 없네요 🙂<
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmaquarid22
・
3
330
1
- Resolved
Normalization 질문
안녕하세요, 수업 설명 감사드립니다. cnn이 아닌 일반적인 fully connected NN (multi-layer perceptron) 에서 혹시 batch/instance/layer normalization 을 어떻게 계산하
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmmalrung3862
・
1
263
2
- Resolved
Section 7 [Activation Function의 종류] Softmax logit 분포와 Entropy 질문이 있습니다
안녕하세요 선생님해당 강의 마지막 참고사항: what is entropy 부분에서 Temperature가 낮을수록 softmax logit의 분포가 쏠리면 Entropy가 감소하게 되는 것이 아닌지 궁금합니다!<
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmrag
・
2
204
1
- Resolved
Section 3 [실습] PyTorch로 구현해보는 Loss Function의 Cross Entropy 구현 관련하여 질문이 있습니다.
안녕하세요 선생님,batch_size = 16 n_class = 10 def generate_classification(batch_size=16, n_class=10): pred
딥러닝pytorchNLP컴퓨터-비전cnnrnntransformerllmrag
・
1
281
1

