inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

딥러닝 이론 + PyTorch 실무 완전 정복

[실습] PyTorch로 구현해보는 Initialization

섹션12 실습코드 의 initialization 각각 적용 코드 문의

97

최동희

작성한 질문수 1

0

실습코드에서 초기화 각각 적용 부분

  self._init_weights(self.fc_layers[0], mode='kaiming')
        self._init_weights(self.fc_layers[1], mode='kaiming')
        self._init_weights(self.fc_layers[2], mode='xavier')

모델을 읽어보면

NeuralNetwork( (fc_layers): Sequential( (0): Linear(in_features=784, out_features=196, bias=True)

(1): ReLU()

(2): Linear(in_features=196, out_features=49, bias=True)

(3): ReLU()

(4): Linear(in_features=49, out_features=10, bias=True)

(5): Sigmoid() ) )

0, 2,4 번에 초기화를 적용해야 실제 작동을 할 것 같습니다.

 

딥러닝 pytorch NLP 컴퓨터-비전 cnn rnn transformer llm

답변 0

노션URL 이동문제

0

56

1

오타

0

82

0

혹시 이론강의 자료도 공유가 가능하실까요?

1

165

1

[sec. 2-8 실습] 배치사이즈의 선택

0

170

2

[section 14 / [실습] 직접 만든 CNN 모델과 ResNet, VGGNet을 활용한 CV 프로젝트] transforms.Normalize 질문

1

225

1

[section 14 / VGGNet ] receptive filed 질문

1

130

2

[섹션3, PyTorch로 구현해보는 Loss Function] 분류task loss함수 질문입니다.

1

230

2

KL Div Loss에서 Negative Entropy를 더해주는 의미에 대해서

1

192

2

GoogleNet Inception 모듈

1

166

2

Batch Normalization 효과

1

183

2

Layer Norm이 언어모델에 적합한 이유

1

516

1

9-2 fully connected NN

1

129

1

Mini-batch Gradient Descent computation time 질문

1

175

2

Huber Loss에 대한 질문

1

302

2

Batch size 가 극단적으로 작은 경우 (예를들어 batch_size =1) Normalization 적용 방안

3

350

1

Normalization 질문

1

269

2

Section 7 [Activation Function의 종류] Softmax logit 분포와 Entropy 질문이 있습니다

2

210

1

Section 3 [실습] PyTorch로 구현해보는 Loss Function의 Cross Entropy 구현 관련하여 질문이 있습니다.

1

298

1

Section 3의 [이론] Regression task의 Loss: L1, L2, Huber, Log Cosh Loss "미분가능"관련 에서 질문이 있습니다.

1

278

1

Section 15 실습 중, lstm 클래스의 forward 함수 질문

1

235

2

Section 16 [이론] Transformer의 Encoder 질문

1

177

1

Auto Differentiation에서 computational Graph 질문있습니다

1

211

1

Section 3 이론 classification Loss function 질문

1

234

1

section4의 entropy 시그마 식 전개에 대한 질문입니다.

1

262

2