inflearn logo
강의

Course

Instructor

Understanding the concept of deep learning leading to practical artificial intelligence

Stochastic Gradient Descent and Optimizers

SGD + 모멘텀 등의 코드

Resolved

479

kundol

3 asked

0

안녕하세요 강사님 ㅎㅎ

강의 너무 잘 듣고 있습니다.

다름이 아니라.

15:40 에 많이 사용하는 것이

SGC + 스케줄링 또는 SGD + 모멘텀 + 스케줄링 이라고 말씀하셨는데요.

해당 부분을 코드로 나타내면 이렇게 되는게 맞을까요?

import torch
import torch.optim as optim 
# SGD + 스케줄링
optimizer = optim.SGD(model.parameters(), lr=0.01)  
# SGD + 스케줄링 + 모멘텀
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9) 
scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1) 
for epoch in range(num_epochs):
...
    for inputs, targets in train_loader:
        optimizer.zero_grad()
        outputs = model(inputs)
        loss = criterion(outputs, targets)
        loss.backward()
        optimizer.step() 
    scheduler.step()
 

 

감사합니다.

머신러닝 딥러닝 인공신경망

Answer 1

0

dlbro

안녕하세요.

네 맞습니다!

 

추가적으로 말씀드리면

ADAM이랑 모멘텀+스케줄링이 지금까지 많이 쓰여져 왔는데요.

ADAM이 거의 디폴트처럼 쓰인다고 보시면 됩니다 :)

 

 

열공하세요!

6-6

0

8

1

작업형 1 유형 부분

0

11

1

import torch가 안되는 경우는 어떻게 하나요?

0

16

1

작업형 1 (삭제예정, 구 버전)

0

31

2

강의노트는 어디있나요?

0

17

1

수강기간 연장 문의드립니다.

0

21

1

2유형 레이블 인코딩 VS 원핫 인코딩

0

24

3

수강기간 연장 문의드립니다.

0

26

1

인덱스 슬라이싱

0

27

2

소리가 겹쳐서 들려요

0

21

2

6-6 실습 문의

0

24

2

섹션5 노션링크 는 따로 없나요?

0

30

2

Part 4에서 강의 연관 노션 정보들이 워드파일에 없습니다.

0

33

2

첨부자료 Part 4 코드 확인 부탁드리겠습니다.

0

29

2

다중레이어 경사하강법에서 질문

0

264

2

XOR파트에서 입력표현 방식

1

286

2

경사하강법에서 다중레이어에서의 가중치를 구할 때 식이 이해가 가질 않습니다 ㅠ.ㅠ

1

366

1

경우에 따른 최적의 활성화 함수 선정하는 방법

0

431

2

전이학습 강의 중 질문이 있어서 남깁니다.

0

275

1

XOR 파트에서 질문 있습니다.

0

270

1

bias가 왜 필요한지 정확하게 모르겠습니다.

2

1164

1

LSTM 모형의 이해

1

616

1

RNN 가중치 w,u,l shape 질문

1

371

1

과적합 판단 방법에 대해 질문 드립니다.

0

2321

1