inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

실전 인공지능으로 이어지는 딥러닝 개념 잡기

확률적 경사 하강법과 최적화 기법(Stochastic Gradient Descent and Optimizers)

SGD + 모멘텀 등의 코드

해결된 질문

480

큰돌

작성한 질문수 3

0

안녕하세요 강사님 ㅎㅎ

강의 너무 잘 듣고 있습니다.

다름이 아니라.

15:40 에 많이 사용하는 것이

SGC + 스케줄링 또는 SGD + 모멘텀 + 스케줄링 이라고 말씀하셨는데요.

해당 부분을 코드로 나타내면 이렇게 되는게 맞을까요?

import torch
import torch.optim as optim 
# SGD + 스케줄링
optimizer = optim.SGD(model.parameters(), lr=0.01)  
# SGD + 스케줄링 + 모멘텀
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9) 
scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1) 
for epoch in range(num_epochs):
...
    for inputs, targets in train_loader:
        optimizer.zero_grad()
        outputs = model(inputs)
        loss = criterion(outputs, targets)
        loss.backward()
        optimizer.step() 
    scheduler.step()
 

 

감사합니다.

머신러닝 딥러닝 인공신경망

답변 1

0

딥러닝호형

안녕하세요.

네 맞습니다!

 

추가적으로 말씀드리면

ADAM이랑 모멘텀+스케줄링이 지금까지 많이 쓰여져 왔는데요.

ADAM이 거의 디폴트처럼 쓰인다고 보시면 됩니다 :)

 

 

열공하세요!

작업형2 모의문제1 (30강)

0

11

1

수강 기간 연장 문의 드립니다.

0

14

1

섹션22 퀴즈 질문

0

20

1

수강 계획과 관련해 문의 드립니다.

0

18

1

Breadth (등락 비율) 분석

0

18

1

작업형1 - 연습문제 16~39 풀이는 몇강을 보면 되나요?

0

34

2

26 .강의 프롬프트와 프롬프트파일(part3) 내용이 차이가 있어요.

0

24

2

작업형 1 -연습문제 4-6

0

26

2

모델 서빙과 관련된 강좌가 출시되는지 질문드립니다.

0

22

2

강사님 안녕하세요 ㅎdatabricks환경에 대한 설

0

27

3

6-6

0

30

1

작업형 1 유형 부분

0

35

2

import torch가 안되는 경우는 어떻게 하나요?

0

26

1

작업형 1 (삭제예정, 구 버전)

0

48

2

다중레이어 경사하강법에서 질문

0

266

2

XOR파트에서 입력표현 방식

1

286

2

경사하강법에서 다중레이어에서의 가중치를 구할 때 식이 이해가 가질 않습니다 ㅠ.ㅠ

1

366

1

경우에 따른 최적의 활성화 함수 선정하는 방법

0

431

2

전이학습 강의 중 질문이 있어서 남깁니다.

0

275

1

XOR 파트에서 질문 있습니다.

0

270

1

bias가 왜 필요한지 정확하게 모르겠습니다.

2

1165

1

LSTM 모형의 이해

1

617

1

RNN 가중치 w,u,l shape 질문

1

371

1

과적합 판단 방법에 대해 질문 드립니다.

0

2323

1