SGD + 모멘텀 등의 코드
안녕하세요 강사님 ㅎㅎ
강의 너무 잘 듣고 있습니다.
다름이 아니라.
15:40 에 많이 사용하는 것이
SGC + 스케줄링 또는 SGD + 모멘텀 + 스케줄링 이라고 말씀하셨는데요.
해당 부분을 코드로 나타내면 이렇게 되는게 맞을까요?
import torch
import torch.optim as optim
# SGD + 스케줄링
optimizer = optim.SGD(model.parameters(), lr=0.01)
# SGD + 스케줄링 + 모멘텀
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)
scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1)
for epoch in range(num_epochs):
...
for inputs, targets in train_loader:
optimizer.zero_grad()
outputs = model(inputs)
loss = criterion(outputs, targets)
loss.backward()
optimizer.step()
scheduler.step()
감사합니다.
답변 1
0
안녕하세요.
네 맞습니다!
추가적으로 말씀드리면
ADAM이랑 모멘텀+스케줄링이 지금까지 많이 쓰여져 왔는데요.
ADAM이 거의 디폴트처럼 쓰인다고 보시면 됩니다 :)
열공하세요!
ZIP 파일
0
18
2
26강 13F 강의 불일치 및 질문 요청
0
21
3
[업로드오류] 강의 내용과 제목 불일치
0
20
2
작업형2 모의문제1 (30강)
0
18
1
수강 기간 연장 문의 드립니다.
0
21
1
섹션22 퀴즈 질문
0
23
1
수강 계획과 관련해 문의 드립니다.
0
19
1
Breadth (등락 비율) 분석
0
21
1
작업형1 - 연습문제 16~39 풀이는 몇강을 보면 되나요?
0
45
2
26 .강의 프롬프트와 프롬프트파일(part3) 내용이 차이가 있어요.
0
28
2
작업형 1 -연습문제 4-6
0
33
2
모델 서빙과 관련된 강좌가 출시되는지 질문드립니다.
0
24
2
강사님 안녕하세요 ㅎdatabricks환경에 대한 설
0
30
3
6-6
0
30
1
다중레이어 경사하강법에서 질문
0
266
2
XOR파트에서 입력표현 방식
1
286
2
경사하강법에서 다중레이어에서의 가중치를 구할 때 식이 이해가 가질 않습니다 ㅠ.ㅠ
1
366
1
경우에 따른 최적의 활성화 함수 선정하는 방법
0
431
2
전이학습 강의 중 질문이 있어서 남깁니다.
0
275
1
XOR 파트에서 질문 있습니다.
0
270
1
bias가 왜 필요한지 정확하게 모르겠습니다.
2
1167
1
LSTM 모형의 이해
1
617
1
RNN 가중치 w,u,l shape 질문
1
372
1
과적합 판단 방법에 대해 질문 드립니다.
0
2325
1





