-
카테고리
-
세부 분야
컴퓨터 비전
-
해결 여부
미해결
선생님 질문입니다!
23.03.24 16:26 작성 조회수 260
0
optimizer에서 이미 안장점이나, 최적의 업데이트를 하기 위한 시도와 노력을 하는데 call back을 하는 이유가 '그럼에도 불구하고' 안될 수 있기 때문에 하는건가요?
답변을 작성해보세요.
0
권 철민
지식공유자2023.03.25
안녕하십니까,
Learning Rate Scheduler와 같은 Learing rate를 조절하는 기법들은 일반적으로 optimizer보다 좀 더 급격하게 Learning rate를 변화시킵니다.
그래서 optimizer를 적용했음에도 전반적으로 모델 성능이 학습시 향상이 되지 않으면 특정 epoch 주기별로 좀 더 급격하게 learning late를 변화 시켜서 모델 성능 향상을 도모하는 방법입니다.
감사합니다.
답변 1