• 카테고리

    질문 & 답변
  • 세부 분야

    컴퓨터 비전

  • 해결 여부

    미해결

선생님 질문입니다!

23.03.24 16:26 작성 조회수 260

0

optimizer에서 이미 안장점이나, 최적의 업데이트를 하기 위한 시도와 노력을 하는데 call back을 하는 이유가 '그럼에도 불구하고' 안될 수 있기 때문에 하는건가요?

답변 1

답변을 작성해보세요.

0

안녕하십니까,

Learning Rate Scheduler와 같은 Learing rate를 조절하는 기법들은 일반적으로 optimizer보다 좀 더 급격하게 Learning rate를 변화시킵니다.

그래서 optimizer를 적용했음에도 전반적으로 모델 성능이 학습시 향상이 되지 않으면 특정 epoch 주기별로 좀 더 급격하게 learning late를 변화 시켜서 모델 성능 향상을 도모하는 방법입니다.

감사합니다.