작성
·
159
0
올 초에 케라스 레티나넷 모델을 이용해서 라쿤 탐지을 수행했을때는 epoch를 20으로 주면 20개의 학습모델이 생성되었는데
최근 변경된 코딩으로 학습을 하니 10개 정도 학습하고 종료가 됩니다.
혹시 class args: 에
reduce_lr_patience = 2
reduce_lr_factor = 0.1
group_method='ratio' 등 추가된 내용때문에 그러한 지 궁금합니다.
아니면 다른 이유가 있나요?
답변 3
0
확인 결과 reduce_lr_patience 는 Ealry stopping이 아닌 ReduceLRPlateau callback에서 사용되고 있습니다.
학습 시에 수행되는 전체 메시지를 여기에 올려 주십시요.
그리고 최근 추가한 아래 파라미터를 모두 주석처리하고 다시 학습해 주십시요
0
0
안녕하십니까,
epochs를 20을 주었는데 10번 epochs돌고 학습이 종료 되었다는 것은 early stopping으로 종료가 된 것 같습니다. early stopping을 epochs수행중에 가장 최적으로 학습된 모델보다 더 최적으로 학습을 일정 횟수만큼 수행하지 못하는 지정된 epochs보다 먼저 종료하여 가장 최적으로 학습된 모델까지만 저장합니다.
lr_patience=2 이면 2회 epochs수행 할 동안 더 최적으로 모델을 학습하지 못하면 바로 이전 모델까지만 학습한다는 의미 입니다.
감사합니다.