선생님 질문입니다!
407
작성한 질문수 69
optimizer에서 이미 안장점이나, 최적의 업데이트를 하기 위한 시도와 노력을 하는데 call back을 하는 이유가 '그럼에도 불구하고' 안될 수 있기 때문에 하는건가요?
답변 1
0
안녕하십니까,
Learning Rate Scheduler와 같은 Learing rate를 조절하는 기법들은 일반적으로 optimizer보다 좀 더 급격하게 Learning rate를 변화시킵니다.
그래서 optimizer를 적용했음에도 전반적으로 모델 성능이 학습시 향상이 되지 않으면 특정 epoch 주기별로 좀 더 급격하게 learning late를 변화 시켜서 모델 성능 향상을 도모하는 방법입니다.
감사합니다.
resize 질문
0
51
1
20251212 Kaggle 런타임에 scikit-learn 설치 실패 트러블 슈팅
0
76
1
Loss와 매트릭 관계
0
62
2
Boston 코랩 실습
0
164
2
배치 정규화의 이해와 적용 2 강의 질문
0
136
2
Augmentation원본에 적용해서 데이터 갯수 자체를 늘리는 행위는 의미가있나요?
0
145
2
Conv함수 안에 activation 을 넣지 않는 이유가 뭔지 궁금합니다.
0
206
2
소프트맥스 관련 질문입니다
0
208
1
강의 관련 질문입니다
0
151
2
residual block과 identity block의 차이
0
190
2
옵티마이저와 경사하강법의 차이가 궁금합니다.
1
240
1
실습 환경
0
165
2
입력 이미지 크기
0
244
2
데이터 증강
0
196
2
albumentations ShiftScaleRotate
0
207
1
Model Input Size 관련
0
281
1
마지막에 bird -> frog 말고도 deer -> frog 도 잘못된것 아닌가요??
0
204
1
일반적인 질문 (kaggle notebook사용)
0
272
2
실무에서 Augmentation 적용 시
0
338
2
안녕하세요 교수님
0
231
1
가중치 초기화(Weight Initialization) 질문입니다.
0
327
1
테스트 데이터셋 predict의 'NoneType' object has no attribute 'shape' 오류
0
409
1
학습이 이상하게 됩니다.
2
1036
2
boston import가 안됩니다
0
229
1





