4-3강 cross-validation에서의 best model 선정 기준
강사님, 안녕하세요! 항상 좋은 강의 잘 보고 있습니다 :D
4-3강 교차 검증(Cross-Validation)에서 best model을 어떻게 선정하는 것인지 조금 헷갈려 질문 드립니다.
예를 들어, 본 강의에서는 3개 fold에 대해 cross-validation을 수행하고, 모델의 최종 성능은 <3개 fold의 validation loss의 평균>으로 계산되는 것으로 이해했는데요.
1) 그렇다면 hyperparameter tuning 등을 통해 이 <평균 validation loss>가 가장 낮아지는 모델을 찾아야 하는 것이 맞나요? 다시 말해, 여러 번 cross-validation을 수행함으로써 가장 낮은 <평균 validation loss>를 가지는 모델을 best model로 선정하는 것이 맞는지 궁금합니다.
2) 만약 맞다면, 앞선 강의들에서는 "epoch 마다" loss가 최소화되는지 확인하고 모델 save를 수행했었는데, 이제는 "CV를 수행할 때 마다" loss가 최소화되는지 확인하고 모델 save를 수행하면 되는 것이 맞나요?
3) 마지막으로, 이미 학습된 결과를 바탕으로 best model을 선정했는데 왜 best model에 한 번 더 전체 trainset으로 학습을 진행해줘야 하는지 궁금합니다.
Answer 1
0
안녕하세요.
좋은 질문입니다!
이해하신 부분이 맞습니다. 평균값을 기준으로 베스트 모델을 정합니다.
에폭마다 loss를 확인하는 것은 학습 중 최적이라고 여겨지는 모델을 저장하기 위한 것입니다. 그런데 여기서 저장이라는 것은 단지 평균값을 산출하기 위한 기록일 뿐입니다. 모든 모델 평가는 평균값으로 보시면 됩니다.
교차검증은 모델 학습이 아닙니다. 말그대로 모델 설계 단계에서 테스트셋을 사용하지 않고 모델을 검증하는 것입니다. 따라서 교차 검증을 통해 모델을 선택하고 학습데이터로 선택 된 모델을 학습해서 테스트셋으로 최종 평가를 하게 됩니다!!
감사합니다.
수업자료 제공 부탁드립니다.
0
95
2
코드가 어디에 있는지 모르겠습니다.
0
93
2
논문 구현
0
184
2
overfitting이 나는 이유가 궁금합니다.
1
169
2
분류 성능이 잘 안 나오는 이유
0
217
1
AutoEncoder 차원 질문
1
250
2
사전 학습 모델에서의 layer 변경에 대한 질문
1
218
1
7강 폴더 만들
0
259
1
regression 문제에 대한 결과 시각화
0
213
1
Loss function 관련하여 질문드립니다.
0
954
1
early stopping 코드 문의
0
325
1
예측 그래프
0
353
1
데이터 불균형
1
364
1
8강 전이 학습 질문
0
395
2
data의 gpu처리 질문
0
240
1
nn.Linear(1024, 10) 관련 질문드립니다.
0
287
1
학습과 평가시 Loss 함수가 다른 이유
0
249
1
전처리 관련해서 질문 있습니다.
0
224
1
데이터 엔지니어의 역량을 기르려면 어떻게 해야할까요?
0
933
2
역전파 내용 중 미분 관련 질문 드립니다
1
282
1
8강 전이학습에서 kernel size 관련 질문 드립니다.
1
956
1
이미지분류-합성곱신경망(CNN) 피쳐맵 질문입니다.
1
585
1
14강 데이터 불균형 RandomRotation
1
481
1
3장 데이터 불러오기에서 LinearTensor를 정의하는 이유가 궁금합니다.
1
324
1

