• 카테고리

    질문 & 답변
  • 세부 분야

    딥러닝 · 머신러닝

  • 해결 여부

    미해결

학습 데이터와 검증 데이터의 학습 차이

22.06.30 21:13 작성 조회수 151

0

8:21초의 학습 데이터는 가중치를 줄이는 방향으로 계속 업데이트 하기 땜에 logloss가 계속 줄어드는데 검증은 그렇지 않다 라고 말씀하셨는데 검증 데이터는 가중치를 줄이는 방향으로 업데이트를 안하나요? 학습 데이터가 검증데이터에 대해 어떤식으로 받아들이는지 과정을 모르겠습니다

답변 1

답변을 작성해보세요.

0

검증 데이터는 loss를 줄이는 방향으로 가중치를 업데이트 하는데 참여하지 않습니다.  가중치 업데이트는 학습 데이터 만을 기준으로 수행 됩니다.  

일반적으로 Gradient Descent를 수행하면 학습 데이터를 기반으로 가중치를 업데이트 한후 모델에서 학습데이타를 기반으로 예측한 값과, 학습 데이터의 타겟값의 차이를 기반으로 학습 예측오류(loss)를 계산합니다. 동시에 검증 데이타를 기반으로 예측한 값과, 검증 데이터의 타겟값의 차이를 기반으로 검증 예측오류(loss)를 계산합니다. 

그런데 계속 가중치를 업데이트 하다보면 어느 시점에서 학습 데이터의 예측 오류는 계속 줄어들지만(학습 데이터를 기반으로 가중치를 계산하고 업데이트 하기 때문에), 검증 데이터의 예측 오류는 더 이상 줄어 들지 않거나 오히려 커질 수도 있습니다.  학습 데이터의 예측 오류와 검증 데이터의 예측 오류가 차이가 더 커지게 되면 오버피팅이 되고 있다고 판단 할 수 있으므로 조기종료(early stopping)으로 더 이상 학습을 수행하지 않고 종료 합니다.

정리하자면 검증 데이터는 가중치 업데이트에 포함되지 않으면 반복 수행시 마다 성능 평가에만 참여합니다. 그리고 학습 데이터가 아닌 검증 데이터로 성능 평가시에 더 이상 성능이 향상되지 않으면 조기 종료 합니다. 

 

예찬님의 프로필

예찬

질문자

2022.07.02

감사합니다