• 카테고리

    질문 & 답변
  • 세부 분야

    컴퓨터 비전

  • 해결 여부

    미해결

손실 함수에 대해서 질문 있습니다.

21.10.08 10:11 작성 조회수 248

0

alpha*||w||^2 만큼 Loss를 더해주면 Loss 값이 기존 보다 더 증가하여 과적합에 우려가 더 커지는게 아닌가 라는 의문이 생깁니다 

Loss 출력 결과를 어느정도 무뎌지게 만든다는 것이 어떤 의미이고 왜 무뎌지는지 자세히 알고 싶습니다!! 

답변 2

·

답변을 작성해보세요.

1

안녕하십니까, 

오, 조영훈님, 좋은 답변 감사드립니다. 

조영훈님 답변에 첨언 드리면,  손실함수를 단순히 예측과 실제값의 차이에 기반한 w(weight)의 식으로만 만들게 되면 최적 loss 결과식이 둘쭉날쭉하면서 만들어 질 수 있습니다. 그러니까 학습데이터에 weight값이 지나치게 정교화되서 만들다 보니, 약간 논리적인(?) 범위를 벗어나면서 까지 weight값이 정해 질 수 있습니다.  어떻게든 loss값만 적게 만들다 보니 그런 weight값이 나올 수도 있습니다. 

그래서 규제, 족쇄(?)를 채우는데요, alpha값이 그런 역할을 합니다. 기존 loss 식에 alpha*w 를 더해서 새로운 loss식을 만들게 되면 이 loss식을 최소화하는 w값을 찾을 때 alpha 값이 영향을 주게 됩니다.   기존 loss에 추가적인 alpha*w가 추가되어서 alpha값에 따라서 weight값의 변동률이 어느정도 상쇄하게 됩니다. alpha값을 크게 하면 weight값이 상대적으로 작아진다던가, w값이 커지더라도 alpha값이 작으면 전체 loss가 상쇄되는 식으로 규제가 적용이 되는 것입니다. 

감사합니다. 

Hong님의 프로필

Hong

질문자

2021.10.11

답변 감사드립니다  좋은 강의 열심히 수강해서 정진하겠습니다 ^^

1

밑바닥개발자님의 프로필

밑바닥개발자

2021.10.08

같이 배우는 사람 입장으로써 지나가다 한 번 답변 남기고 갑니다! 

우선 과적합이라는 개념에 대해 다시 정의하고 가자면, "학습 데이터에만 너무 집중해서  학습 데이터만 잘 맞추고 검증(또는 테스트) 데이터에는 잘 못 맞추는 현상"이 잖아요!? 이 말은 곧  "학습 데이터일 때만 Loss 값이 매우 낮고 검증(또는 테스트) 데이터일 때의 Loss 값은 상대적으로 높은 현상"을 의미하게 됩니다.

그래서 강의 속에서 설명하시는 가중치 규제라는 개념은 학습 데이터에 대한 Loss 값에 alpha*||w||^2 값을 더해준다는 것인데요! 이렇게 되면 학습 데이터에 대한 Loss 값이 이전보다 커지겠죠!? 그말은 결국 학습 데이터는 이전보다 못 맞추는 것을 의미하게 됩니다.

결국 가중치 규제를 적용함으로써 모델이 "학습 데이터에 덜 집중하게 되고 검증(또는 테스트) 데이터에 좀 더 신경을 쓰게 되고 결국 이는 과적합 문제를 해결하는 데 기여한다"라고 이해하면 좋을 것 같습니다! 

더 자세한 건 강사님께서 달아주실 답변을 더 참고하면 좋을 것 같습니다! 제 의견은 참고만 해주세요!

Hong님의 프로필

Hong

질문자

2021.10.11

좋은 답변 감사합니다 어떤 뜻인지 이해가 되었네요