• 카테고리

    질문 & 답변
  • 세부 분야

    딥러닝 · 머신러닝

  • 해결 여부

    미해결

ppt 9p 추가 질문

21.09.29 18:37 작성 조회수 134

0

RBM, Pre-training, ReLU가 Overfitting 방지와 어떤 관련이 있는지 설명 부탁 드립니다.

답변 1

답변을 작성해보세요.

0

gaeun na님의 프로필

gaeun na

2021.10.06

1번째 링크의 어느 부분이 RBM과 overfitting이 관련이 있다고 나타내는건지 확인하기 어렵습니다

3번째 링크 확인 결과, ReLU는 overfitting이 아니라 gradient vanishing 문제와 관련이 있는 것으로 확인됩니다

안녕하세요. 해당 내용은 문맥상 과거(2006년 이전)에 잘 동작하지 않던 딥러닝 모델을 더 잘 동작시킬 수 있는 알고리즘으로 RBM, Pre-Training, ReLU 등이 등장했다. 라는 의미를 전달하려고 했던 부분입니다. 

다만 2006년도 이전에 딥러닝 모델이 잘 동작하지 않았던 이유가 꼭 Overfitting이라는 한가지 이유 때문이라고 볼 수는 없으므로 RBM, Pre-Training, ReLU 등 딥러닝 모델을 더 잘 학습시킬수 있는 새로운 알고리즘 등장 이렇게 수정해서 생각해주시면 좋을 것 같습니다. 표현에 혼란을 드려서 죄송합니다.

감사합니다.