작성자 없음
작성자 정보가 삭제된 글입니다.
작성
·
184
0
답변 1
0
안녕하세요. 해당 내용은 문맥상 과거(2006년 이전)에 잘 동작하지 않던 딥러닝 모델을 더 잘 동작시킬 수 있는 알고리즘으로 RBM, Pre-Training, ReLU 등이 등장했다. 라는 의미를 전달하려고 했던 부분입니다.
다만 2006년도 이전에 딥러닝 모델이 잘 동작하지 않았던 이유가 꼭 Overfitting이라는 한가지 이유 때문이라고 볼 수는 없으므로 RBM, Pre-Training, ReLU 등 딥러닝 모델을 더 잘 학습시킬수 있는 새로운 알고리즘 등장 이렇게 수정해서 생각해주시면 좋을 것 같습니다. 표현에 혼란을 드려서 죄송합니다.
감사합니다.
1번째 링크의 어느 부분이 RBM과 overfitting이 관련이 있다고 나타내는건지 확인하기 어렵습니다
3번째 링크 확인 결과, ReLU는 overfitting이 아니라 gradient vanishing 문제와 관련이 있는 것으로 확인됩니다