인프런 커뮤니티 질문&답변

작성자 없음

작성자 정보가 삭제된 글입니다.

TensorFlow 2.0으로 배우는 딥러닝 입문

간략히 살펴보는 딥러닝의 역사

ppt 9p 추가 질문

작성

·

184

0

RBM, Pre-training, ReLU가 Overfitting 방지와 어떤 관련이 있는지 설명 부탁 드립니다.

답변 1

1번째 링크의 어느 부분이 RBM과 overfitting이 관련이 있다고 나타내는건지 확인하기 어렵습니다

3번째 링크 확인 결과, ReLU는 overfitting이 아니라 gradient vanishing 문제와 관련이 있는 것으로 확인됩니다

AISchool님의 프로필 이미지
AISchool
지식공유자

안녕하세요. 해당 내용은 문맥상 과거(2006년 이전)에 잘 동작하지 않던 딥러닝 모델을 더 잘 동작시킬 수 있는 알고리즘으로 RBM, Pre-Training, ReLU 등이 등장했다. 라는 의미를 전달하려고 했던 부분입니다. 

다만 2006년도 이전에 딥러닝 모델이 잘 동작하지 않았던 이유가 꼭 Overfitting이라는 한가지 이유 때문이라고 볼 수는 없으므로 RBM, Pre-Training, ReLU 등 딥러닝 모델을 더 잘 학습시킬수 있는 새로운 알고리즘 등장 이렇게 수정해서 생각해주시면 좋을 것 같습니다. 표현에 혼란을 드려서 죄송합니다.

감사합니다.

작성자 없음

작성자 정보가 삭제된 글입니다.

질문하기