작성한 질문수
딥러닝 CNN 완벽 가이드 - TFKeras 버전
학습율(Learning Rate) 동적 변경에 따른 모델 성능 비교
작성
·
229
0
활성화 함수 ReLu를 두번 쓰셨는데 특별히 이유가 있나요?
이론(?) 수업 때 그림을 보면 활성화 함수가 하나 밖에 없는데
만약에 활성화 함수를 연속되게 쓰게 되면 얻게 되는 이점이 무엇이며, 언제 활성화함수를 연속되게 쓰는지 궁금합니다.
답변 1
2
안녕하십니까,
Activation함수를 2개 연속 적용한건 코드 오류 입니다. 하나만 적용하시면 됩니다.
감사합니다.