인프런 커뮤니티 질문&답변

nathan님의 프로필 이미지
nathan

작성한 질문수

딥러닝 CNN 완벽 가이드 - Fundamental 편

activation을 2번 해주는 이유?

작성

·

241

0

선생님 안녕하세요

좋은 강의 항상 감사드립니다.

 

5번째 주피터 노트북 파일, CIFAR10_Custom_CB_Filters_Decay 을 보면

 

x = Conv2D(filters=128, kernel_size=3, padding='same', kernel_regularizer=l2(1e-5))(x) x = Activation('relu')(x) x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)

이것 처럼 x = Activation('relu')(x) 을 2번씩 써 놓으신 곳이 있더라고요.

굳이 activation을 2번 하시는 이유가 있으신가요? 아니면 그냥 custom이 가능하다는 것을 보여주기 위해서 넣으신건가요? (즉, 이걸 지워도 모델 전체에 큰 영향은 없는건가요?)

 

감사합니다!

 

 

답변 2

1

영상 보는 동안 계속 신경 쓰였는데.. 한번만 하면 되는게 맞군요.

그렇다면 저자리는

x = BatchNormalization()(x) 일것 같습니다.

ps- 혹시 저 처럼 궁금해서 찾아오시는 분들이 계실 듯하여....

nathan님의 프로필 이미지
nathan
질문자

아 그렇군요! 말씀해주신대로 단순히 빼는것이 아니라 x = BatchNormalization()(x) 이 들어가는게 맞는것 같습니다.

 

감사합니다!!

0

권 철민님의 프로필 이미지
권 철민
지식공유자

안녕하십니까,

아, 이게 실수입니다. 한번만 Activation 하시면 됩니다.

감사합니다.

nathan님의 프로필 이미지
nathan

작성한 질문수

질문하기