인프런 커뮤니티 질문&답변

박우성님의 프로필 이미지
박우성

작성한 질문수

딥러닝 CNN 완벽 가이드 - Fundamental 편

relu 적용 두번

작성

·

153

0

x = Conv2D(filters=128, kernel_size=3, padding='same', kernel_regularizer=l2(1e-5))(x) x = Activation('relu')(x) x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)
모델 만드시는데 이렇게 엑티베이션에 렐루적용을 2번이나 하는 이유가 있을까요??

답변 1

1

권 철민님의 프로필 이미지
권 철민
지식공유자

안녕하십니까, 

오타입니다. 한번만 적용해 주시면 됩니다. 

감사합니다. 

박우성님의 프로필 이미지
박우성
질문자

감사합니다~

박우성님의 프로필 이미지
박우성

작성한 질문수

질문하기