• 카테고리

    질문 & 답변
  • 세부 분야

    컴퓨터 비전

  • 해결 여부

    미해결

activation을 2번 해주는 이유?

22.10.27 00:04 작성 조회수 143

0

선생님 안녕하세요

좋은 강의 항상 감사드립니다.

 

5번째 주피터 노트북 파일, CIFAR10_Custom_CB_Filters_Decay 을 보면

 

x = Conv2D(filters=128, kernel_size=3, padding='same', kernel_regularizer=l2(1e-5))(x) x = Activation('relu')(x) x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)

이것 처럼 x = Activation('relu')(x) 을 2번씩 써 놓으신 곳이 있더라고요.

굳이 activation을 2번 하시는 이유가 있으신가요? 아니면 그냥 custom이 가능하다는 것을 보여주기 위해서 넣으신건가요? (즉, 이걸 지워도 모델 전체에 큰 영향은 없는건가요?)

 

감사합니다!

 

 

답변 2

·

답변을 작성해보세요.

1

nobert님의 프로필

nobert

2022.11.10

영상 보는 동안 계속 신경 쓰였는데.. 한번만 하면 되는게 맞군요.

그렇다면 저자리는

x = BatchNormalization()(x) 일것 같습니다.

ps- 혹시 저 처럼 궁금해서 찾아오시는 분들이 계실 듯하여....

nathan님의 프로필

nathan

질문자

2022.11.10

아 그렇군요! 말씀해주신대로 단순히 빼는것이 아니라 x = BatchNormalization()(x) 이 들어가는게 맞는것 같습니다.

 

감사합니다!!

0

안녕하십니까,

아, 이게 실수입니다. 한번만 Activation 하시면 됩니다.

감사합니다.