-
카테고리
-
세부 분야
컴퓨터 비전
-
해결 여부
미해결
activation을 2번 해주는 이유?
22.10.27 00:04 작성 조회수 143
0
선생님 안녕하세요
좋은 강의 항상 감사드립니다.
5번째 주피터 노트북 파일, CIFAR10_Custom_CB_Filters_Decay 을 보면
x = Conv2D(filters=128, kernel_size=3, padding='same', kernel_regularizer=l2(1e-5))(x) x = Activation('relu')(x) x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)
이것 처럼 x = Activation('relu')(x) 을 2번씩 써 놓으신 곳이 있더라고요.
굳이 activation을 2번 하시는 이유가 있으신가요? 아니면 그냥 custom이 가능하다는 것을 보여주기 위해서 넣으신건가요? (즉, 이걸 지워도 모델 전체에 큰 영향은 없는건가요?)
감사합니다!
답변을 작성해보세요.
1
nobert
2022.11.10
영상 보는 동안 계속 신경 쓰였는데.. 한번만 하면 되는게 맞군요.
그렇다면 저자리는
x = BatchNormalization()(x) 일것 같습니다.
ps- 혹시 저 처럼 궁금해서 찾아오시는 분들이 계실 듯하여....
nathan
질문자2022.11.10
아 그렇군요! 말씀해주신대로 단순히 빼는것이 아니라 x = BatchNormalization()(x) 이 들어가는게 맞는것 같습니다.
감사합니다!!
0
답변 2