activation을 2번 해주는 이유?
352
86 asked
선생님 안녕하세요
좋은 강의 항상 감사드립니다.
5번째 주피터 노트북 파일, CIFAR10_Custom_CB_Filters_Decay 을 보면
x = Conv2D(filters=128, kernel_size=3, padding='same', kernel_regularizer=l2(1e-5))(x) x = Activation('relu')(x) x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)
이것 처럼 x = Activation('relu')(x) 을 2번씩 써 놓으신 곳이 있더라고요.
굳이 activation을 2번 하시는 이유가 있으신가요? 아니면 그냥 custom이 가능하다는 것을 보여주기 위해서 넣으신건가요? (즉, 이걸 지워도 모델 전체에 큰 영향은 없는건가요?)
감사합니다!
Answer 2
1
영상 보는 동안 계속 신경 쓰였는데.. 한번만 하면 되는게 맞군요.
그렇다면 저자리는
x = BatchNormalization()(x) 일것 같습니다.
ps- 혹시 저 처럼 궁금해서 찾아오시는 분들이 계실 듯하여....
resize 질문
0
49
1
20251212 Kaggle 런타임에 scikit-learn 설치 실패 트러블 슈팅
0
75
1
Loss와 매트릭 관계
0
61
2
Boston 코랩 실습
0
161
2
배치 정규화의 이해와 적용 2 강의 질문
0
134
2
Augmentation원본에 적용해서 데이터 갯수 자체를 늘리는 행위는 의미가있나요?
0
143
2
Conv함수 안에 activation 을 넣지 않는 이유가 뭔지 궁금합니다.
0
201
2
소프트맥스 관련 질문입니다
0
208
1
강의 관련 질문입니다
0
151
2
residual block과 identity block의 차이
0
183
2
옵티마이저와 경사하강법의 차이가 궁금합니다.
1
236
1
실습 환경
0
165
2
입력 이미지 크기
0
243
2
데이터 증강
0
194
2
albumentations ShiftScaleRotate
0
205
1
Model Input Size 관련
0
279
1
마지막에 bird -> frog 말고도 deer -> frog 도 잘못된것 아닌가요??
0
203
1
일반적인 질문 (kaggle notebook사용)
0
271
2
실무에서 Augmentation 적용 시
0
336
2
안녕하세요 교수님
0
230
1
가중치 초기화(Weight Initialization) 질문입니다.
0
324
1
테스트 데이터셋 predict의 'NoneType' object has no attribute 'shape' 오류
0
405
1
학습이 이상하게 됩니다.
2
1032
2
boston import가 안됩니다
0
224
1

