강의

멘토링

커뮤니티

Cộng đồng Hỏi & Đáp của Inflearn

Hình ảnh hồ sơ của gyungyoonpark9378
gyungyoonpark9378

câu hỏi đã được viết

Hướng dẫn hoàn chỉnh về CNN Deep Learning - Phiên bản TFKeras

activation을 2번 해주는 이유?

Viết

·

334

0

선생님 안녕하세요

좋은 강의 항상 감사드립니다.

 

5번째 주피터 노트북 파일, CIFAR10_Custom_CB_Filters_Decay 을 보면

 

x = Conv2D(filters=128, kernel_size=3, padding='same', kernel_regularizer=l2(1e-5))(x) x = Activation('relu')(x) x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)

이것 처럼 x = Activation('relu')(x) 을 2번씩 써 놓으신 곳이 있더라고요.

굳이 activation을 2번 하시는 이유가 있으신가요? 아니면 그냥 custom이 가능하다는 것을 보여주기 위해서 넣으신건가요? (즉, 이걸 지워도 모델 전체에 큰 영향은 없는건가요?)

 

감사합니다!

 

 

kerastensorflow머신러닝 배워볼래요? 딥러닝kagglecnn

Câu trả lời 2

1

영상 보는 동안 계속 신경 쓰였는데.. 한번만 하면 되는게 맞군요.

그렇다면 저자리는

x = BatchNormalization()(x) 일것 같습니다.

ps- 혹시 저 처럼 궁금해서 찾아오시는 분들이 계실 듯하여....

nathan님의 프로필 이미지
nathan
Người đặt câu hỏi

아 그렇군요! 말씀해주신대로 단순히 빼는것이 아니라 x = BatchNormalization()(x) 이 들어가는게 맞는것 같습니다.

 

감사합니다!!

0

dooleyz3525님의 프로필 이미지
dooleyz3525
Người chia sẻ kiến thức

안녕하십니까,

아, 이게 실수입니다. 한번만 Activation 하시면 됩니다.

감사합니다.

Hình ảnh hồ sơ của gyungyoonpark9378
gyungyoonpark9378

câu hỏi đã được viết

Đặt câu hỏi