Inflearn Community Q&A
relu 적용 두번
Written on
·
191
0
x = Conv2D(filters=128, kernel_size=3, padding='same', kernel_regularizer=l2(1e-5))(x) x = Activation('relu')(x) x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)
모델 만드시는데 이렇게 엑티베이션에 렐루적용을 2번이나 하는 이유가 있을까요??
머신러닝 배워볼래요? kaggletensorflow딥러닝kerascnn





감사합니다~