-
카테고리
-
세부 분야
컴퓨터 비전
-
해결 여부
미해결
relu 적용 두번
21.08.26 00:36 작성 조회수 126
0
x = Conv2D(filters=128, kernel_size=3, padding='same', kernel_regularizer=l2(1e-5))(x) x = Activation('relu')(x) x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)
모델 만드시는데 이렇게 엑티베이션에 렐루적용을 2번이나 하는 이유가 있을까요??
답변을 작성해보세요.
1
답변 1