🤍 전 강의 25% 할인 중 🤍

2024년 상반기를 돌아보고 하반기에도 함께 성장해요!
인프런이 준비한 25% 할인 받으러 가기 >>

  • 카테고리

    질문 & 답변
  • 세부 분야

    컴퓨터 비전

  • 해결 여부

    미해결

relu 적용 두번

21.08.26 00:36 작성 조회수 126

0

x = Conv2D(filters=128, kernel_size=3, padding='same', kernel_regularizer=l2(1e-5))(x) x = Activation('relu')(x) x = Activation('relu')(x) x = MaxPooling2D(pool_size=2)(x)
모델 만드시는데 이렇게 엑티베이션에 렐루적용을 2번이나 하는 이유가 있을까요??

답변 1

답변을 작성해보세요.

1

안녕하십니까, 

오타입니다. 한번만 적용해 주시면 됩니다. 

감사합니다. 

박우성님의 프로필

박우성

질문자

2021.08.26

감사합니다~

채널톡 아이콘