• 카테고리

    질문 & 답변
  • 세부 분야

    딥러닝 · 머신러닝

  • 해결 여부

    미해결

합성곱 층 구성

22.04.09 20:40 작성 조회수 148

0

1)
keras.layers.Dense(64, activation='relu')
keras.layers.Dense(10, activation='softmax')
 
위 코드에서 은닉층에서는 relu 함수를 사용하는 이유가 무엇인가요?!
 
2) 457p
predict로 첫 번째 샘플의 10개의 확률값을 예측하고 난 후,
preds = model.predict(val_scaled[0:1]) # (1,28,28,1)인 데이터
preds
 
그래프를 그릴 때,
plt.bar(range(1,11), preds[0])
plt.xlabel('class')
plt.ylabel('prob.')
plt.show()
왜 preds의 인덱스값이 0이 되나요...?

답변 1

답변을 작성해보세요.

0

안녕하세요. 

은닉층에는 렐루 함수 같은 비선형 함수를 사용해야 합니다. 이에 대해서는 369페이지 설명을 참고하세요.

preds 배열의 첫 번째 원소(첫 번째 샘플의 결과)를 그래프로 그리기 위해서입니다.

감사합니다!