-
카테고리
-
세부 분야
딥러닝 · 머신러닝
-
해결 여부
미해결
합성곱 층 구성
22.04.09 20:40 작성 조회수 149
0
1)
keras.layers.Dense(64, activation='relu')
keras.layers.Dense(10, activation='softmax')
위 코드에서 은닉층에서는 relu 함수를 사용하는 이유가 무엇인가요?!
2) 457p
predict로 첫 번째 샘플의 10개의 확률값을 예측하고 난 후,
preds = model.predict(val_scaled[0:1]) # (1,28,28,1)인 데이터
preds
그래프를 그릴 때,
plt.bar(range(1,11), preds[0])
plt.xlabel('class')
plt.ylabel('prob.')
plt.show()
왜 preds의 인덱스값이 0이 되나요...?
답변을 작성해보세요.
0
박해선
지식공유자2022.04.10
안녕하세요.
은닉층에는 렐루 함수 같은 비선형 함수를 사용해야 합니다. 이에 대해서는 369페이지 설명을 참고하세요.
preds 배열의 첫 번째 원소(첫 번째 샘플의 결과)를 그래프로 그리기 위해서입니다.
감사합니다!
답변 1