합성곱 층 구성
259
soxxun
投稿した質問数 12
0
1)
keras.layers.Dense(64, activation='relu')
keras.layers.Dense(10, activation='softmax')
위 코드에서 은닉층에서는 relu 함수를 사용하는 이유가 무엇인가요?!
2) 457p
predict로 첫 번째 샘플의 10개의 확률값을 예측하고 난 후,
preds = model.predict(val_scaled[0:1]) # (1,28,28,1)인 데이터
preds
그래프를 그릴 때,
plt.bar(range(1,11), preds[0])
plt.xlabel('class')
plt.ylabel('prob.')
plt.show()
왜 preds의 인덱스값이 0이 되나요...?
딥러닝
머신러닝 배워볼래요?
回答 1
0
안녕하세요.
은닉층에는 렐루 함수 같은 비선형 함수를 사용해야 합니다. 이에 대해서는 369페이지 설명을 참고하세요.
preds 배열의 첫 번째 원소(첫 번째 샘플의 결과)를 그래프로 그리기 위해서입니다.
감사합니다!
numpy의 shape
0
580
1
tfjs-node 안깔려서
0
1097
1
강의자료 요청드립니다!
0
536
1
하이퍼 파라미터 튜닝 범위
0
605
1
딥러닝 코드에 Batch Normalization 적용해보기 질문입니다
0
576
1
k-최근점 알고리즘 질문 입니다.
0
532
1
imdb
0
326
3
에포크값
0
210
1
심층 신경망 옵티마이저
0
288
1
군집화 전 시각화
0
205
1
KMeans
0
272
1
평균과 가까운 사진 고르기
0
246
1
분류 vs 회귀
0
177
1
경사하강법
0
213
1
로지스틱 회귀 (다중 분류)
0
435
3
polynomialFeatures 질문
0
182
1
그래프 그릴 때 선
0
208
1
질문이 있습니다!
0
193
1
features
0
140
1
딥러닝 공부
0
229
1
특성공학과 규제 강의 중 질문
0
301
1
로지스틱의 매개변수에 대해 질문이 있습니다.
0
323
1
사이킷런 input 2차원배열 관련 질문
0
638
1
프로그램 소스코드
0
369
1

