model 코드 부분을 따라하다가 전 값이 이상해서요
83
投稿した質問数 3
강사님, 따라한 코드와 예제 코드를 실행시켰는데 값이 정상적으로 안나타나서 이유를 알고 싶습니다.
두 코드 모두 같은 내용인데요...
model = Sequential()
model.add(Embedding(vocab_size+1, 64))
model.add(Bidirectional(LSTM(64)))
model.add(Dense(64, activation='relu'))
model.add(Dense(1, activation='sigmoid'))
model.summary()model = Sequential([
Embedding(vocab_size + 1, 64), # 임베딩 레이어 추가 (어휘 크기 + 1, 임베딩 차원 64)
Bidirectional(tf.keras.layers.LSTM(64)), # 양방향 LSTM 레이어 추가 (유닛 수 64)
Dense(64, activation='relu'),
Dense(1, activation='sigmoid')
])
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.summary()제가 실행하면 값이 안나와서요...
강의를 끝까지 안봐서 그런걸까요?..따라치다 중간에 이상해서 강사님 파일도 불러왔는데 전 실행이 잘 안되서 왜 이렇게 나오는지 문의 드립니다.
실행결과 :
Model: "sequential_3"
┏━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━┓
┃ Layer (type) ┃ Output Shape ┃ Param # ┃
┡━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━┩
│ embedding_3 (Embedding) │ ? │ 0 (unbuilt) │
├─────────────────────────────────┼────────────────────────┼───────────────┤
│ bidirectional_3 (Bidirectional) │ ? │ 0 (unbuilt) │
├─────────────────────────────────┼────────────────────────┼───────────────┤
│ dense_6 (Dense) │ ? │ 0 (unbuilt) │
├─────────────────────────────────┼────────────────────────┼───────────────┤
│ dense_7 (Dense) │ ? │ 0 (unbuilt) │
└─────────────────────────────────┴────────────────────────┴───────────────┘
Total params: 0 (0.00 B)
Trainable params: 0 (0.00 B)
Non-trainable params: 0 (0.00 B)
回答 1
0
model = Sequential([
Embedding(vocab_size + 1, 64), # 임베딩 레이어 추가 (어휘 크기 + 1, 임베딩 차원 64)
Bidirectional(tf.keras.layers.LSTM(64)), # 양방향 LSTM 레이어 추가 (유닛 수 64)
Dense(64, activation='relu'),
Dense(1, activation='sigmoid')
])
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.build(input_shape=(None, max_length))
model.summary()tensorflow version이 upgrade 되면서 model.build 를 명시적으로 호출하도록 변경되어 나타난 현상입니다. 이렇게 수정하시면 parameter 갯수 나오고, 교재 원본도 수정해 놓겠습니다.
좋은 지적 감사합니다.
트랜스포머 FeedForward 관련 질문
0
69
2
파라미터갯수에대한질문(030_IMDB_movie_reviews)
0
60
1
Transformer 번역기 분석 - Part1 따라치기 질문
0
69
2
Encoder-Decoder 질문 드립니다.
0
71
2
서적 추천
0
75
1
NLP와 LLM의 차이점
0
550
2
encoder-decoder model 질문입니다.
1
73
1
구글번역기에 대해서 궁금한점이 있습니다.
0
122
2
로드맵에대해서...
0
119
2
Bag of Word (BOW)와TF-IDF시 대명사인 I의행방
0
94
2
강의 교재 최신화 요청
0
142
4
self-attention에서 Wq, Wk, Wv weight matrix 학습과정 질문드립니다.
0
189
3
코랩 환경 설정할 때 질문이 있습니다.
0
248
1
transformer 훈련 마친 모델 공유 가능할까요?
0
216
2
130_Transformer.ipynb transformer.summary() 에러
0
182
2
강사님 궁금한게 있어 문의 드립니다.
0
128
1
강사님 Tensorflow 실습코드 중 궁금한 점이 있습니다.
0
124
1
패딩과 관련한 질문 드립니다.
0
171
1
Encoder Decoder 부터 Simple Chatbot까지 이상답변
0
218
1
seq2seq 모델
0
323
1
강의 내용중 질문있습니다.
0
197
1
Transformer 번역기 부분에 대해 질문 있습니다.
0
212
1
320_Custom_Sentiment_Analysis_navermovie.ipynb 실행 시 오류 납니다.
0
314
2
201_classify_text_with_bert_tfhub_Kor.ipynb 오류
0
342
2

