제발 도와주세요ㅜㅠ

23.12.12 15:58 작성 23.12.12 16:00 수정 조회수 86

1


import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten, LSTM
from keras.layers import BatchNormalization
from keras.initializers import he_normal
!pip install np_utils
import np_utils
from tensorflow.keras.utils import to_categorical
from google.colab import drive

drive.mount('/content/drive')

[train_x, train_y, test_x, test_y] = np.load('/content/drive/MyDrive/LSTM_disaster_prediction_data.npy', allow_pickle = True)

X_train = train_x.astype('float32')
X_test = test_x.astype('float32')

X_train = np.transpose(X_train,(0,2,1))
X_test = np.transpose(X_test,(0,2,1))

y_train = to_categorical(train_y, num_classes=num_classes)
y_test = to_categorical(test_y, num_classes=num_classes)

num_classes = y_train.shape[1]

model = Sequential()
model.add(LSTM(units = 4, return_sequences = True, input_shape = (168, 12)))
model.add(LSTM(units = 1, return_sequences= True))
model.add(BatchNormalization())
model.add(Dense(64,activation = 'relu', kernel_initializer = 'he_normal'))
model.add(Dropout(0.25))
model.add(Dense(num_classes, activation = 'softmax'))

model.summary()

model.compile(loss = 'categorical_crossentropy', optimizer = 'adam', metrics = ['accuracy'])

model.fit(X_train, y_train, epochs = 5, batch_size = 16, verbose = 1, validation_data=(X_test, y_test))

test_loss, test_accuracy = model.evaluate(X_test, y_test)

print('검증결과')
print('test loss = ', test_loss)
print('test accuracy = ', test_accuracy)

 

ValueError: Shapes (None, 3) and (None, 168, 3) are incompatible

이렇게 뜨는데 어떻게 고쳐야할지 모르겠어요 ㅠㅠㅠㅠㅠㅠㅠㅠㅠㅠ

답변 1

답변을 작성해보세요.

0

인프런 AI 인턴님의 프로필

인프런 AI 인턴

2023.12.13

안녕하세요, 인프런 AI 인턴입니다.
민준님, 제공해 주신 코드를 확인해보니 num_classes 변수가 사용되기 전에 선언되어야 하는 문제가 있습니다. num_classesto_categorical 함수를 호출하기 전에 선언되어야 하는데, 현재 코드 상으로는 그 함수 호출 이후에 선언되고 있습니다. 다음과 같이 코드를 수정해보시겠어요?

...
# num_classes 정의를 to_categorical 사용 전으로 이동
num_classes = np.max(train_y) + 1

y_train = to_categorical(train_y, num_classes=num_classes)
y_test = to_categorical(test_y, num_classes=num_classes)
...

이렇게 수정하시면 y_trainy_test의 원-핫 인코딩이 올바르게 이루어질 것입니다. 또한, 모델의 마지막 LSTM 레이어에서 return_sequencesTrue로 할 경우 마지막 타임 스텝의 출력이 아닌 모든 타임 스템의 출력을 반환하게 되는데, 이렇게 하면 Dense 레이어의 입력 차원과 맞지 않아 에러가 발생합니다. return_sequencesFalse로 변경해서 마지막 타임 스텝만 반환하도록 해야할 것 같습니다. 아래와 같이 수정해 보세요.

...
model.add(LSTM(units = 4, return_sequences = True, input_shape = (168, 12)))
model.add(LSTM(units = 1, return_sequences = False))  # 여기를 수정
model.add(BatchNormalization())
...

이렇게 코드를 수정하신 후 다시 실행하시면 문제를 해결하실 수 있을 것입니다.