• 카테고리

    질문 & 답변
  • 세부 분야

    딥러닝 · 머신러닝

  • 해결 여부

    미해결

MNIST 데이터 DNN 학습시키는 반복문 안에 minibatch 관련 질문

23.04.16 16:53 작성 23.04.17 00:39 수정 조회수 259

0

       

# 질문 1.
  아래와 같이 model 안에 x_minibatch, y_minibatch를 넣고 학습을 시키는 과정인데
  결국 train_batches의 차원은 (375,128,1,28,28) # 48000/128=375
  x_minibatch 의 차원은 (128,1,28,28)
  여기서 model의 input의 차원은 (128,784) 가 맞을까요? 
  결국 한번 model 넣을 때마다 128개의 data가 학습되는 건가요? 
  DNNModel에는 input 차원이 (784,)인 1개의 데이터가 들어가서 output으로 (10,) 데이터를 
  출력한다고 알고있어서 조금 개념이 충돌하는 것 같습니다.

# 질문 2.
  train_batches의 type이 torch.utils.data 이라 shape을 알기 어려워 행렬 구조가 
  눈에 안들어오는데 따로 보는 방법이 있을까요? 


        model.train() # prep model for training
        for x_minibatch, y_minibatch in train_batches:
            y_minibatch_pred = model(x_minibatch.view(x_minibatch.size(0), -1))
            loss = loss_func(y_minibatch_pred, y_minibatch)

            optimizer.zero_grad()
            loss.backward()
            optimizer.step()
            train_loss += loss.item()
        
        train_loss = train_loss / len(train_batches)
        train_losses.append(train_loss)  

답변 1

답변을 작성해보세요.

0

안녕하세요. 답변 도우미입니다. 문의하신 부분에 대해 다음과 같이 답변드려요~

질문 1:

네, 맞습니다. 한 번에 128개의 데이터가 학습되는 것입니다. x_minibatch의 차원이 (128, 1, 28, 28)인데, x_minibatch.view(x_minibatch.size(0), -1)를 사용하여 (128, 784)로 차원을 변경합니다. 이렇게 하면 각 이미지가 784차원 벡터로 펼쳐집니다. 따라서 DNNModel의 입력 차원은 (128, 784)입니다. DNNModel은 한 번에 128개의 이미지를 처리할 수 있도록 설계되어 있으며, 출력 차원도 (128, 10)이 됩니다.

질문 2:

train_batches는 DataLoader 객체이므로, 직접적으로 shape을 확인할 수 없습니다. 그러나 DataLoader 객체는 데이터셋과 배치 크기 등을 기반으로 만들어진 것이므로, 이를 사용하여 데이터셋의 크기와 구조를 확인할 수 있습니다.

먼저, 데이터셋의 길이를 확인하려면 len(train_batches.dataset)을 사용할 수 있어요.

데이터셋의 샘플 하나의 shape을 알고 싶다면, train_batches.dataset[0][0].shape를 사용하면 됩니다. 이 경우, [0][0]은 데이터셋의 첫 번째 샘플의 입력 데이터를 나타냅니다.

마지막으로 배치 크기를 확인하려면 train_batches.batch_size를 사용하면 됩니다. 이러한 정보들을 조합하면 DataLoader 객체에 포함된 데이터의 전체 구조를 파악할 수 있습니다.

이 예에서 train_batches의 차원은 (375, 128, 1, 28, 28)으로 계산한 것처럼 얻어집니다.

감사합니다~

csg님의 프로필

csg

질문자

2023.04.17

자세한 답변 감사합니다 !