작성
·
315
·
수정됨
0
# 질문 1.
아래와 같이 model 안에 x_minibatch, y_minibatch를 넣고 학습을 시키는 과정인데
결국 train_batches의 차원은 (375,128,1,28,28) # 48000/128=375
x_minibatch 의 차원은 (128,1,28,28)
여기서 model의 input의 차원은 (128,784) 가 맞을까요?
결국 한번 model 넣을 때마다 128개의 data가 학습되는 건가요?
DNNModel에는 input 차원이 (784,)인 1개의 데이터가 들어가서 output으로 (10,) 데이터를
출력한다고 알고있어서 조금 개념이 충돌하는 것 같습니다.
# 질문 2.
train_batches의 type이 torch.utils.data 이라 shape을 알기 어려워 행렬 구조가
눈에 안들어오는데 따로 보는 방법이 있을까요?
model.train() # prep model for training
for x_minibatch, y_minibatch in train_batches:
y_minibatch_pred = model(x_minibatch.view(x_minibatch.size(0), -1))
loss = loss_func(y_minibatch_pred, y_minibatch)
optimizer.zero_grad()
loss.backward()
optimizer.step()
train_loss += loss.item()
train_loss = train_loss / len(train_batches)
train_losses.append(train_loss)
답변 1
0
안녕하세요. 답변 도우미입니다. 문의하신 부분에 대해 다음과 같이 답변드려요~
질문 1:
네, 맞습니다. 한 번에 128개의 데이터가 학습되는 것입니다. x_minibatch
의 차원이 (128, 1, 28, 28)인데, x_minibatch.view(x_minibatch.size(0), -1)
를 사용하여 (128, 784)로 차원을 변경합니다. 이렇게 하면 각 이미지가 784차원 벡터로 펼쳐집니다. 따라서 DNNModel의 입력 차원은 (128, 784)입니다. DNNModel은 한 번에 128개의 이미지를 처리할 수 있도록 설계되어 있으며, 출력 차원도 (128, 10)이 됩니다.
질문 2:
train_batches
는 DataLoader 객체이므로, 직접적으로 shape을 확인할 수 없습니다. 그러나 DataLoader 객체는 데이터셋과 배치 크기 등을 기반으로 만들어진 것이므로, 이를 사용하여 데이터셋의 크기와 구조를 확인할 수 있습니다.
먼저, 데이터셋의 길이를 확인하려면 len(train_batches.dataset)
을 사용할 수 있어요.
데이터셋의 샘플 하나의 shape을 알고 싶다면, train_batches.dataset[0][0].shape
를 사용하면 됩니다. 이 경우, [0][0]
은 데이터셋의 첫 번째 샘플의 입력 데이터를 나타냅니다.
마지막으로 배치 크기를 확인하려면 train_batches.batch_size
를 사용하면 됩니다. 이러한 정보들을 조합하면 DataLoader 객체에 포함된 데이터의 전체 구조를 파악할 수 있습니다.
이 예에서 train_batches의 차원은 (375, 128, 1, 28, 28)으로 계산한 것처럼 얻어집니다.
감사합니다~
자세한 답변 감사합니다 !