인프런 영문 브랜드 로고
인프런 영문 브랜드 로고

인프런 커뮤니티 질문&답변

kjyn0124님의 프로필 이미지
kjyn0124

작성한 질문수

[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지

패션 아이템 생성 - 생성적 적대 신경망(GAN)

AutoEncoder 차원 질문

작성

·

109

1

안녕하세요! 오토인코더 구현 중 질문이 있어서 글을 남기게 되었습니다.

class AutoEncoder(nn.Module):

  def __init__(self):
    super().__init__()

    k = 16
    self.encoder = nn.Sequential(
        nn.Conv2d(1, k, 3, stride=2),
        nn.ReLU(),
        nn.Conv2d(k, 2*k, 3, stride=2),
        nn.ReLU(),
        nn.Conv2d(2*k, 4*k, 3, stride=1),
        nn.ReLU(),
        nn.Flatten(),
        nn.Linear(1024, 10),
        nn.ReLU()
    )

    self.decoder = nn.Sequential(
        nn.Linear(10, 1024),
        nn.ReLU(),
        nn.Unflatten(1, (4*k, 4, 4)),
        nn.ConvTranspose2d(4*k, 2*k, 3, stride=1),
        nn.ReLU(),
        nn.ConvTranspose2d(2*k, k, 3, stride=2),
        nn.ReLU(),
        nn.ConvTranspose2d(k, 1, 3, stride=2, output_padding=1)
    )

여기에서 nn.Linear(1024, 10), nn.ConvTranspose2d(k, 1, 3, stride=2, output_padding=1)에 질문이 있습니다.

채널 수를 직접 맞춰주는 것이 아니라 반환 받아서 그 값을 nn.Linear(이 부분, 10)에 넣어주고 싶은데 gpt 한테 물어보니까 그러려면 이렇게 직접 구해서 add_module을 해줘야 한다던데...

정말 이런 방법 뿐인지ㅜㅜ 매번 채널수를 직접 구해야 하는 것인지 궁금합니다!

def __init__(self, input_shape=(1, 28, 28)):
    super().__init__()

    k = 16
    self.encoder = nn.Sequential(
        nn.Conv2d(1, k, 3, stride=2),
        nn.ReLU(),
        nn.Conv2d(k, 2*k, 3, stride=2),
        nn.ReLU(),
        nn.Conv2d(2*k, 4*k, 3, stride=1),
        nn.ReLU(),
        nn.Flatten(),
    )
    self.latent_dim = self.get_encoder_dim()
    self.encoder.add_module('linear', nn.Linear(self.latent_dim, 10))
    self.encoder.add_module('relu', nn.ReLU())

def get_encoder_dim(self):
    x = torch.randn(1, self.input_shape)
    x = self.encoder(x)
    return x.view(1, -1).size(1)

nn.ConvTranspose2d(k, 1, 3, stride=2, output_padding=1) 여기에서도 output_padding=1이 필요한지 알기 위해서는 직접 계산을 다 해봤어야 하는 것인데.. 이것도 위의 경우와 마찬가지로 직접 구하는 방법 뿐인지 알고 싶습니다!

감사합니다!

답변 2

0

딥러닝호형님의 프로필 이미지
딥러닝호형
지식공유자

안녕하세요.

일반적으로 딥러닝 모델 구현할 때 타겟 데이터가 정해져 있기 때문에 가변 가능한 채널을 구현 하지는 않습니다.

하지만 다양한 데이터 세트에 대해서 동일 모델로 직접 튜닝없이 사용하고 싶다면

fully-connected layer 전에 global average pooling을 사용하는 방법도 있습니다 :)

 

https://www.inflearn.com/questions/1099911/comment/302325

 

감사합니다.

 

딥러닝호형 드림

0

안녕하세요, 인프런 AI 인턴입니다. kjyn0124님의 질문에 대해 답변드리겠습니다.

질문 주신 내용은 크게 두 부분으로 나누어 볼 수 있습니다. 첫째는 오토인코더 모델에서 nn.Linear 층의 입력 차원 수를 동적으로 계산하는 방법에 관한 것이고, 둘째는 nn.ConvTranspose2d 층에서 output_padding의 필요성과 계산법에 대한 부분입니다.

첫 번째 질문에 대한 답변으로는, 모든 입력 이미지에 대해 고정된 출력 차원을 얻기 위해서는 레이어 사이의 차원 수를 미리 계산하고 코드에 직접 지정해주는 일반적인 방법 외에, nn.Module의 forward 메서드 내에서 입력 이미지 크기에 기반해 동적으로 차원 수를 계산해주는 방법이 있습니다. 이렇게 하면 모델 정의 시점에 정확한 입력 차원 수를 몰라도 됩니다. 하지만 정적 그래프 기반의 프레임워크에서는 이러한 동적 계산이 어려울 수 있기 때문에 PyTorch와 같은 동적 그래프 프레임워크에서 주로 사용됩니다.

한편, 귀하께서 다룬 두 번째 문제인 nn.ConvTranspose2d의 output_padding의 필요성은 역 컨볼루션(Transposed Convolution) 연산 후 출력 이미지의 크기를 결정하는 데 사용됩니다. 정방향 컨볼루션에서는 패딩(padding)을 주로 사용하여 입력 이미지의 차원을 조절하지만, 역 컨볼루션에서는 출력 차원을 미세 조정하기 위해 output_padding을 사용할 수 있습니다. 이는 정방향 컨볼루션에서의 패딩(padding)과는 반대 개념입니다. 적절한 output_padding 값을 설정함으로써 원하는 크기의 출력 이미지를 얻을 수 있지만, 실제로 적용해보지 않고서는 그 결과를 예측하기 어려울 수 있습니다.

관련하여 이전에 질문하셨던 다른 수강생의 유사한 질문과 지식공유자의 답변을 참고하실 수 있습니다. 다만, 직접적으로 비슷한 내용의 질문과 답변을 찾진 못했으나, PyTorch에서 오토인코더를 구현하는 방법론에 대해 이해를 돕는 자료는 다음과 같습니다:

이 자료에서는 nn.Linear의 차원 설정 방식에 대해 설명하고 있지 않지만, 오토인코더 구현의 전체적인 맥락을 이해하는 데 도움이 될 수 있습니다. 오토인코더 구축 시, 특히 decoder 부분에서 기대하는 출력 크기를 얻기 위해 어떤 전략을 사용해야 할지에 대한 일반적인 이해를 돕는 내용입니다.

질문자님의 경우, nn.Linear와 nn.ConvTranspose2d의 파라미터를 동적으로 계산하는 구체적인 코드 예제가 필요하다면, PyTorch의 관련 문서나 동적 계산을 지원하는 방법을 공식 커뮤니티나 스택오버플로우에서 추가로 검색할 것을 추천드립니다.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

kjyn0124님의 프로필 이미지
kjyn0124

작성한 질문수

질문하기