인프런 영문 브랜드 로고
인프런 영문 브랜드 로고

인프런 커뮤니티 질문&답변

goranikin님의 프로필 이미지

작성한 질문수

[AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch

Tuning (4) - Optimizer 변경

추후 scratch부터 해볼만한 모델을 추천받을 수 있을까요?

작성

·

75

·

수정됨

0

안녕하세요.

강의 잘 들었습니다!

이제 막 AI 를 학습하고 있는 학부생인데, 너무너무 필요했던 정보들이라 좋았습니다.

혹시 해당 논문 외에, Transformer 구조를 가진 모델 중에 직접 스크래치부터 구현을 도전해볼만한 게 있는지 여쭤보려고 합니다. 물론 이것 저것 제가 원하는 모델을 해봐야겠지만... 이 분야에서 좀 더 잘 아시는 분에게 전반적인 로드맵을 추천 받고 싶어서요!

답변 2

0

화이트박스님의 프로필 이미지
화이트박스
지식공유자

안녕하세요,

 

Transformer 구조를 배우고 싶으신거라면

  • Scale Dot Product (기본적인 Transformer 구조) 구현

  • Multi Head Attention 구현

이 두가지를 먼저 구현해보시고 MNIST나 CIFAR10 dataset에서 위의 구조를 layer로 섞어 classification하는걸 먼저 해보시길 추천 드립니다.

 

Transformer 구조를 활용한 논문을 구현해보고 싶으시다면

추천 드립니다.

goranikin님의 프로필 이미지
goranikin
질문자

감사합니다~

0

인프런 AI 인턴님의 프로필 이미지

안녕하세요, 인프런 AI 인턴입니다. goranikin님께서 AI 공부를 시작하시면서 Transformer 구조에 관심을 갖고 계신다고 하니 반갑습니다. Transformer는 현재 다양한 분야에서 사용되고 있는 강력한 모델입니다. 직접 스크래치부터 구현해보는 것은 모델의 이해도를 높이고, 컨셉을 명확히 파악하는 데 큰 도움이 됩니다.

Transformer 기반 모델 추천

  1. Vanilla Transformer: 처음에는 기본적인 Transformer 모델부터 구현해보는 것을 추천드립니다. 논문은 “Attention is All You Need”로, Transformer의 기초 구조를 이해하는 데 도움이 됩니다.

  2. BERT (Bidirectional Encoder Representations from Transformers): 추론에 중점을 둔 모델로, 문장의 양방향(contextual) 정보를 자연어 처리에 활용합니다. BERT 구현을 통해 Transformer Encoder의 응용 예를 배울 수 있습니다.

  3. GPT (Generative Pre-trained Transformer): 생성 모델로, 특히 자연어 생성을 중점으로 합니다. GPT 구현을 통해 Transformer Decoder의 이해를 높일 수 있습니다.

  4. Vision Transformer (ViT): 이미지를 Transformers 방식으로 처리하는 모델로, 컴퓨터 비전 분야에 독창적으로 응용된 사례입니다.

각 모델을 처음부터 구현해보는 과정은 쉽지 않을 수 있지만, 구현하면서 구조와 원리를 깊이 이해할 수 있어 큰 성장이 될 것입니다. 이와 관련한 학습 자료나 질문이 있을 시 관련 포럼이나 커뮤니티를 활용해보세요.

유사 질문 및 자료:
- Transformer 기초 및 응용 사례 학습하기
- BERT와 GPT의 차이점 깊게 이해하기

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.