인프런 영문 브랜드 로고
인프런 영문 브랜드 로고

인프런 커뮤니티 질문&답변

송정준님의 프로필 이미지
송정준

작성한 질문수

모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기

PEFT 실습 1 - RoBERTa Token Classification 모델에 LoRA 적용하기 (BioNLP2004 데이터셋)

Lora 기법 질문

작성

·

36

0

Lora 기법으로 인해서 전체 모델의 56%의 파라미터만 fine tuning에 사용됐다고 하는데, 로직 내에서 fine tuning하겠다고 결정하는 기준이 있는건가요?

답변 1

0

AISchool님의 프로필 이미지
AISchool
지식공유자

안녕하세요~. 반갑습니다.

먼저 답신이 늦어서 죄송합니다.


로직내에서 fine-tuning을 하겠다고 결정하는 기준이 있다는게 무슨 뜻인지 정확히 이해하지 못했습니다.


LoRA의 작동과정에 대해 다시 설명드리면 기존에 학습이 끝난 pre-trained Weight를 고정시켜놓고 저차원의 Low-rank로 분해된 새로운 최적화의 목적이되는 저차원의 Weight A,B를 새로 만들어서 새로 만든 Weight A,B를 최적화하면서 학습시키는 것입니다. (이때 새로 만든 Weight A,B의 차원이 작기 때문에 전체 파라미터를 재학습하는 것 대비 fine-tuning 할 파라미터의 양이 줄어드는 원리입니다.)

이때 새로 만든 weight A,B를 어느 레이어에 적용할지는 상황에 따라 다를수 있지만 기본적으로는 Transformer의 Attention Weight 쪽에 새로 만든 weight A,B를 적용합니다.

 

혹시 원래 질문하신 바에 대한 답변이 아니라면 좀더 구체적으로 말씀해주시면 다시 답변드리겠습니다~.

 

좋은 하루되세요.

감사합니다.

송정준님의 프로필 이미지
송정준

작성한 질문수

질문하기