인프런 커뮤니티 질문&답변

김동현님의 프로필 이미지
김동현

작성한 질문수

모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기

Llama 2 Fine-Tuning을 위한 형태로 KorQuad 데이터셋 정제하기

KorQuad 데이터셋에서 context

작성

·

255

0

안녕하세요 강사님

KorQuad 데이터셋을 Llama2 모델에 활용하기 위해서 context는 제거를 하시고 단순하게 Q와 A로 구성된 데이터셋을 구성하였는데 context를 유지해서 학습하는 방법은 없어서 적용하는 건가요? 아니면 LLM의 학습에는 적합하지 않아서 사용하지 않는건가요?

GPT등의 모델을 파인튜닝 한다고 했을때도 context는 제거하는게 맞는 건가요??

답변 1

0

AISchool님의 프로필 이미지
AISchool
지식공유자

안녕하세요~. 반갑습니다.

 

KorQuad 데이터셋을 Llama2 모델에 활용하기 위해서 context는 제거를 하시고 단순하게 Q와 A로 구성된 데이터셋을 구성하였는데 context를 유지해서 학습하는 방법은 없어서 적용하는 건가요? 아니면 LLM의 학습에는 적합하지 않아서 사용하지 않는건가요?

->

context를 포함해서 학습을 진행하고 싶으시다면 context를 포함해서 데이터셋을 구성한뒤에 파인튜닝을 진행하시면 됩니다. LLM의 학습에 적합하지 않아서 사용하지 않은 것은 아닙니다.

 

GPT등의 모델을 파인튜닝 한다고 했을때도 context는 제거하는게 맞는 건가요??

->

context를 제거하느냐 제거하지않느냐는 최종적으로 학습이 끝난 LLM 모델을 사용할때 인풋 프롬프트가 어떤식으로 사용되느냐에 따라서 결정하시면 됩니다.

파인튜닝이 끝난 모델을 최종적으로 사용하는 시나리오에서 인풋 프롬프트에 context까지 같이 받아서 추론을 진행하는 상황을 가정하면 context를 포함해서 학습을 진행하시면 되고, 파인튜닝이 끝난 모델을 사용하는 시나리오에서 context를 제외하고 question만 받아서 추론을 진행하는 상황을 가정하면 context를 제거해서 학습을 진행하시면 됩니다.

 

좋은 하루되세요.

감사합니다.

 

김동현님의 프로필 이미지
김동현

작성한 질문수

질문하기