인프런 커뮤니티 질문&답변

Dopamine Um님의 프로필 이미지
Dopamine Um

작성한 질문수

모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기

PEFT 실습 4 - BLOOMZ Casual Language Modeling 모델에 Prompt Tuning 적용하기 (twitter_complaints 데이터셋)

PEFT 실습 4에서 training시작할때 out of memory가 발생합니다.

작성

·

239

0

PEFT 실습 4에서 training시작할때 out of memory가 발생합니다.

답변 1

0

AISchool님의 프로필 이미지
AISchool
지식공유자

안녕하세요~. 반갑습니다.

실습을 위해 제공드린 colab 코드에서 colab에서 무료로 사용할 수 있는 GPU 사양인 T4 GPU로 문제없이 학습이 진행되는 것을 확인하였는데요.

 

image

 

혹시 개인 GPU를 이용해서 학습중 Out of Memory 문제가 발생할 경우 아래 batch_size = 8 부분을

batch_size = 8

batch_size = 2와 같이 배치 사이즈를 더 작은 값으로 설정해서 트레이닝을 시도해보시기 바랍니다.

좋은 하루 되세요.

감사합니다.

Dopamine Um님의 프로필 이미지
Dopamine Um
질문자

혹시 batch_size랑 별개로, num_epochs 크기도 메모리에 영향이 있을까요?

num_epochs는 예제값 50보다 높거나 낮추면 정확도에만 영향이 가나요?

AISchool님의 프로필 이미지
AISchool
지식공유자

안녕하세요~.

num_epochs 크기는 메모리에 영향이 없고 정확도에만 영향이 가게됩니다.

좋은 하루되세요.

감사합니다.

Dopamine Um님의 프로필 이미지
Dopamine Um

작성한 질문수

질문하기