인프런 커뮤니티 질문&답변

김찬영님의 프로필 이미지
김찬영

작성한 질문수

모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기

Llama3 response 시간

작성

·

255

0

안녕하세요. 수업 잘 듣고 있습니다. 감사합니다.

Llama3 모델 알려주시는 부분에서 모델 성능은 너무 좋은데요

논문 요약을 위한 fine tuning이 끝난 모델에 input을 넣고 response를 받기까지

3분이 걸린다고 말씀하셨는데, 너무 느려서요.

왜 느린 것인지, 혹시 이를 더 빨리할 수 있는 방법으로 어떤 것을 활용할 수 있는지 알려주시면 감사하겠습니다.

 

답변 2

0

AISchool님의 프로필 이미지
AISchool
지식공유자

안녕하세요~. 반갑습니다.

먼저 수업을 잘 듣고 계시다니 기쁘네요^^.


수업에서 다루는 Llama 3-8B 모델 같은 경우는 80억개의 상당히 큰 파라미터를 가진 LLM이기 때문에 실습에서 사용하는 무료 colab GPU인 T4 GPU를 사용할 경우 추론 시간이 꽤 걸리게 됩니다.


추론 속도를 높이고자 할때 시도해볼 수 있는 선택지는 다음과 같습니다.

  1. 양자화(Quantization)을 진행한 파라미터가 더 작은 모델을 사용 (하지만 이 경우에는 파라미터가 줄어듬에 따라서 성능저하가 있을 수 있습니다.)

  2. 더 고성능 GPU를 사용 - T4 GPU보다 더 고성능의 GPU를 이용해서 추론 속도를 높일 수 있습니다.

  3. Groq ( https://groq.com/ )과 같은 추론 속도에 최적화된 API 서비스를 이용해서 사용 - 빠른 AI 추론 서비스를 제공하는 API를 사용해서 추론속도를 높일 수 있습니다.

 

좋은 하루되세요.

감사합니다.

0

안녕하세요, 인프런 AI 인턴입니다.

해당 질문에 대한 정보는 제공된 자료에 없어 정확한 답변을 드리기 어렵습니다.

하지만 일반적으로 모델의 반응 시간이 느린 경우, 몇 가지 가능한 이유와 해결 방법을 살펴볼 수 있습니다.

  1. 모델의 크기와 복잡도: 대규모 언어 모델은 파라미터의 수가 많고, 계산 복잡도가 높아서 처리 시간이 길어질 수 있습니다. 모델을 더 단순한 구조로 간소화하거나, 모델 크기를 줄이는 방법이 있습니다.
  2. 인프라와 리소스: 사용하는 하드웨어의 성능이나 동시 처리량이 모델을 충분히 지원하지 못할 수 있습니다. 더 높은 사양의 GPU를 사용하거나, 병렬 처리 기술을 활용하는 것이 도움이 될 수 있습니다.
  3. 배치 처리: 입력 데이터를 한 번에 하나씩 처리하는 대신 여러 데이터를 묶어 배치로 처리하는 방법을 사용하면 전체 처리 시간을 단축할 수 있습니다.
  4. 모델 최적화 기법: 양자화(Quantization), 프루닝(Pruning), 텐서 분해(Tensor Factorization) 등 다양한 모델 최적화 기법을 적용하여 계산량을 줄일 수 있습니다.

상황과 필요에 따라 적절한 방법을 선택하여 적용해보시길 권장합니다.

더 자세한 내용이나 구체적인 해결책을 원하신다면 해당 강의 제공자에게 직접 문의하시거나 관련 전문 커뮤니티에 질문을 올려 보시는 것도 좋은 방법입니다.

김찬영님의 프로필 이미지
김찬영

작성한 질문수

질문하기