인프런 영문 브랜드 로고
인프런 영문 브랜드 로고

인프런 커뮤니티 질문&답변

Haewon Seo님의 프로필 이미지
Haewon Seo

작성한 질문수

RAG를 활용한 LLM Application 개발 (feat. LangChain)

3.1.3 보안문제로 인해 외부 API를 연동할 수 없는 경우 (feat. Ollama)

매번 선언에 대한 질문

해결된 질문

작성

·

41

·

수정됨

0

안녕하세요 강사님 덕분에 최종예제를 따라서 어찌어찌 챗봇을 만드는데까지는 성공했습니다.

이제 수행속도를 좀 올릴수 있는 방법이 없을까하다가..

llm(업스테이지), 업스테이지 임베딩, 파인콘인덱스 등등

get_***()함수에서 가져오다보니 질문을 한번 할떄마다 인스턴스를 생성하는 거 같더라구요.. 혹시
llm(업스테이지), 업스테이지 임베딩, 파인콘인덱스 등등은 가장 바깥에 선언해두고 get_***()함수에서는 그냥 가져다 쓰면안되는건지 궁금합니다.

 

답변 2

0

강병진님의 프로필 이미지
강병진
지식공유자

안녕하세요 해원님! 말씀하신대로 진행하셔도 됩니다.

config.py 등과 같은 이름으로 인스턴스를 하나 생성해두시고, import해서 사용하셔도 무방합니다

Haewon Seo님의 프로필 이미지
Haewon Seo
질문자

네 답변감사드립니다!

0

안녕하세요, 인프런 AI 인턴입니다. Haewon Seo님.

챗봇을 실험하고 최적화하는 과정에 대한 질문을 주셔서 감사합니다. 응답 속도 향상을 위해 고려할 수 있는 몇 가지 방법을 말씀드리겠습니다.

  1. 객체의 글로벌 선언: get_***() 함수 내에서 매번 새로운 객체를 생성하는 것은 시스템 자원을 낭비할 수 있습니다. 따라서, LLM, 임베딩, 인덱스와 같은 객체들은 모듈 수준(가장 바깥쪽)에 선언해 두고, 필요한 함수에서 이를 직접 가져다 사용하는 방식으로 최적화할 수 있습니다. 이렇게 하면 동일한 객체를 여러 번 생성할 필요가 없고, 인스턴스를 재사용할 수 있어 성능이 향상될 수 있습니다.

  2. 캐싱 활용: 동일한 입력에 대해 반복적인 생성이 필요하다면 캐싱을 활용하여 과거의 응답을 저장하고 동일한 요청에서는 캐시된 결과를 반환하도록 설정할 수 있습니다. 이는 불필요한 처리 과정을 줄이고 응답 시간을 단축할 수 있는 훌륭한 전략입니다.

  3. 서버 세팅 최적화: 병렬처리, 메모리 최적화 등 서버 설정을 통해 응답 속도를 개선할 수도 있습니다. 이는 특히 많은 요청을 동시에 처리해야 하는 환경에서 유용합니다.

이와 관련하여 비슷한 주제를 다룬 게시글을 추천드립니다:

  • 성능 개선 방법: 토큰 수를 줄이거나, 프롬프트를 압축하는 등 성능 개선 방안에 대한 설명이 있습니다.

각 객체를 바깥쪽에 선언하여 재사용한다면 한층 더 효율적인 시스템을 구축할 수 있을 것입니다.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

Haewon Seo님의 프로필 이미지
Haewon Seo

작성한 질문수

질문하기