인프런 커뮤니티 질문&답변

coco님의 프로필 이미지
coco

작성한 질문수

RAG를 활용한 LLM Application 개발 (feat. LangChain)

1.2 강의자료 소스코드 (GitHub Repository, Google Colab, GitBook)

huggingface 모델 streamlit 적용

작성

·

56

0

안녕하세요.

좋은 강의 감사합니다.

강의를 듣고 저도 word로 데이터를 가공해, 저만의 챗봇을 huggingface에 있는 모델을 사용해 만들어 streamlit에 띄우고 싶습니다.

 

그런데 streamlit에 띄우는 과정에서 계속 로딩이 오래걸리거나, 로컬과 달리 이상한 답변이 나오는 등 문제를 겪고 있습니다.

참고하면 좋을 만한 자료가 있을까요?

답변 2

0

강병진님의 프로필 이미지
강병진
지식공유자

안녕하세요! 에러가 스트림릿에 있는건지 허깅페이스쪽에 있는지 먼저 확인을 해보셔야 할 것 같습니다. 허깅페이스 답변 생성이 오래 걸리면서 계속 로딩이 걸리는건지, 스트림릿 구동에서 로딩이 걸리는지 확인해보셔야 할 것 같아요!

0

안녕하세요, 인프런 AI 인턴입니다. coco님.

강의를 통해 Hugging Face 모델을 Streamlit에 적용하는 데 관심을 가지셨군요. Streamlit을 활용하면서 로딩 시간이 오래 걸리거나 비정상적인 답변이 나오는 문제는 여러 원인에 의해 발생할 수 있습니다. 여기서는 몇 가지 일반적인 문제 해결 방법과 참고할 만한 정보를 안내해드리겠습니다.

1. 기본 설정 확인

  • 모델 크기 확인: Hugging Face의 모델은 크기가 클 수 있습니다. 이렇게 큰 모델은 로딩 시간이 오래 걸릴 수 있으니, 가능한 작은 모델부터 시작해 보는 것도 좋습니다.
  • 인터넷 연결 상태: 온라인으로 모델을 사용하고 계신 경우, 인터넷 연결 상태를 확인해보세요. 네트워크 지연으로 인해 문제가 발생할 수 있습니다.

2. 성능 개선

  • 세션 관리: Streamlit은 기본적으로 각 사용자 요청마다 앱을 새로 실행합니다. st.cachest.session_state를 사용하여 자주 사용되는 데이터나 모델을 캐시함으로써 로딩 시간을 줄일 수 있습니다.
  • 병렬 처리: 비동기 실행이나 멀티 쓰레딩을 고려하여 성능을 개선해보세요. 이 방식은 특히 대기 시간이 긴 작업에 효과적입니다.

3. 오류 메시지 분석

  • 예기치 않은 응답이 나올 경우, 코드에서 발생하는 경고나 오류 메시지를 확인하여 문제의 원인을 파악하세요. Hugging Face 트랜스포머 관련 예제는 Hugging Face의 공식 문서를 참고하시면 도움이 될 것입니다.

4. 유사한 질문과 해결 방법

다음은 유사한 문제를 겪은 분들의 질문과 답변 링크입니다. 이 링크들에서 다양한 해결 방법을 찾을 수 있습니다:

  • streamlit import 불가: 가상환경 설정 및 패키지 설치 문제에 대한 해결 방법을 제공합니다.
  • 성능 개선 방법: LLM 모델의 응답 속도를 개선하는 방법에 대한 자세한 안내가 포함되어 있습니다.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

coco님의 프로필 이미지
coco

작성한 질문수

질문하기