인프런 영문 브랜드 로고
인프런 영문 브랜드 로고

인프런 커뮤니티 질문&답변

Gahee Kim님의 프로필 이미지

작성한 질문수

RAG를 활용한 LLM Application 개발 (feat. LangChain)

chroma vector db 생성에서 오류

해결된 질문

작성

·

78

0

안녕하세요. 지금 Chroma.from_documents(documents=document_list, embedding=embedding) 이 부분에서 에러가 나서 질문 드립니다.

개발 환경은 vscode에서 jupyter notebook 가상환경 만들어서 사용 중입니다.

사내에서 공부 중이라 drm으로 인해 txt 파일로 변경을 했고, ollama를 사용해서 embedding model을 생성했습니다. mxbai-embed-large 이 모델을 사용했고요.

일단 소요 시간이 너무 오래 걸립니다. 그리고 1시간이 넘어가고는 canceled future for execute_request message before replies were done 이 에러가 뜨더라고요. 그래서 python으로 작성을 했더니 2시간 정도 걸리니까 생성은 되더라고요. 이건 좀 아닌 거 같아서 질문 드립니다. 혹시 왜 이런지 아실까요?

답변 2

0

Gahee Kim님의 프로필 이미지
Gahee Kim
질문자

GPU가 있는 PC이고, cuda도 설치한 상태입니다. 혹시 다른 이유는 없을까요?

강병진님의 프로필 이미지
강병진
지식공유자

음 그런 상황이시면

  1. 쿠다가 잘 인식되는지 먼저 확인해보시고

  2. 쿠다가 잘 인식된다면 ollama가 gpu를 잘 쓰는지를 확인해보시고

  3. ollama가 gpu를 잘 쓰고 있다면 메모리를 한번 확인해보셔야 할 것 같습니다

 

혹시 문서 용량은 어느정도 되나요?

 

Gahee Kim님의 프로필 이미지
Gahee Kim
질문자

돌아가는거 확인했어요 1분이 넘어가길래 안되는줄 알았는데 1분40초 걸리네요 답변주셔서 감사합니당

0

강병진님의 프로필 이미지
강병진
지식공유자

안녕하세요,

Jupyter에서 발생하는 "canceled future" 에러는:

  • Jupyter의 기본 타임아웃 설정 때문일 가능성이 높습니다

  • 긴 실행 시간을 요구하는 작업에서 자주 발생하는 문제입니다

그리고 소요시간이 오래걸리는 건 GPU가 없기 때문일 가능성이 높습니다. 경험상 ollama에 있는 임베딩 모델들은 한국어 대상으로 성능이 좋지 않아서, 학습 목적이시라면 더 작은 임베딩 모델을 사용해보시는 걸 추천드립니다.