인프런 커뮤니티 질문&답변

작성자 없음

작성자 정보가 삭제된 글입니다.

RAG를 활용한 LLM Application 개발 (feat. LangChain)

3.2 LangChain과 Chroma를 활용한 RAG 구성

LLM이 답변하지 못함

해결된 질문

24.08.14 14:43 작성

·

107

·

수정됨

0

스크린샷 2024-08-14 143743.png스크린샷 2024-08-14 143800.png스크린샷 2024-08-14 143810.png

 

코드도 동일하고 retrieved_docs 의 내용이 k값에 따라 강사님과 다르다고 쳐도,

ai_message = qa_chain({"query": query})

에서 LLM의 답변이

{'query': '연봉 5천만원인 거주자의 소득세는 얼마인가요?',
 'result': '해당 질문에 대한 정보는 주어진 문서에서 직접적으로 찾을 수 없습니다. 연봉 5천만원인 거주자의 소득세를 계산하려면 추가적인 세법 정보와 공제 항목 등을 고려해야 합니다. 정확한 소득세 금액은 세무 전문가나 관련 세무 계산기를 통해 확인하는 것이 좋습니다.'}

이렇게 나오는건 뭔가 잘못된건가요?

답변 1

0

강병진님의 프로필 이미지
강병진
지식공유자

2024. 08. 14. 18:12

데이터 전처리가 제대로 되지 않아서 발생하는 문제(?)입니다. 필요한 정보가 없으니 LLM은 사실 hallucination 없이 제대로 답변을 하는 거라고 보시면 됩니다.

 

계속 강의를 들으시면 3.5, 3.6강에서 답변을 찾으실 수 있을거에요!

작성자 없음

작성자 정보가 삭제된 글입니다.

질문하기