인프런 커뮤니티 질문&답변

작성자 없음

작성자 정보가 삭제된 글입니다.

RAG를 활용한 LLM Application 개발 (feat. LangChain)

3.2 LangChain과 Chroma를 활용한 RAG 구성

LLM이 답변하지 못함

해결된 질문

작성

·

143

·

수정됨

0

스크린샷 2024-08-14 143743.png스크린샷 2024-08-14 143800.png스크린샷 2024-08-14 143810.png

 

코드도 동일하고 retrieved_docs 의 내용이 k값에 따라 강사님과 다르다고 쳐도,

ai_message = qa_chain({"query": query})

에서 LLM의 답변이

{'query': '연봉 5천만원인 거주자의 소득세는 얼마인가요?',
 'result': '해당 질문에 대한 정보는 주어진 문서에서 직접적으로 찾을 수 없습니다. 연봉 5천만원인 거주자의 소득세를 계산하려면 추가적인 세법 정보와 공제 항목 등을 고려해야 합니다. 정확한 소득세 금액은 세무 전문가나 관련 세무 계산기를 통해 확인하는 것이 좋습니다.'}

이렇게 나오는건 뭔가 잘못된건가요?

답변 1

0

강병진님의 프로필 이미지
강병진
지식공유자

데이터 전처리가 제대로 되지 않아서 발생하는 문제(?)입니다. 필요한 정보가 없으니 LLM은 사실 hallucination 없이 제대로 답변을 하는 거라고 보시면 됩니다.

 

계속 강의를 들으시면 3.5, 3.6강에서 답변을 찾으실 수 있을거에요!

작성자 없음

작성자 정보가 삭제된 글입니다.

질문하기