작성자 없음
작성자 정보가 삭제된 글입니다.
해결된 질문
작성
·
143
·
수정됨
0
코드도 동일하고 retrieved_docs 의 내용이 k값에 따라 강사님과 다르다고 쳐도,
ai_message = qa_chain({"query": query})
에서 LLM의 답변이
{'query': '연봉 5천만원인 거주자의 소득세는 얼마인가요?',
'result': '해당 질문에 대한 정보는 주어진 문서에서 직접적으로 찾을 수 없습니다. 연봉 5천만원인 거주자의 소득세를 계산하려면 추가적인 세법 정보와 공제 항목 등을 고려해야 합니다. 정확한 소득세 금액은 세무 전문가나 관련 세무 계산기를 통해 확인하는 것이 좋습니다.'}
이렇게 나오는건 뭔가 잘못된건가요?
답변 1
0
데이터 전처리가 제대로 되지 않아서 발생하는 문제(?)입니다. 필요한 정보가 없으니 LLM은 사실 hallucination 없이 제대로 답변을 하는 거라고 보시면 됩니다.
계속 강의를 들으시면 3.5, 3.6강에서 답변을 찾으실 수 있을거에요!