작성
·
232
0
위 코드에서는
# Prompt와 ChatModel을 chain으로 연결
document_chain = create_stuff_documents_chain(llm, prompt)
# Retriever를 chain에 연결
retriver_chain = create_retrieval_chain(retriever, document_chain)
response = retriver_chain.invoke({"input": message})
return response['answer']
를 통해서 답변을 구성했는데.
rag_chain = {'context':retriever, 'input': message} | rag_prompt | llm
위와같이 LECL 방식을 통한 response를 구성하고싶은데 어떻게 해야할까요?
답변 1
0
안녕하세요.
보내주신 코드 부분을 아래 코드와 같이 LCEL을 적용해서 처리할 수 있습니다.
여기서는 StrOutputParser
를 사용해서 모델 응답 메시지 중에서 텍스트만을 추출합니다.
from langchain_core.output_parsers import StrOutputParser
def format_docs(docs):
return '\n\n'.join([d.page_content for d in docs])
retriver_chain = prompt | llm | StrOutputParser()
response = retriver_chain.invoke({"input": message})
return response
한번 적용해보시고 추가적으로 궁금하신 점이 있으면 말씀해주세요.
감사합니다.