해결됨
RAG를 활용한 LLM Application 개발 (feat. LangChain)
2.1강에서 소개해주신 rlm/rag-prompt에 대해 궁금한 부분이 있습니다
Langchain에서 제공해주는 rag-prompt 기능에 대해 설명해주셨는데요 하나 궁금한게 LLM마다 prompt의 처리도 다를 것으로 생각되는데 prompt를 잘 만들어주는게 langchain 내부적으로 사용한 target model에 맞추어 최적화해주는건가요 ? 아니면 서로 다른 LLM이더라도 공통적으로 최적화된 prompt가 존재할 수 있는건가요 ?