묻고 답해요
150만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
순위 정보를
불러오고 있어요
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
SSLCertVerificationError 오류 관련
안녕하세요 수강 중에 아래와 같이 관련된 오류가 계속 노출되어 진행이 되지 않아 질문 드립니다.from langchain import hub prompt = hub.pull('rlm/rag-prompt') 를 호출 시 아래와 같이 SSLCertVerificationError 가 나타나고 있습니다. Failed to get info from https://api.smith.langchain.com: LangSmithConnectionError('Connection error caused failure to GET /info in LangSmith API. Please confirm your internet connection. SSLError(MaxRetryError("HTTPSConnectionPool(host=\'api.smith.langchain.com\', port=443): Max retries exceeded with url: /info (Caused by SSLError(SSLCertVerificationError(1, \'[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certificate chain (_ssl.c:992)\')))"))\nContent-Length: None\nAPI Key: ')내용을 보면 api.smith.langchain.com 에 연결 시 인증서 문제로 접속이 불가하다라는 내용 같은데요, 해당 관련하여 비슷한 오류를 겪으신 분들 어떻게 해결하셨는지 궁금합니다. 답변 부탁 드리겠습니다. 감사합니다
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
소득세법 파일
처음에 어떤프로그램으로 열고 다시 세이브할때 어떻게 하나요?word 읽기기능만 있도록 해서 리드했는데 다시 세이브 기능은 비활성화 됩니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
단순히 LLM에 여러번 질문 하는데에도 Langchain이 도움이 될까요?
현재 대화를 분석하는 프로젝트를 진행하면서 LLM을 사용중인데 답변 퀄리티를 높이기 위한 방법을 모색하다 강의를 보게 되었습니다 ! 강의 내용이 대부분 제가 모르고 있던 것들이어서 많은 도움이 되었습니다. 그런데 제가 해결해야할 상황은 강의 내용과 다르게 참고할만한 특정 정보가 있는 것이 아닌 일상적인 여러 상황의 대화를 분석하는 프로젝트이다보니 Langchain이나 Chroma 또는 Pinecone 까지 사용해야 할지가 의문입니다. 지금 생각중인 흐름은답변 작성 규칙 과 대화 텍스트를 LLM 에 전달해서 답변을 전달 받고답변과 유저 질문을 함께 다시 LLM 에 전달해서 답변 내용을 토대로 유저 질문에 답변이 구조를 생각중인데, 이렇게 LLM에 질문, 답변받은 내용을 가지고 다시 질문 하는데에도 Langchain이나 embedding을 사용하는 것이 답변 퀄리티 향상에 도움을 주는지 궁금합니다 ! 강의 잘 들었습니다. 감사합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
pinecone 에 document 가 중복으로 저장이 되나요?
document list 를 pinecone 에 넣는 코드를 실행해서 콘솔에 변경된 것을 확인했습니다.그다음에 document 추가하는 코드를 주석하는 것을 까먹고, 한번 더 실행했는데, 이러면 동일 데이터가 추가로 저장 되는 건가요?감사합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
RetrievalQA is Deprecated
RetrievalQA 가 0.1.17 버전 이후로 Deprecated 되었다고 마이그레이션 가이드를 보고 다음과 같이 바꿨습니다.from langchain import hub from langchain.chains import create_retrieval_chain from langchain.chains.combine_documents import create_stuff_documents_chain retrieval_qa_chat_prompt = hub.pull("langchain-ai/retrieval-qa-chat") combine_docs_chain = create_stuff_documents_chain(llm, retrieval_qa_chat_prompt) rag_chain = create_retrieval_chain(database.as_retriever(), combine_docs_chain) rag_chain.invoke({"input": query})위 예시는 잘 작동하는데, rml/rag-prompt 를 사용하면,KeyError: "Input to ChatPromptTemplate is missing variables {'question'}. Expected: ['context', 'question'] Received: ['input', 'context']\nNote: if you intended {question} to be part of the string and not a variable, please escape it with double curly braces like: '{{question}}'.\nFor troubleshooting, visit: https://python.langchain.com/docs/troubleshooting/errors/INVALID_PROMPT_INPUT "가 발생하는데, template 의 placeholder 의 형태가 달라서인것 같은데, 어떻게 키값을 설정해야 하나요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
chatbot에 이전 답변 내역이 나타나지 않을 때 어떻게 해야할까요?
강의를 따라서 만들어 봤는데요..ㅠㅠ이전 질문한 항목의 답변이 남질 않는데 어떻게 해야할까요?여러가지 시도해보다가 강사님 코드로 붙여넣기해서 다시 한번 돌려봤는데도 문제가 동일하게 발생합니다..
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
LangSmith Evaluator로 Ollama 모델 설정
강의 전반을 개인 데스크탑에 도커를 설치하여 Ollama에 한국어로 파인튜닝된 llama3.2 모델을 사용하였었습니다.streamlit으로 만든 프로젝트도 문제없이 돌아갔었는데,Langsmith에서 Evaluator로 해당 모델을 설정하니 아래와 같은 에러가 나옵니다.langsmith에서는 ollama 모델로 평가를 할 수 없는건가요?ollama._types.ResponseError: llama3.2-ko does not support tools Error running evaluator <DynamicRunEvaluator answer_hallucination_evaluator> on run 38c51823-def2-4eb1-8347-c019874622eb: KeyError('contexts') Traceback (most recent call last): File "E:\PythonProject\rag_streamlit\.venv\Lib\site-packages\langsmith\evaluation\_runner.py", line 1573, in _run_evaluators evaluator_response = evaluator.evaluate_run( ^^^^^^^^^^^^^^^^^^^^^^^ File "E:\PythonProject\rag_streamlit\.venv\Lib\site-packages\langsmith\evaluation\evaluator.py", line 331, in evaluate_run result = self.func( ^^^^^^^^^^ File "E:\PythonProject\rag_streamlit\.venv\Lib\site-packages\langsmith\run_helpers.py", line 617, in wrapper raise e File "E:\PythonProject\rag_streamlit\.venv\Lib\site-packages\langsmith\run_helpers.py", line 614, in wrapper function_result = run_container["context"].run(func, *args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Temp\ipykernel_10064\4107259675.py", line 12, in answer_hallucination_evaluator contexts = run.outputs["contexts"] ~~~~~~~~~~~^^^^^^^^^^^^ KeyError: 'contexts' Error running evaluator <DynamicRunEvaluator answer_evaluator> on run 4a5e6612-1a97-4efc-9da4-ee0b4f113b70: ResponseError('llama3.2-ko does not support tools') # Prompt # hallucination 판단을 위한 프롬프트 grade_prompt_hallucinations = prompt = hub.pull("langchain-ai/rag-answer-hallucination") def answer_hallucination_evaluator(run, example) -> dict: """ hallucination 판단을 위한 Evaluator """ # 데이터셋에 있는 질문과, LLM이 답변을 생성할 때 사용한 context를 활용 input_question = example.inputs["input_question"] contexts = run.outputs["contexts"] # LLM의 답변 prediction = run.outputs["answer"] # LLM Judge로 사용될 LLM llm = ChatOllama( model="llama3.2-ko", base_url=os.getenv("LLM_BASE_URL"), temperature=0 ) # LLM 응답을 위한 LCEL 활용 # 3.6 `dictionary_chain`의 `prompt | llm | StrOutputParser()`` 의 구조와 유사함 answer_grader = grade_prompt_hallucinations | llm # Evaluator 실행 score = answer_grader.invoke({"documents": contexts, "student_answer": prediction}) score = score["Score"] return {"key": "answer_hallucination", "score": score}코드는 llm 부분만 ChatOllama를 사용하고 나머지 부분은 모두 동일합니다
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
강의 4.2 에서 langchain 코드 붙여 넣을 때,
이전에 했던 langchain 코드를 chat.py에 붙여 넣는데, 조금 따라가기가 어려운것 같습니다.. 혹시 코드 공유가 가능하실까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
강의자료 재업로드 요청드립니다.
다른분 질문 답변에 링크로 올려주셨는데 오류가 나타나 다시 재 업로드 요청드립니다
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
LLM Evaluation에 LangSmith말고 사용할 수 있는 오픈소스가 있을까요?
아무래도 유료 서비스가 편리하겠지만 적당하게 무료로 사용할 수 있을만한 오픈소스가 있나요??
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
PineconeVectorStore import 에러
from langchain_pinecone import PineconeVectorStore를 실행하면ImportError: cannot import name 'PineconeVectorStore' from partially initialized module 'langchain_pinecone' (most likely due to a circular import) 라는 에러가 뜨면서 뭘 해도 안됩니다.어떻게 해야 해결 가능할까요?? 아직까진 인터넷에 정보가 많이 없네요.. chat GPT 도 해결을 못해주고요 .. 하도 답답해서 여기 문의 드립니다. 임포트한 패키지들 :__import__('pysqlite3') import sys sys.modules['sqlite3'] = sys.modules.pop('pysqlite3') from dotenv import load_dotenv from langchain_upstage import UpstageEmbeddings from langchain_community.document_loaders import Docx2txtLoader from langchain_text_splitters import RecursiveCharacterTextSplitter from langchain_pinecone import PineconeVectorStore파이썬 버전3.10.15
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
질 좋은 답변을 생성하는 방법이 있을까요?
안녕하세요. 강의 잘 듣고 있습니다. 듣던 차에 궁금한 부분이 있어 질문 남깁니다. (현재 섹션3 강의는 다 들은 상태입니다.)저는 NLP나 RAG 관련해서 전공 공부한 적이 없고 모르는 개념은 강의를 들으면서 그때그때 검색해서 공부하고 있습니다! 저희 질문이 "연봉 5천만원인 직장인의 소득세는?" 인데, 질문을 할 때마다 답변이 다르게 나오는 건 알겠지만1400초과 ~ 5000만원 이하 과세표준으로 계산함1의 과세표준으로 계산했지만 계산 결과가 틀림1의 과세표준으로 계산했고 계산 결과가 맞지만 후에 부가적으로 기본공제, 지방소득세 등 이상한 내용이 들어가서 결과적인 직장인의 소득세가 매우 상이하게 나옴5000초과~ 8800만원 이하 과세표준으로 계산등 여러번 돌려보니까 다양한 결과가 나오더라구요. (LLM이니깐 매번 돌릴 때마다 결과가 다른 건 알고 있습니다!)현재 query 수정 (회사원 -> 거주자), markdown으로 표 수정은 이미 다 한 상태입니다.LLM은 외부 API를 (저는 Upstage로 하고 있습니다) 사용하기 때문에 LLM은 아예 저의 소관이 아니라고 생각하고, 저는 최대한 잘 자르고 유사도 검색을 잘 해서 prompt를 잘 쓰는 것까지 저의 일이라고 생각합니다. 아무튼 이러한 경우에는 제가 양질의 답변을 얻기 위해서는 추가적으로 어떤 걸 해야할까요? ㅠㅠ제가 생각했을 땐초과, 이하의 개념을 프롬포트로 제공한다retriever_docs를 검색할 때 추가적인 정보가 많이 제공되지 않게끔 k를 조절한다. 정도 생각하고 있습니다!
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
langchain pinecone 설치 시 반복적으로 발생하는 버전 문제
몇 시간 동안 GPT, Claude랑 싸웠는데(?) 도저히 해결이 안 되네요.. 파이썬 버전도 낮춰보고 이것저것 지웠다깔았다 해봤는데 여기서 며칠 째 막혀있습니다..ㅠㅠchapter3에서도 pinecone 설치 오류가 계속 나서 겨우 고쳤는데 pinecone에 트라우마 생길 것 같아요 ^^참고하시라고 chapter3에서 혼자서 고쳐본 부분도 같이 올려드립니다. -> 기존 강사님 코드를 제 컴퓨터에서 실행하면 나오는 결과입니다.-> 이렇게 바꾸니 오류는 안 나지만 왠지 엄청 오래 걸립니다. 가능하시면 이 부분의 문제도 같이 봐주시면 감사하겠습니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
streamlit 프로젝트에서 tax.docx 파일이 없어도 되나요
streamlit 프로젝트에는 tax.docx 파일이 필요없는 이유가.. 파인콘을 사용하기 때문인가요. 궁금합니다..
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
아래 파인콘 벡터스토어 추가 확인요청
가상환경에서 진행중이고, 파이썬 버전 3.13입니다. 파이썬은 3.10 이상이면 된다고 본 거 같은데 ㅠㅠ 이게 문제일까요. 에러 메시지중 simsimd가 무엇인지 ㅠㅠ
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
파인콘 벡터스토어가 없다고 나옵니다 ㅠㅠ
파인콘으로 바꾸는 부분 도중에 에러가 납니다..아래 오류 메시지도 입력했습니다 ㅠㅠINFO: pip is looking at multiple versions of langchain-pinecone to determine which version is compatible with other requirements. This could take a while. Note: you may need to restart the kernel to use updated packages.WARNING: Ignoring invalid distribution ~angchain-core (c:\Users\alice\test-llm\test-llm\Lib\site-packages) WARNING: Ignoring invalid distribution ~angchain-core (c:\Users\alice\test-llm\test-llm\Lib\site-packages) ERROR: Ignored the following versions that require a different python version: 0.0.2 Requires-Python >=3.8.1,<3.13; 0.0.2rc0 Requires-Python >=3.8.1,<3.13; 0.0.3 Requires-Python >=3.8.1,<3.13; 0.1.0 Requires-Python <3.13,>=3.8.1; 0.1.1 Requires-Python <3.13,>=3.8.1; 0.1.2 Requires-Python <3.13,>=3.8.1; 0.1.3 Requires-Python <3.13,>=3.8.1; 0.2.0 Requires-Python <3.13,>=3.9; 0.2.0.dev1 Requires-Python <3.13,>=3.9 ERROR: Could not find a version that satisfies the requirement simsimd<4.0.0,>=3.6.3 (from langchain-pinecone) (from versions: 4.4.0, 5.0.0, 5.0.1, 5.1.0, 5.1.1, 5.1.2, 5.1.3, 5.1.4, 5.2.0, 5.2.1, 5.3.0, 5.4.0, 5.4.1, 5.4.2, 5.4.3, 5.4.4, 5.5.0, 5.5.1, 5.6.0, 5.6.1, 5.6.3, 5.6.4, 5.7.0, 5.7.1, 5.7.2, 5.7.3, 5.8.0, 5.9.0, 5.9.1, 5.9.2, 5.9.3, 5.9.4, 5.9.5, 5.9.6, 5.9.7, 5.9.8, 5.9.9, 5.9.10, 5.9.11, 6.0.0, 6.0.1, 6.0.2, 6.0.3, 6.0.4, 6.0.5, 6.0.6, 6.0.7, 6.1.0, 6.1.1, 6.2.0, 6.2.1) ERROR: No matching distribution found for simsimd<4.0.0,>=3.6.3
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
학습 자료 질문
강의 진행 시 사용하는 PPT 자료는 어디에서 다운 받을 수 있나요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
RateLimitError가 나서 질문 드립니다.
RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.', 'type': 'insufficient_quota', 'param': None, 'code': 'insufficient_quota'}}청크 사이즈도 많이 줄여서 하는데, 똑같은 에러가 나서 질문드립니다! 강의 영상이랑 똑같이 진행하고 있는데결제크레딧 카드가 12월5일부로 open-ai에서 결제가 안되서 급하게 부랴부랴 크레딧을 가지고 있는분께 크레딧이 얼마 없긴한 계정 빌려서 해보고 있는데도 rateLimiterror가 나오고 있습니다.위와같은 에러가 다른경우도 나는 경우가 있을까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
pinecone 환경변수
안녕하세요 pinecone 연동을 하려는데 계속 오류가 발생하여 질문드립니다.pinecone의 environment나 project-id로는 어떤 것을 입력해야 되나요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
데이터 전처리 관련
안녕하세요. 테이블 이미지를 GPT가 이해할 수 있는 문법으로 변환하는 과정을 사람이 직접 하지않고 소프트웨어를 통해 할 수 있나요? 일반적으로 이와 관련된 전처리를 어떤식으로 하는지 궁금합니다.
주간 인기글
순위 정보를
불러오고 있어요