묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
텍스트 병합해서 사용하여도 되나요?
url에서 텍스트와 docx에 있는 텍스트를 각각 추출하여 split하고 하나의 객체로 통합해서 사용해도 성능이 잘 나올까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
배포시 버전 conflict 문제
제가 강사님 소스와 거의 같지만 다른게 upstage와WikipediaRetriever 를 쓴다는 것인데 이러면서 requirements.txt에서 계속 버전 충돌 에러가 나네요;; pip show 로 해서 충돌나는 버전을 visual studio code에 맞춰서 해도 계속 에러가 나네요 langchain-upstage 때문인것 같은데 이것 때문에 다른 라이브러리 전체의 버전을 다 바꿔야 하는 걸까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
배포시 에러
안녕하세요 강사님 항상 좋은 강의와 답변에 감사드립니다. 다름이 아니라 저는 upstage를 사용하는데요 requirements.txt에langchain-upstage==0.3.0 이렇게 넣으니까 에러가 나던데 이게 아닌건가요? pip install 에 보면 버전은 이게 맞는거 같은데요
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
Ollama 임베딩 모델 (OllamaEmbeddings) 오류의 건
안녕하세요. 수업 내용 중 Ollama 임베딩 모델에서 아래와 같이 임베딩 모델을 설정하고 embed_documents 사용하면 아래와 같은 오류가 발생합니다. from langchain_ollama import OllamaEmbeddings embeddings_model = OllamaEmbeddings(model="bge-m3") documents = [ "인공지능은 컴퓨터 과학의 한 분야입니다.", "머신러닝은 인공지능의 하위 분야입니다.", "딥러닝은 머신러닝의 한 종류입니다.", "자연어 처리는 컴퓨터가 인간의 언어를 이해하고 생성하는 기술입니다.", "컴퓨터 비전은 컴퓨터가 디지털 이미지나 비디오를 이해하는 방법을 연구합니다." ] # 문서 임베딩 document_embeddings = embeddings_model.embed_documents(documents) # 임베딩 결과 출력 print(f"임베딩 벡터의 개수: {len(document_embeddings)}") print(f"임베딩 벡터의 차원: {len(document_embeddings[0])}") print(document_embeddings[0])오류의 캡처 사진과 문구는 아래와 같습니다.오류문구 : ConnectError: [WinError 10061] 대상 컴퓨터에서 연결을 거부했으므로 연결하지 못했습니다 해결방법 확인 부탁드립니다.감사합니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
두가지 이상 문서를 넣고 싶을때는 어떻게 하나요?
안녕하세요~ 지난번에 gemini로 한다고 고전한다고 질문글을 남겼던 학생입니다. 그냥 openai로 다시 시작하니 실크로드마냥 뻥 뚫리더라고요.....기억나실지는 모르겠지만 지지난번에 남겼던 .env 문제도 해결했습니다. vscode에서도 그냥.env로 파일명 만들면 만들어지더라고요. 전엔 해당 확장자로 안 됐는데 어느순간 되는것이 이유를 모르겠습니다만... 아무튼 네 됐습니다. 그런데 (어쩌면 수업 외적인) 질문이 있는데요.만약에 제가 chatbot에 2개 이상의 문서를 넣고 싶으면 어떻게 해야되나요? 가령 소비자 보호법과 세법을 넣는다고하면 소비자보호법 관련 문서에는 이게 소비자 보호법이라는게 명시가 안 되어 있고, 세법 문서에는 해당 내용이 세법이라는 것에 대해 명시가 되어 있지 않아 1) 단순히 두 word파일을 하나의 파일로 합치면 혼란이 올 것 같은데, 2) 안 합치고 따로 하자니 일단 그 방법도 모르거니와 각각 넣는 게 파일명 말고는 1번과 무슨 차이인지도 모르겠어서 선생님께 질문을 드립니다. 비슷한 상황으로 다른 예시를 들어드리자면 , 가령 대출 관련 챗봇을 만드려고 할 때, 신용 대출에 대한 문서가 신용 대출 << 언급이 안되어 있는 아래와 같은 상황이고 [직장인 대출]금리 10%조건 : 1년이상 재직자대출한도: 만원[직장인 대출2]금리 9%조건 : 3년이상 재직자대출한도: 2만원[CSS 대출] 금리 11%조건 : 20세이상 30세 미만 대출한도: 3만원 그리고 주택 담보 대출은 아래와 같을 때, (= 대출 내용은 다르지만 대출을 받을 수 있는 컨디션은 똑같을 때)[a아파트 대출]금리 10%조건 : 1년이상 재직자대출한도: 50만원[주택 대출]금리 9%조건 : 3년이상 재직자대출한도: 60만원[버팀목 대출] 금리 11%조건 : 20세이상 30세 미만 대출한도: 70만원 이 상황에서 만약에 주택담보대출을 알아보고 있으면 굳이 신용대출까지 조회를 안 해도 되잖아요. 이런 상황은 어떻게 거르죠? 참고로 직장인 대출 <- 신용이라는 키워드로 거를수가 없습니다. 강의에서 알려주신 대로 데이터 사전이나 프롬포트를 이용해 처리하는 방법밖엔 없을까요? (생각나는 상황이 이런거인데 사실 대출을 잘몰라서 ;; 제 질문이 잘 전달됐는지 모르겠네요..) 아무튼 긴 글 읽어주셔서 다시 한 번 감사합니다.
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
임베딩 모델 실행 오류
가상환경에서 버전을 일치 시키고API키 환경변수로 설정했는데...openAI apiㅏkey 가 없다고 나옵니다.혹시 어느 부분에서 문제가 있을까요?
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
강의 자료 좀 올려 주세요.
강의 중간에 있는 link typing해서 확인하려니 힘들어요. 발표한 자료하고 code download할 수 있게 해주세요.
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
Tool Calling 질문
llm이 어떤 기준으로 tool을 호출하나요? 강의에서는 필요하면 한다고 나와있는데 예를 들어 llm이 tavily search가 필요할 때가 언제인지, 어떤 기준으로 tool call 하는지 궁금합니다.
-
해결됨RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
수업자료 requirements.txt 파일은 어디에 있나요?
수업자료 requirements.txt 파일은 어디에 있나요?
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
10강 langchain_community 찾을 수 없는 오류
여기서 langchain_community를 찾을 수 없다고 합니다 분명히 환경에는 잘 설치되있는데..
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
gemini Tool Calling 업데이트 공유 드려요.
langchain-google-genai = "2.0.4"위 버전에서 테스트 해봤는데,gemini-1.5-flash, gemini-1.5-pro 모델 모두 Tool Calling 가능 하네요. 업데이트 된 것 같습니다. 강의에서 테스트 된 버전은 "2.0.0" 입니다.
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
pdf파일 압축이 안풀립니다.
수업자료 pdf.zip파일 압축이 안풀리네요. zip파일이 올바르지 않습니다라는 문구가 뜹니다. 파일 확인해 주시기 바랍니다.
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
STORM(Synthesis of Topic Outlines through Retrieval and Multi-perspective Question Asking) 아키텍처 구현하기 강의에서 콜랩 url 이 안보입니다.
안녕하세요, 제가 잘 몰라서 그런지 확인차 물어봅니다. 강의명 "STORM(Synthesis of Topic Outlines through Retrieval and Multi-perspective Question Asking) 아키텍처 구현하기 1" 나 "2" 강의를 보아도 관련 콜랩 url 이 안보이는거 같은데, 제가 잘 못본것일까요? 다른 강의의 콜랩 url 은 잘 보이는데, 이 강의에서만 해당 콜랩 url 이 안보여 문의드립니다. 이상입니다.감사합니다.
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
CrewAI 설치시 오류(주신 pyproject.toml 이용)
맥환경에서 아래와 같은 오류가 발생합니다.그래서 pyarrow=="17.0.0"으로 내려서 설치하면 설치는 되는데 main.py 실행시 런타임 오류가 납니다. Terminal에는 output이 있네 그라지오에는 에러라고 나오는 등 poetry install명령을 치면 아래과 같은 설치오류 발생 (CrewAI 설치시) -- Configuring incomplete, errors occurred! error: command '/Library/Frameworks/Python.framework/Versions/3.12/bin/cmake' failed with exit code 1 at ~/Library/Application Support/pypoetry/venv/lib/python3.12/site-packages/poetry/installation/chef.py:164 in _prepare 160│ 161│ error = ChefBuildError("\n\n".join(message_parts)) 162│ 163│ if error is not None: → 164│ raise error from None 165│ 166│ return path 167│ 168│ def preparesdist(self, archive: Path, destination: Path | None = None) -> Path: Note: This error originates from the build backend, and is likely not a problem with poetry but with pyarrow (18.0.0) not supporting PEP 517 builds. You can verify this by running 'pip wheel --no-cache-dir --use-pep517 "pyarrow (==18.0.0)"'. 의존성에 문제가 있는 것 같습니다. 어떻게 해결해야 할까요?
-
미해결입문자를 위한 LangChain 기초
chain 실행 오류가 납니다.
13분 20초영상과 같이 답변이 나오지 않는데 어떻게 진행해야할까요 추가적으로 SystemMessagePromptTemplate와HumanMessagePromptTemplate 함수를 사용하는 이유는 무엇인지가 잘 와닿지 않습니다!
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
with_structured_output 함수
안녕하세요OpenAI 를 활용해 llm 을 생성할 경우에는 with_structured_output 을 사용할 수 있는데요 llm = ChatOpenAI(model="gpt-3.5-turbo-0125", temperature=0, openai_api_key=OPENAI_KEY) structured_llm = llm.with_structured_output(TutorialSearch) query_analyzer = prompt | structured_llm혹시 Llma3 모델에서도 with_structured_output 를 사용할 수 있나요? 프롬프트 관련 동영상 예제에서는 거의 ChatOpenAI 를 활용하시는것 같아서요 .. 강의 재미있게 잘 듣고 있습니다감사합니다
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
Quickstart 오류 - Query Analysis Quickstart 기초 예제 실습
안녕하세요제공해주신 수업노트 실행시 오류가 나서 문의 드립니다from langchain_community.document_loaders import YoutubeLoader urls = [ "https://www.youtube.com/watch?v=HAn9vnJy6S4", "https://www.youtube.com/watch?v=dA1cHGACXCo", "https://www.youtube.com/watch?v=ZcEMLz27sL4", "https://www.youtube.com/watch?v=hvAPnpSfSGo", "https://www.youtube.com/watch?v=EhlPDL4QrWY", "https://www.youtube.com/watch?v=mmBo8nlu2j0", "https://www.youtube.com/watch?v=rQdibOsL1ps", "https://www.youtube.com/watch?v=28lC4fqukoc", "https://www.youtube.com/watch?v=es-9MgxB-uc", "https://www.youtube.com/watch?v=wLRHwKuKvOE", "https://www.youtube.com/watch?v=ObIltMaRJvY", "https://www.youtube.com/watch?v=DjuXACWYkkU", "https://www.youtube.com/watch?v=o7C9ld6Ln-M", ] docs = [] for url in urls: docs.extend(YoutubeLoader.from_youtube_url(url, add_video_info=True).load())혹시 오류 수정된 소스를 제공 받을 수 있을까요?감사합니다
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
테슬라_KR.txt / 리비안_KR.txt 파일이 첨부파일에 없습니다.
테슬라_KR.txt / 리비안_KR.txt 파일이 첨부파일에 없어요..첨부파일 중 pdf 폴더도 비어있습니다..
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
langsmith에서 openai 대신 upstage를 사용하는 방법
안녕하세요. upstage를 사용해 실습을 진행하던 중from langsmith.wrappers import wrap_openai 부분에서 막혀서 질문 드립니다.openai 대신 upstage를 사용하려면 어떤 라이브러리를 써야 하나요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
pinecone specified an Api-Key오류
계속 upstage로 진행하고 있었습니다.이번에도 3.4.1 따라하다 막히는 부분이 있어서 3.4 부분을 보았더니 pc넣는것과 pincone api key 넣는것이 있어서 그부분을 확인 후에 다시 진행을 했습니다. 진행하면서 아래와 같이 오류가 나왔습니다. 오류 내용---> 58 raise PineconeConfigurationError("You haven't specified an Api-Key.") 59 if not host: 60 raise PineconeConfigurationError("You haven't specified a host.") 해당 코드 부분from langchain_pinecone import PineconeVectorStore # 데이터를 처음 저장할 때 index_name= 'tax-upstage-index' database = PineconeVectorStore.from_documents(documents=document_list, embedding=embedding).env내용OPENAI_API_KEY= UPSTAGE_API_KEY= LANGCHAIN_API_KEY= LANGCHAIN_TRACING_V2=true PINECONE_API_KEY= PINECONE_ENVIRONMENT=us-east-1 전체 코드%pip install python-dotenv langchain langchain-openai langchain-community langchain-text-splitters docx2txt langchain-chroma%pip install -qU langchain-pineconefrom langchain_community.document_loaders import Docx2txtLoader from langchain_text_splitters import RecursiveCharacterTextSplitter text_splitter = RecursiveCharacterTextSplitter( chunk_size=1500, chunk_overlap=200, ) loader = Docx2txtLoader("./tax.docx") document_list = loader.load_and_split(text_splitter=text_splitter)import os from dotenv import load_dotenv from langchain_upstage import UpstageEmbeddings # 환경변수를 불러옴 load_dotenv() pinecone_api_key = os.getenv("PINECONE_API_KEY") pinecone_environment = os.getenv("PINECONE_ENVIRONMENT") print("API Key:", pinecone_api_key) print("Environment:", pinecone_environment) # OpenAI에서 제공하는 Embedding Model을 활용해서 `chunk`를 vector화 embedding = UpstageEmbeddings(model='solar-embedding-1-large')결과 화면PINECONE_API_KEY: None PINECONE_ENVIRONMENT: None분명 .env에도 apikey를 공식 문서에 있는 내용을 가져와서 똑같이 붙여 넣고 했음에도 key값이 출력 나오지 않아, database부분이 진행이 되지 않고 있습니다.pincone default 키값이 문제인가 해서 새로운 key를 만들어 넣었습니다. 혹시 제가 하면서 놓친 부분이 있을까요?