묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
Knowledge graph
Llm 에서 knowledge graph를 db로 쓴다는 이야기를들었는데, vector db의 자리에 graph db를 교체해넣는개념인가요. Vector db와 knowledge graph의 장단점은 무엇일까요. 평시에 너무궁금했던내용이라 질문드립니다
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
정해진 질문
질문있습니다. 정해진 주제외의 질문에는 답을하지 않도록하는 방법도 있을까요? 예를들어 유아용 채팅봇을 만드는데 정해진 주제 외에는 답을하지 못하게 하고 싶습니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
정해진주제만 답하는봇
질문있습니다. Rag와 반대로 정해진주제외의 질문은 답을하지 않도록하는 방법도 있을까요? 예를들어 유아용 채팅봇을 만드는데 정해진 주제 외에는 답을하지 못하게 하고 싶습니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
query 결과 값이 일치하지 않습니다.
안녕하세요.이번에 처음 프론트개발하다 파이썬 사용해보고 강의 잘 보고 있습니다. 꾸역꾸역 따라가고 있는데 결과값이 일치하지 않네요.3.5 강의에서 결과가 일치하지 않습니다! %% %pip install --upgrade --quiet docx2txt langchain-community # %% from langchain_community.document_loaders import Docx2txtLoader from langchain_text_splitters import RecursiveCharacterTextSplitter text_splitter = RecursiveCharacterTextSplitter( chunk_size=1500, chunk_overlap=200 ) loader = Docx2txtLoader('./tax_with_markdown.docx') document_list = loader.load_and_split(text_splitter=text_splitter) # %% document_list[52] # %% from dotenv import load_dotenv from langchain_openai import OpenAIEmbeddings load_dotenv() embedding = OpenAIEmbeddings(model="text-embedding-3-large") # %% import os from pinecone import Pinecone from langchain_pinecone import PineconeVectorStore index_name = 'tab-markdown-index' pinecone_api_key = os.environ.get("PINECONE_API_KEY") pc = Pinecone(api_key=pinecone_api_key) database = PineconeVectorStore.from_documents(document_list, embedding, index_name=index_name) # %% query = '연봉 5천만원인 직장인의 소득세는 얼마인가요?' # retrieved_docs = database.similarity_search(query, k=3) # %% from langchain_openai import ChatOpenAI llm = ChatOpenAI(model="gpt-4o") # %% from langchain import hub prompt = hub.pull("rlm/rag-prompt") # %% from langchain.chains import RetrievalQA retriever=database.as_retriever() qa_chain = RetrievalQA.from_chain_type( llm, retriever=retriever, chain_type_kwargs={"prompt": prompt} ) # %% retriever.invoke(query) # %% ai_message = qa_chain({"query":query}) # %% ai_message # %% [markdown] # {'query': '연봉 5천만원인 직장인의 소득세는 얼마인가요?', # 'result': '연봉 5천만원인 직장인의 소득세는 기본세율이 적용됩니다. 기본세율은 과세표준 구간별로 다르므로, 정확한 소득세 금액을 계산하려면 연말정산 등 세율표를 참조해야 합니다. 따라서 구체적인 금액을 제공하려면 추가 정보가 필요합니다.'} # %% [markdown] # 참고1 retriever.invoke(query) 한 다음이미지처럼 metadata 속성이 더 추가 되어 제 코드 결과가 나옵니다.참고2 마크다운 테이블 잘 가져옵니다.참고3 인덱스 네임은 제가 오타나서 그대로 사용중입니다.ㅜㅜindex_name = 'tab-markdown-index'참고4https://github.com/jasonkang14/inflearn-rag-notebook/blob/main/3.5%20Retrieval%20%ED%9A%A8%EC%9C%A8%20%EA%B0%9C%EC%84%A0%EC%9D%84%20%EC%9C%84%ED%95%9C%20%EB%8D%B0%EC%9D%B4%ED%84%B0%20%EC%A0%84%EC%B2%98%EB%A6%AC.ipynb이 코드 그대로 하면 결과는 아래 이미지와 같습니다!참고5
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
chromadb 오류,
이 오류로 클론코딩 및 스스로 코딩연습도 못하고 있습니다.git에 보니 chromadb 버전문제라고 하는데.... 그리고 강사님 강의에 환경설정들이 너무 안되는게 많아서 온전히 강의에 집중이 안되네요...환경 설정이나 이런 부분들에 대해서 좀더 자세히 설명 바랍니다.
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
커널에서 poetry env가 보이지 않습니다.
안녕하세요!vs code를 종료하고 재시작해봐도 poetry env 커널이 보이지 않습니다. poetry activate는 했습니다!알려주시면 정말 감사하겠습니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
하이퍼클로바 X 랭체인
GPT api말고 하이퍼클로바X api를 이용하는 방법이 있는지 궁금합니다.
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
Chroma 오류
Chroma 오류가 발생합니다.오류가 발생하면서 커널이 끊어집니다.here 눌렀을 때jupyter log 눌렀을 때 입니다.다음 부분에서 오류가 나는 것 같습니다.from langchain_community.vectorstores import Chroma db = Chroma.from_documents(splits, embeddings_model)
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
RAG에서의 chain 코드
chain 연결하는 | 문법을 사용하지 않는 이유가 있을까요?
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
프롬프트 기법에 대한 소식을 어디서 얻을 수 있을까요?
단편적으로 프롬프트는 이렇다를 넘어서서 그런 최신의 정보를 얻으려면 어디서 얻어야할까요?감사합니다
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
api key 호출 시
랭체인은 env파일에서 자동으로 openai key를 가져오는 것으로 알고 있습니다.강의 영상 처럼 불러와서 넣어주는 이유가 따로 있으실까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
윈도우 pyenv 설치불가
따라하기식으로 수업하려고 수강했는데용. Mac기준영상인건 몰랐네요.. 윈도우에서 아나콘다로 따라하기가가능한걸까요? 3.1환경설정 영상보는데 다른거같애서요.. ㅠㅠㅠ 가이드문서 비스름 한거라도 받을 수 있을까요?
-
미해결모두를 위한 대규모 언어 모델 LLM Part 4 - AI 고객센터 챗봇(AICC)을 만들며 배우는 RAG 구현
맨 마지막 강의 제목이 "2" 인데 맞나요?!
맨 마지막 강의 제목이 "2" 인데 맞나요?!
-
미해결모두를 위한 대규모 언어 모델 LLM Part 4 - AI 고객센터 챗봇(AICC)을 만들며 배우는 RAG 구현
마지막 실습 파일이 열리지 않습니다?!
마지막 실습 파일이 열리지 않습니다RAGAS 라이브러리 & Faithfulness 지표(Metric)https://colab.research.google.com/drive/1vBksC6sDvKmEfxQUinUCmmBy_L76iX7y?usp=sharing
-
미해결입문자를 위한 LangChain 기초
랭체인 실행이 안됩니다.
import os from dotenv import load_dotenv from langchain_openai import ChatOpenAI load_dotenv() OPENAI_API_KEY = os.environ["OPENAI_API_KEY"] llm = ChatOpenAI(model="gpt-3.5-turbo-0125", openai_api_key=OPENAI_API_KEY) #chain 실행 llm.invoke("지구의 자전 주기는?")저는 VSCode로 강의를 따라하고 있었습니다.Failed to batch ingest runs: LangSmithError('Failed to POST https://api.smith.langchain.com/runs/batch in LangSmith API. HTTPError(\'403 Client Error: Forbidden for url: https://api.smith.langchain.com/runs/batch\', \'{"detail":"Forbidden"}\')')이 오류가 뜨면서 실행이 안되는 이유를 모르겠습니다.현재 상황은 이렇습니다.OPENAI_API_KEY는 정확합니다. 혹시나 해서 openai 튜토리얼을 따라해보니, 유효한 api key라는것을 확인할 수 있었습니다.llm.invoke("지구의 자전 주기는?") 구문을 실행시키면 해당 오류가 뜹니다.전체 패키지를 재설치해도 결과는 같았습니다.
-
미해결(LLM개발) 랭체인과 챗GPT를 활용한 RAG 챗봇 만들기
강의화면 표시문제
안녕하세요. 일부 화면은 안보이고 소리만 들리는 강좌가 있습니다. 확인 부탁드립니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
ConversationSummaryBufferMemory의 max_token_limit
ConversationSummaryBufferMemory 설명 중max_token_limit 관련 문의 있습니다토큰 제한하신 경우:max_token_limit=5대화 요약된 경우: {'history': 'System: \nThe human greets the AI and the AI responds asking how the human is doing. The human responds that they are not doing well and the AI responds similarly.'}이렇게 지정한 토큰 수를 넘어서 대화 요약이 되는 이유가 있을까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
.env 파일을 불러오지 못할 때 해결방법을 여쭤보고 싶습니다..
.env 파일 형식도 지키고 있고 환경변수를 직접 실행했을 때도 제대로 작동하지만 .env 파일에서 환경변수를 로드하는 과정에서 문제가 있는지 None이 계속 뜨면서 api키를 가지고 오지 못하는 것 같습니다.. 아무리 다시 만들어 시도해봐도 달라지지 않아 질문 남깁니다 감사합니다..!디렉토리 위치 문제인지, 가상환경 커널에서 venv커널도 뜨지 않습니다. 윈도우 사용자라면 어떻게 해결해야 할까요? 쥬피터를 사용해서 그런걸까요?
-
미해결LLM 데이터 분석 - 웹 크롤링부터 추천 시스템까지
강의에서 소스코드는 어디서 볼 수 있을까요?
찾아봤는데 못찾겠어서 질문 드립니다,,,,
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
SelfQueryRetriever 사용시
안녕하세요 SelfQueryRetriever를 이용하여 메타데이터별로 문제를 생성하는 코드를 작성 중에 궁금한 것이 생겨서 질문드립니다. 데이터별로 메타데이터에 카테고리를 저장해놓았는데 카테고리별로 llm을 돌릴때마다 각 카테고리 내에서 문서를 랜덤하게 가져올 수 있는 방법이 있을까요?? 카테고리를 잘 인식해서 가져오는데 llm을 돌릴때마다 같은 데이터를 벡터db에서 받아와 생성합니다.