묻고 답해요
144만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
Knowledge graph
Llm 에서 knowledge graph를 db로 쓴다는 이야기를들었는데, vector db의 자리에 graph db를 교체해넣는개념인가요. Vector db와 knowledge graph의 장단점은 무엇일까요. 평시에 너무궁금했던내용이라 질문드립니다
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
정해진 질문
질문있습니다. 정해진 주제외의 질문에는 답을하지 않도록하는 방법도 있을까요? 예를들어 유아용 채팅봇을 만드는데 정해진 주제 외에는 답을하지 못하게 하고 싶습니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
정해진주제만 답하는봇
질문있습니다. Rag와 반대로 정해진주제외의 질문은 답을하지 않도록하는 방법도 있을까요? 예를들어 유아용 채팅봇을 만드는데 정해진 주제 외에는 답을하지 못하게 하고 싶습니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
query 결과 값이 일치하지 않습니다.
안녕하세요.이번에 처음 프론트개발하다 파이썬 사용해보고 강의 잘 보고 있습니다. 꾸역꾸역 따라가고 있는데 결과값이 일치하지 않네요.3.5 강의에서 결과가 일치하지 않습니다! %% %pip install --upgrade --quiet docx2txt langchain-community # %% from langchain_community.document_loaders import Docx2txtLoader from langchain_text_splitters import RecursiveCharacterTextSplitter text_splitter = RecursiveCharacterTextSplitter( chunk_size=1500, chunk_overlap=200 ) loader = Docx2txtLoader('./tax_with_markdown.docx') document_list = loader.load_and_split(text_splitter=text_splitter) # %% document_list[52] # %% from dotenv import load_dotenv from langchain_openai import OpenAIEmbeddings load_dotenv() embedding = OpenAIEmbeddings(model="text-embedding-3-large") # %% import os from pinecone import Pinecone from langchain_pinecone import PineconeVectorStore index_name = 'tab-markdown-index' pinecone_api_key = os.environ.get("PINECONE_API_KEY") pc = Pinecone(api_key=pinecone_api_key) database = PineconeVectorStore.from_documents(document_list, embedding, index_name=index_name) # %% query = '연봉 5천만원인 직장인의 소득세는 얼마인가요?' # retrieved_docs = database.similarity_search(query, k=3) # %% from langchain_openai import ChatOpenAI llm = ChatOpenAI(model="gpt-4o") # %% from langchain import hub prompt = hub.pull("rlm/rag-prompt") # %% from langchain.chains import RetrievalQA retriever=database.as_retriever() qa_chain = RetrievalQA.from_chain_type( llm, retriever=retriever, chain_type_kwargs={"prompt": prompt} ) # %% retriever.invoke(query) # %% ai_message = qa_chain({"query":query}) # %% ai_message # %% [markdown] # {'query': '연봉 5천만원인 직장인의 소득세는 얼마인가요?', # 'result': '연봉 5천만원인 직장인의 소득세는 기본세율이 적용됩니다. 기본세율은 과세표준 구간별로 다르므로, 정확한 소득세 금액을 계산하려면 연말정산 등 세율표를 참조해야 합니다. 따라서 구체적인 금액을 제공하려면 추가 정보가 필요합니다.'} # %% [markdown] # 참고1 retriever.invoke(query) 한 다음이미지처럼 metadata 속성이 더 추가 되어 제 코드 결과가 나옵니다.참고2 마크다운 테이블 잘 가져옵니다.참고3 인덱스 네임은 제가 오타나서 그대로 사용중입니다.ㅜㅜindex_name = 'tab-markdown-index'참고4https://github.com/jasonkang14/inflearn-rag-notebook/blob/main/3.5%20Retrieval%20%ED%9A%A8%EC%9C%A8%20%EA%B0%9C%EC%84%A0%EC%9D%84%20%EC%9C%84%ED%95%9C%20%EB%8D%B0%EC%9D%B4%ED%84%B0%20%EC%A0%84%EC%B2%98%EB%A6%AC.ipynb이 코드 그대로 하면 결과는 아래 이미지와 같습니다!참고5
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
chromadb 오류,
이 오류로 클론코딩 및 스스로 코딩연습도 못하고 있습니다.git에 보니 chromadb 버전문제라고 하는데.... 그리고 강사님 강의에 환경설정들이 너무 안되는게 많아서 온전히 강의에 집중이 안되네요...환경 설정이나 이런 부분들에 대해서 좀더 자세히 설명 바랍니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
윈도우 pyenv 설치불가
따라하기식으로 수업하려고 수강했는데용. Mac기준영상인건 몰랐네요.. 윈도우에서 아나콘다로 따라하기가가능한걸까요? 3.1환경설정 영상보는데 다른거같애서요.. ㅠㅠㅠ 가이드문서 비스름 한거라도 받을 수 있을까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
.env 파일을 불러오지 못할 때 해결방법을 여쭤보고 싶습니다..
.env 파일 형식도 지키고 있고 환경변수를 직접 실행했을 때도 제대로 작동하지만 .env 파일에서 환경변수를 로드하는 과정에서 문제가 있는지 None이 계속 뜨면서 api키를 가지고 오지 못하는 것 같습니다.. 아무리 다시 만들어 시도해봐도 달라지지 않아 질문 남깁니다 감사합니다..!디렉토리 위치 문제인지, 가상환경 커널에서 venv커널도 뜨지 않습니다. 윈도우 사용자라면 어떻게 해결해야 할까요? 쥬피터를 사용해서 그런걸까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
강의 3.4 (8분5초) : Pinecone 업로드 과정 에러 질문입니다.
안녕하세요.오늘도 열심히 강의 잘 듣고 있습니다.현재 Upstage 이용해서 진행하고 있구요.아래 코드에서 아래와 같은 오류가 떠서 질문 드립니다...!PineconeApiException: (400) Reason: Bad Request HTTP response headers: HTTPHeaderDict({'Date': 'Tue, 02 Jul 2024 05:30:59 GMT', 'Content-Type': 'application/json', 'Content-Length': '104', 'Connection': 'keep-alive', 'x-pinecone-request-latency-ms': '8478', 'x-pinecone-request-id': '8670121622045530037', 'x-envoy-upstream-service-time': '36', 'server': 'envoy'}) HTTP response body: {"code":3,"message":"Vector dimension 4096 does not match the dimension of the index 3072","details":[]}챗 GTP 에게 물어보니, 아래와 같은 답을 주었습니다.해당 에러 메시지는 Pinecone 데이터베이스에 벡터를 업로드하려고 할 때 발생한 것으로 보입니다. 에러 메시지에 따르면, 업로드하려는 벡터의 차원(4096)이 이미 생성된 인덱스의 차원(3072)과 일치하지 않아서 발생한 문제입니다.다음은 이 문제를 해결하기 위한 몇 가지 단계입니다:인덱스 차원 확인:인덱스를 생성할 때 지정한 차원을 확인합니다. 인덱스가 3072 차원으로 생성된 것으로 보이므로, 현재 사용하려는 벡터가 이에 맞지 않습니다.벡터 차원 조정:사용하려는 벡터의 차원을 3072로 조정하거나, 현재 벡터의 차원에 맞게 새로운 인덱스를 생성해야 합니다.인덱스 재생성 (필요시):새로운 차원으로 인덱스를 생성하려면 Pinecone 관리 콘솔이나 API를 통해 인덱스를 다시 생성해야 합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
quota에 대해서 질문입니다.
안녕하세요강의 잘 듣고 있습니다.현재 3.1 환경설정 부분 진행 중 인데요.강의 6:32 초 쯤에 quota 가 다 찼다? 라는 에러가 나오고, 해결 법은 안나와 있습니다.ㅠㅠ그래서 여기서 멈춰있는 상황인데요.해결방법 알려주시면 감사하겠습니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
LLM 마다 QA 과정에서 큰 차이가 있을까요?
안녕하세요. 오늘 결제 후 열심히 듣고 있습니다! (소중한 강의 만들어주셔 정말정말 감사합니다.)다름 아니라, openAI 크레딧 유효기간이 지나gemini 로 강의 코드를 변경하며 진행하고 있는데요,병진님과 동일한 과정으로 openai -> google genai(model 은 gemini-pro, 변경한 클래스: GoogleGenerativeAIEmbeddings, ChatGoogleGenerativeAI) 로 변경해 답변을 받아보았는데 답변이 썩.. 좋지가 않네요 ㅠㅠprompt 템플릿을 작성하고 나서 답변을 받아보면 다음과 같이 답을 합니다.'제공된 문서에는 해당 질문에 대한 답변이 없습니다.'(페르소나를 명시할 때 "컨텍스트에 없으면 당신이 알고 있는 정보로 대답해주세요" 를 추가했음에도 동일하게 대답하네요..)궁금한 점은LLM 마다 답변 성능이 많이 차이가 날까요?openAI 가 정답일까요..?ㅠ (참고로 저희 조직에서는 GCP 기반이다보니 제미나이를 좀 써보고 싶어서요..)감사합니다!