묻고 답해요
148만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
정해진주제만 답하는봇
질문있습니다. Rag와 반대로 정해진주제외의 질문은 답을하지 않도록하는 방법도 있을까요? 예를들어 유아용 채팅봇을 만드는데 정해진 주제 외에는 답을하지 못하게 하고 싶습니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
query 결과 값이 일치하지 않습니다.
안녕하세요.이번에 처음 프론트개발하다 파이썬 사용해보고 강의 잘 보고 있습니다. 꾸역꾸역 따라가고 있는데 결과값이 일치하지 않네요.3.5 강의에서 결과가 일치하지 않습니다! %% %pip install --upgrade --quiet docx2txt langchain-community # %% from langchain_community.document_loaders import Docx2txtLoader from langchain_text_splitters import RecursiveCharacterTextSplitter text_splitter = RecursiveCharacterTextSplitter( chunk_size=1500, chunk_overlap=200 ) loader = Docx2txtLoader('./tax_with_markdown.docx') document_list = loader.load_and_split(text_splitter=text_splitter) # %% document_list[52] # %% from dotenv import load_dotenv from langchain_openai import OpenAIEmbeddings load_dotenv() embedding = OpenAIEmbeddings(model="text-embedding-3-large") # %% import os from pinecone import Pinecone from langchain_pinecone import PineconeVectorStore index_name = 'tab-markdown-index' pinecone_api_key = os.environ.get("PINECONE_API_KEY") pc = Pinecone(api_key=pinecone_api_key) database = PineconeVectorStore.from_documents(document_list, embedding, index_name=index_name) # %% query = '연봉 5천만원인 직장인의 소득세는 얼마인가요?' # retrieved_docs = database.similarity_search(query, k=3) # %% from langchain_openai import ChatOpenAI llm = ChatOpenAI(model="gpt-4o") # %% from langchain import hub prompt = hub.pull("rlm/rag-prompt") # %% from langchain.chains import RetrievalQA retriever=database.as_retriever() qa_chain = RetrievalQA.from_chain_type( llm, retriever=retriever, chain_type_kwargs={"prompt": prompt} ) # %% retriever.invoke(query) # %% ai_message = qa_chain({"query":query}) # %% ai_message # %% [markdown] # {'query': '연봉 5천만원인 직장인의 소득세는 얼마인가요?', # 'result': '연봉 5천만원인 직장인의 소득세는 기본세율이 적용됩니다. 기본세율은 과세표준 구간별로 다르므로, 정확한 소득세 금액을 계산하려면 연말정산 등 세율표를 참조해야 합니다. 따라서 구체적인 금액을 제공하려면 추가 정보가 필요합니다.'} # %% [markdown] # 참고1 retriever.invoke(query) 한 다음이미지처럼 metadata 속성이 더 추가 되어 제 코드 결과가 나옵니다.참고2 마크다운 테이블 잘 가져옵니다.참고3 인덱스 네임은 제가 오타나서 그대로 사용중입니다.ㅜㅜindex_name = 'tab-markdown-index'참고4https://github.com/jasonkang14/inflearn-rag-notebook/blob/main/3.5%20Retrieval%20%ED%9A%A8%EC%9C%A8%20%EA%B0%9C%EC%84%A0%EC%9D%84%20%EC%9C%84%ED%95%9C%20%EB%8D%B0%EC%9D%B4%ED%84%B0%20%EC%A0%84%EC%B2%98%EB%A6%AC.ipynb이 코드 그대로 하면 결과는 아래 이미지와 같습니다!참고5
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
fine-tuning 완료된 모델 관련 질문
autotrain 으로 학습이 완료 된 모델을 Langchain 을 이용하여 서비스 해보고 싶습니다.1. autotrain 으로 학습된 모델도 Langchain 에서 사용할 수 있나요?Langchain 에서 사용하려면 어떻게 해야할까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
chromadb 오류,
이 오류로 클론코딩 및 스스로 코딩연습도 못하고 있습니다.git에 보니 chromadb 버전문제라고 하는데.... 그리고 강사님 강의에 환경설정들이 너무 안되는게 많아서 온전히 강의에 집중이 안되네요...환경 설정이나 이런 부분들에 대해서 좀더 자세히 설명 바랍니다.
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
커널에서 poetry env가 보이지 않습니다.
안녕하세요!vs code를 종료하고 재시작해봐도 poetry env 커널이 보이지 않습니다. poetry activate는 했습니다!알려주시면 정말 감사하겠습니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
하이퍼클로바 X 랭체인
GPT api말고 하이퍼클로바X api를 이용하는 방법이 있는지 궁금합니다.
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Section 16 [이론] Transformer의 Encoder 질문
안녕하세요, 강의 감사드립니다.multi-head attention에서 Q,K,V 차원에 대해 질문드립니다.1. 여기서 H는 multi-head 시킨 후 (concatnation 후)의 최종 feature 차원을 의미하는지 궁금합니다. (단일 self-attention에서도 Q,K,V에서 H와 다른거 같은데 확인부탁드립니다)2. 만약, 1이 맞다면 Q,K,V의 차원은 N x H/M 이 되어야 하는건 아닌가 싶습니다. (m은 M을 표현하기 위한 index로 보이기 때문입니다)혹시 제가 잘못 이해하고 있는 부분이 있다면, 정정해주시면 감사드리겠습니다!
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
Chroma 오류
Chroma 오류가 발생합니다.오류가 발생하면서 커널이 끊어집니다.here 눌렀을 때jupyter log 눌렀을 때 입니다.다음 부분에서 오류가 나는 것 같습니다.from langchain_community.vectorstores import Chroma db = Chroma.from_documents(splits, embeddings_model)
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
RAG에서의 chain 코드
chain 연결하는 | 문법을 사용하지 않는 이유가 있을까요?
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
프롬프트 기법에 대한 소식을 어디서 얻을 수 있을까요?
단편적으로 프롬프트는 이렇다를 넘어서서 그런 최신의 정보를 얻으려면 어디서 얻어야할까요?감사합니다
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
api key 호출 시
랭체인은 env파일에서 자동으로 openai key를 가져오는 것으로 알고 있습니다.강의 영상 처럼 불러와서 넣어주는 이유가 따로 있으실까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
윈도우 pyenv 설치불가
따라하기식으로 수업하려고 수강했는데용. Mac기준영상인건 몰랐네요.. 윈도우에서 아나콘다로 따라하기가가능한걸까요? 3.1환경설정 영상보는데 다른거같애서요.. ㅠㅠㅠ 가이드문서 비스름 한거라도 받을 수 있을까요?
-
미해결모두를 위한 대규모 언어 모델 LLM Part 4 - AI 고객센터 챗봇(AICC)을 만들며 배우는 RAG 구현
맨 마지막 강의 제목이 "2" 인데 맞나요?!
맨 마지막 강의 제목이 "2" 인데 맞나요?!
-
미해결모두를 위한 대규모 언어 모델 LLM Part 4 - AI 고객센터 챗봇(AICC)을 만들며 배우는 RAG 구현
마지막 실습 파일이 열리지 않습니다?!
마지막 실습 파일이 열리지 않습니다RAGAS 라이브러리 & Faithfulness 지표(Metric)https://colab.research.google.com/drive/1vBksC6sDvKmEfxQUinUCmmBy_L76iX7y?usp=sharing
-
미해결입문자를 위한 LangChain 기초
랭체인 실행이 안됩니다.
import os from dotenv import load_dotenv from langchain_openai import ChatOpenAI load_dotenv() OPENAI_API_KEY = os.environ["OPENAI_API_KEY"] llm = ChatOpenAI(model="gpt-3.5-turbo-0125", openai_api_key=OPENAI_API_KEY) #chain 실행 llm.invoke("지구의 자전 주기는?")저는 VSCode로 강의를 따라하고 있었습니다.Failed to batch ingest runs: LangSmithError('Failed to POST https://api.smith.langchain.com/runs/batch in LangSmith API. HTTPError(\'403 Client Error: Forbidden for url: https://api.smith.langchain.com/runs/batch\', \'{"detail":"Forbidden"}\')')이 오류가 뜨면서 실행이 안되는 이유를 모르겠습니다.현재 상황은 이렇습니다.OPENAI_API_KEY는 정확합니다. 혹시나 해서 openai 튜토리얼을 따라해보니, 유효한 api key라는것을 확인할 수 있었습니다.llm.invoke("지구의 자전 주기는?") 구문을 실행시키면 해당 오류가 뜹니다.전체 패키지를 재설치해도 결과는 같았습니다.
-
미해결(LLM개발) 랭체인과 챗GPT를 활용한 RAG 챗봇 만들기
강의화면 표시문제
안녕하세요. 일부 화면은 안보이고 소리만 들리는 강좌가 있습니다. 확인 부탁드립니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
ConversationSummaryBufferMemory의 max_token_limit
ConversationSummaryBufferMemory 설명 중max_token_limit 관련 문의 있습니다토큰 제한하신 경우:max_token_limit=5대화 요약된 경우: {'history': 'System: \nThe human greets the AI and the AI responds asking how the human is doing. The human responds that they are not doing well and the AI responds similarly.'}이렇게 지정한 토큰 수를 넘어서 대화 요약이 되는 이유가 있을까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
.env 파일을 불러오지 못할 때 해결방법을 여쭤보고 싶습니다..
.env 파일 형식도 지키고 있고 환경변수를 직접 실행했을 때도 제대로 작동하지만 .env 파일에서 환경변수를 로드하는 과정에서 문제가 있는지 None이 계속 뜨면서 api키를 가지고 오지 못하는 것 같습니다.. 아무리 다시 만들어 시도해봐도 달라지지 않아 질문 남깁니다 감사합니다..!디렉토리 위치 문제인지, 가상환경 커널에서 venv커널도 뜨지 않습니다. 윈도우 사용자라면 어떻게 해결해야 할까요? 쥬피터를 사용해서 그런걸까요?
-
미해결LLM 데이터 분석 - 웹 크롤링부터 추천 시스템까지
강의에서 소스코드는 어디서 볼 수 있을까요?
찾아봤는데 못찾겠어서 질문 드립니다,,,,
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
SelfQueryRetriever 사용시
안녕하세요 SelfQueryRetriever를 이용하여 메타데이터별로 문제를 생성하는 코드를 작성 중에 궁금한 것이 생겨서 질문드립니다. 데이터별로 메타데이터에 카테고리를 저장해놓았는데 카테고리별로 llm을 돌릴때마다 각 카테고리 내에서 문서를 랜덤하게 가져올 수 있는 방법이 있을까요?? 카테고리를 잘 인식해서 가져오는데 llm을 돌릴때마다 같은 데이터를 벡터db에서 받아와 생성합니다.