묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
문서에 없는 내용을 사용자가 질문할때
문서에 없는 내용을 질문하면 prompt에서 답변을 알 수 없다면 모른다고 답변해주세요 라고 하셨는데요 그런 경우에 위키피티아등에서 검색하게 하고 싶은데 가능할까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
upstage 사용시 warning 등의 에러 메세지 출력이 됩니다.
upstage 사용시 위와 같이 에러가 나오는데요 혹시 해결 방법이 있을까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.2장의 Langchain_openai 호환성 문제 발생하여 질문드립니다
안녕하세요,저는 하나하나 선생님 코드를 보며 따라하고 있는 코린이입니다.. 아래 부분을 입력하였더니 계속 오류가 발생하여 질문드립니다. from dotenv import load_dotenv from langchain_openai import OpenAIEmbeddings load_dotenv() embedding = OpenAIEmbeddings(model= 'text-embedding-3-large')PydanticUserError: The __modify_schema__ method is not supported in Pydantic v2. Use __get_pydantic_json_schema__ instead in class SecretStr. For further information visit https://errors.pydantic.dev/2.8/u/custom-json-schema오류 메시지에 따르면 pydantic v2에서는 __modify_schema__ 메서드가 더 이상 지원되지 않으며, __get_pydantic_json_schema__를 사용하라고 안내하고 있습니다.환경:Python 3.11Pydantic 2.5.2langchain-core 0.3.0langchain-openai 0.2.0기타 종속성 버전:annotated-types==0.7.0openai==1.45.1pydantic_core==2.14.5해결 시도:pydantic, langchain_openai, langchain-core를 최신 버전으로 업데이트했습니다.패키지를 제거하고 다시 설치하는 방식으로 문제 해결을 시도했습니다.현재 이 문제를 어떻게 해결해야 할지 모르겠습니다.감사합니다!
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
강사님. 뵙고 싶어요^^
방가요. 강사님과 온라인이나 오프라인에서 볼 수 있게 커뮤니티 만들어 주시면 좋겠어요^^
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
이 강의에서 다음 내용을 배울 수 있나요?
강병진 지식공유자님, 안녕하세요!인프런 운영 매니저 자미라고 합니다.고객센터 통해서, 예비 수강생의 질문이 들어와 제가 대신 여쭤봅니다. 강의 구매 전인데, 아래 내용이 이 강의를 통해서 해결되는 지 궁금하다고 하셨어요.[ 질문 ]이 강의에서 다음 내용을 배울 수 있나요?"나의 비공개 문서를 학습한 AI를 통해 사용자의 물음에 답할 수 있는 AI 앱"이라는 내용에 대해 질문해주셔서, 이 부분에 대해 강사님께서 확인 후 답변 남겨주시면 제가 전달해드리도록 하겠습니다.저희가 제공하는 [수강 전 문의하기] 라는 기능을 통한다면 수강생이 바로 질문하실 수 있는데요! 이 강의는 그 기능을 제공하고 있지 않아 제가 대신 질문을 통해 남기는 점 양해해 주시길 바랍니다. 😃 항상 좋은 지식 나누어 주셔서 감사드립니다.풍성하고 행복한 한가위 보내시길 바랍니다.감사합니다!
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
파인튜닝에 관한 수업을 만드실 계획은 없으신가요?
파인튜닝에 관한 수업을 만드실 계획은 없으신가요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
비개발자 수강가능여부 및 환경설정 매뉴얼
안녕하세요, 비개발자이고 파이썬 코드만 조금 다룰 줄 아는데,환경설정 부분부터 막히네요 ㅠㅠ 환경설정(설치)이 되면, 강사님 코드를 그대로 따라 해보려고 했는데, 혹시 환경설정 할 수 있는 매뉴얼 같은것이 있을까요? 아니면 비개발자가 듣기 어려운 강의일까요? 강의 뒷부분도 비개발자는 수강이 어려울지 문의드립니다. 감사합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
GPT-4o 모델 질문!
안녕하세요! ChatOpenAI를 활용해서 항상 강의 잘듣고 있습니다. 강의 따라 모델을 gpt-4o로 사용하던중https://openai.com/api/pricing/에서 4o여도 모델의 종류가 gpt-4o, gpt-4o-2024-08-06, gpt-4o-2024-05-13으로나눠져있는 것 같은데 가격도 다르더라고요. 이들은 무슨차이가 있는건가요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
docx2txt 라이브러리에 대한 질문!
선생님 강의 잘 듣고 있습니다. 강의 내용과 함께 직접 하나하나 따라하고 공식문서도 확인하면서 해보던중, 워드 문서를 loader하기위해 docx2txt라이브러리를 사용하는 것을 봤습니다. 물론 오픈소스 라이브러리이고, 전부터 잘 사용해온것 같아 이걸로 진행해도 이상없지만,LangChain v0.2공식문서에서는 docx파일을 로더하기위해선 Azure AI Document Intelligence으로 예시가 되어 있더라고요. (제가 못찾은 거 일 수도 있어요..)어떤 차이가 있는 건지...비용이 드는 건지, 혹여나 한국어문서이다보니 뭐가 더 잘 loader하는지 궁금합니다!
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
Retrieve 후 LLM 답변 관련 문의
안녕하세요? 강의 따라서 해보고 있는데, 질문할 때마다 답을 다르게 합니다. 이런 부분은 어떻게 해야 주로 정답을 이야기 할까요? 항상 정답을 이야기하면 좋겠으나 그렇지 않습니다. (3.5/3.6강 까지 들었습니다. 너무 여러 번 물어봐서 그런걸까요?)
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
소스 코드 git에 있나요?
소스 코드가 git에 있는건가요? 강의 중간에 git commit 하시던데 소스 코드를 어디서 볼수 있나요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
pinecone 이 더이상 무료가 아닌거 같은데요;;
pinecone에서 인덱스를 생성하려고 봤더니 더이상 무료로는 인덱스 생성이 안되는 것 같아서요;; 그런데 강의 후반부는 전부 pinecone 사용하는걸로 하셔서 실습을 따라하기 좀 불편하네요;;
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.1 파트) window에서 환경 설정
안녕하세요. LLM과 RAG와 관련하여 공부할 일이 생겨서 강의를 결제하여 듣게 되었습니다. 우선 좋은 강의 찍어주셔서 감사의 말씀 먼저 드립니다.강의가 macOS를 사용하여 진행을 하시다보니 제 window 환경에서는 3.1 환경 설정 파트에서 pyenv 명령어와 pyenv virtualenv가 작동을 하지 않습니다... 검색해보니 pyenv-win으로 하면 된다는 말도 있어서 이리저리 따라해봤는데도 잘 작동하지 않습니다. window에서는 어떻게 환경 설정을 해야하는지 질문 드립니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
streamlit chatbot 히스토리 저장 관련 이슈
llm을 주제로 개인 프로젝트를 진행하는데에 도움을 받고자 강의를 찾고 듣게 되었습니다. llm에 대해 처음 학습하는데도 이해가 쏙쏙 되는 강의 였습니다! 감사합니다한가지 질문 드리고 싶은데 streamlit으로 챗봇 실습을 하는 과정을 참고하여 개인프로젝트를 진행하고 있습니다. 개인 프로젝트는 사람의 얼굴 이미지를 업로드하여 분석하는 내용인데 여기서 챗봇 형식으로 질의응답을 주고받는 형태입니다. 여기서 질의응답을 주고받는 과정을 message_list에 담아 대화 내용을 기록하고 있습니다. 대화를 진행하고 분석 결과가 나온 내용에서 다시 새로운 이미지를 업로드 할때 그 전의 진행했던 대화 내용과 결과를 담은 message_list를 초기화 하지않고 ui로 보여지는 기록들만 초기화를 하여 앞에서 진행했던 분석을 동일하게 진행되게 하고 싶습니다. 혹시 이런 기능을 가진 코드나 라이브러리를 알고 계신게 있으실까요? 강사님의 지식을 공유해주신다면 제 개인 프로젝트에도 많은 도움을 받을 수 있을꺼같습니다. 감사합니다!!
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
엑셀 파일 관련 문의가 있습니다~!
안녕하세요 강사님 질문이 있습니다.엑셀파일을 pinecone에 업로드하여 데이터 분석용으로도활용이 가능할까요?예를 들어서 "판매 건수가 50개 이상인 월 알려줘" 입니다엑셀파일을 pinecone에 업로드는 완료하였는데,답변을 전혀 못하고 있어, 다른 방법이 있는지 궁금하네요.감사합니다.추가로 엑셀파일을 pinecone에 적재할 때하나의 행이 하나의 ID에 적재되는게 맞을까요??
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
ollama(llama3.1)을 사용했을때 답변 생성 이슈
안녕하세요, 우선 좋은 강의 제작해주셔서 감사합니다.저는 오픈소스 모델을 활용하여 사내에서 구동되는 어플리케이션을 만드는게 목표여서 ollama를 통해 llama3.1 모델로 실습을 진행하고 있는데요,RAG를 구성한 뒤 테스트 시 llama3.1이 답변을 제대로 못하고 있는데, 어떤 부분이 문제인지 잘 모르겠습니다. 한국어라서 성능에 문제가 있는건가 싶었는데 huggingface의 Meta-Llama-3.1-8B-Instruct로 한국어로 된 프롬프트를 다양하게 테스트 했을때는 성능이 괜찮았습니다. llm을 ChatUpstage로만 바꿨을때는 응답이 제대로 나오고 있어서 RAG 구성에 문제가 있을 가능성도 낮아보입니다.응답 전문은 아래와 같습니다.제가 봤을때는 답변이 생성된게 아니라 관련 데이터를 그냥 리턴해주고 있는 것 같습니다.{'query': '연봉 5천만원인 직장인의 소득세는 얼마인가요?', 'result': '기장세액공제와 관련된 장부 및 증명서류를 해당 과세표준확정신고기간 종료일부터 5년간 보관하지 아니한 경우. 다만, 천재지변 등 대통령령으로 정하는 부득이한 사유에 해당하는 경우에는 그러하지 아니하다.'} {'query': '연봉 5천만원인 직장인의 소득세는 얼마인가요?', 'result': '[전문개정 2009. 12. 31.]\n\n\n\n① 종합소득과세표준에 다음의 세율을 적용하여 계산한 금액으로 한다.\n\n② 제1항에서 “종합소득와세표준”이란, 그 해의 세액표준에서 공제되는 자금과 기타공제하는 자금(해당 연도 법률에 정함)에 해당하는 소득과세표준을 말한다. <개정 2009. 12. 31., 2016. 12. 20., 2017. 12. 19., 2020. 12. 29., 2022. 12. 31.> \n\n③ “공제하는 자금”이란, 공제대상자에 해당하는 사람(그 배우자를 포함한다)의 생계를 같이 하는 사람에게 지급되는 연금 또는 공제대상부양가족, 공제대상장애인, 공제대상경로우대자의 부양비 또는 공제대상공로인, 공제대상국외거주자에 해당하는 사람의 거주비, 공제대상국외거주자의 배우자에게 지급되는 거주비(이하 “공제대상부양가족과 같은 공제대상자”라 한다) 또는 공제대상자(그 배우자를 포함한다)의 비유가족에 해당하는 사람의 생계를 같이 하는 사람으로서, 국외거주자의 자산으로부터 지급되는 돈에 한하여 공제하고 있는 것으로 추정되거나, 국외거주자의 가구원 중에서 공제대상자가 아닌 자산으로부터 지급하는 돈에 한하여 공제하는 경우를 말한다. 다만, 상기 각 공제할 사항과 같은 공제가 국세청장이 정한 금액을 초과하지 아니하고 과세표준 확정신고자에게서 받는 경우에는 이에 관계하지 아니하다.<개정 2014. 1. 1., 2016. 12. 20., 2017. 12. 19., 2020. 12. 29., 2022. 12. 31.> \n\n④ “공제하는 자금”의 범위와 방법은 「국세기본법」 제44조에 따른 국세청장이 정한다.<개정 2014. 1. 1., 2016. 12. 20., 2017. 12. 19., 2020. 12. 29., 2022. 12. 31.> \n\n⑤ “공제대상자”는, 「국세기본법」 제44조에 따른 국세청장이 정한 금액을 초과하지 아니하고 공제하는 자금이 있다면 그 사람으로 한다.<개정 2014. 1. 1., 2016. 12. 20., 2017. 12. 19., 2020. 12. 29., 2022. 12. 31.> \n\n⑥ “공제대상자” 중 거주자의 부양가족 중 거주자(그 배우자를 포함한다)의 직계존속이 주거 형편에 따라 별거하고 있는 경우에는 제50조에서 규정하는 생계를 같이 하는 사람으로 본다.\n\n⑦ 제50조, 제51조 및 제59조의2에 따른 공제대상 배우자, 공제대상 부양가족, 공제대상 장애인 또는 공제대상 경로우대자에 해당하는지 여부의 판정은 해당 과세기간의 과세기간 종료일 현재의 상황에 따른다. 다만, 과세기간 종료일 전에 사망한 사람 또는 장애가 치유된 사람에 대해서는 사망일 전날 또는 치유일 전날의 상황에 따른다.<개정 2014. 1. 1., 2016. 12. 20., 2017. 12. 19., 2020. 12. 29., 2022. 12. 31.> \n\n⑧ 제50조제1항제3호 및 제59조의2에 따라 적용대상 나이가 정해진 경우에는 제4항 본문에도 불구하고 해당 과세기간의 과세기간 중에 해당 나이에 해당되는 날이 있는 경우에 공제대상자로 본다.<개정 2014. 1. 1., 2016. 12. 20., 2017. 12. 19., 2020. 12. 29., 2022. 12. 31.> \n\n⑨ “공제대상자”의 범위와 방법은 「국세기본법」 제44조에 따른 국세청장이 정한다.<개정 2014. 1. 1., 2016. 12. 20., 2017. 12. 19., 2020. 12. 29., 2022. 12. 31.> \n\n[더보기]'} 추가로 확인이 필요한 사항이 있다면 말씀주시면 공유드리겠습니다!확인 부탁드립니다.감사합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
split시 encode/decode관련 질문
안녕하세요. langChain을 쓰지 않고 수동으로 split하는 부분 보여주시던 부분 관련해서 질문드립니다.질문1.encode후에 chunk 묶고 다시 decode하는이유가 무엇인가요? 그냥 encode하지 않고 적절히 묶어 잘라도 되지 않나 싶은 생각을 했는데요.그냥 text 기반으로 chunk를 묶어버리기만 하면 별로 의미있게 잘리지 않기때문이다..로 이해해야할까요? 질문2.인코딩하면 해당 텍스트 token이 숫자로 변환되는것같던데요.그 숫자가 정말 텍스트의 의미를 대체하여 의미를 갖게 되는건지? 아니면 그냥 키:값으로 저장시키고 그 키값으로 참조할수있게 바꿔놓는다는 의미인건지? 가 궁금합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
Vector DB FAISS 관련 질문입니다!
안녕하세요! 좋은 강의 감사합니다! 다름이 아니라 저는 Faiss를 사용하는데 Faiss의 인덱스를 HuggingFace에 업로드하고 배포된환경에서 load 해서 쓰는 것은 비효율적인가요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
xml 파일 활용 방법 문의
안녕하세요강의에서는 docx문서를 활용해서 강의를 해주셨는데, 보니깐 langchain에서 PDF, 엑셀, json 등도 지원하여 활용할 수 있는 것 같았습니다.문의 내용은, 공공데이터의 API 연동을 한 XML 파일 데이터를 pinecone에 저장 없이 학습시킬 수 있는지 문의드립니다!!
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
성능 개선 방법
안녕하세요! 좋은 강의 너무 감사드립니다.강의를 복습 차원에서 다시 한번 듣고 있는데, 몇가지 개선을 해보려고 합니다. 그중에서 채팅 답변 속도를 조금 더 빠르게 해보려고 하는데(몇번 사용을 해보는데 답변 생성 시간이 긴 것 같은 생각이 드네요), 혹시 추천해주실 방안이 있을까요?