묻고 답해요
141만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결LLM 데이터 분석 - 웹 크롤링부터 추천 시스템까지
강의에서 소스코드는 어디서 볼 수 있을까요?
찾아봤는데 못찾겠어서 질문 드립니다,,,,
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
SelfQueryRetriever 사용시
안녕하세요 SelfQueryRetriever를 이용하여 메타데이터별로 문제를 생성하는 코드를 작성 중에 궁금한 것이 생겨서 질문드립니다. 데이터별로 메타데이터에 카테고리를 저장해놓았는데 카테고리별로 llm을 돌릴때마다 각 카테고리 내에서 문서를 랜덤하게 가져올 수 있는 방법이 있을까요?? 카테고리를 잘 인식해서 가져오는데 llm을 돌릴때마다 같은 데이터를 벡터db에서 받아와 생성합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
강의 3.4 (8분5초) : Pinecone 업로드 과정 에러 질문입니다.
안녕하세요.오늘도 열심히 강의 잘 듣고 있습니다.현재 Upstage 이용해서 진행하고 있구요.아래 코드에서 아래와 같은 오류가 떠서 질문 드립니다...!PineconeApiException: (400) Reason: Bad Request HTTP response headers: HTTPHeaderDict({'Date': 'Tue, 02 Jul 2024 05:30:59 GMT', 'Content-Type': 'application/json', 'Content-Length': '104', 'Connection': 'keep-alive', 'x-pinecone-request-latency-ms': '8478', 'x-pinecone-request-id': '8670121622045530037', 'x-envoy-upstream-service-time': '36', 'server': 'envoy'}) HTTP response body: {"code":3,"message":"Vector dimension 4096 does not match the dimension of the index 3072","details":[]}챗 GTP 에게 물어보니, 아래와 같은 답을 주었습니다.해당 에러 메시지는 Pinecone 데이터베이스에 벡터를 업로드하려고 할 때 발생한 것으로 보입니다. 에러 메시지에 따르면, 업로드하려는 벡터의 차원(4096)이 이미 생성된 인덱스의 차원(3072)과 일치하지 않아서 발생한 문제입니다.다음은 이 문제를 해결하기 위한 몇 가지 단계입니다:인덱스 차원 확인:인덱스를 생성할 때 지정한 차원을 확인합니다. 인덱스가 3072 차원으로 생성된 것으로 보이므로, 현재 사용하려는 벡터가 이에 맞지 않습니다.벡터 차원 조정:사용하려는 벡터의 차원을 3072로 조정하거나, 현재 벡터의 차원에 맞게 새로운 인덱스를 생성해야 합니다.인덱스 재생성 (필요시):새로운 차원으로 인덱스를 생성하려면 Pinecone 관리 콘솔이나 API를 통해 인덱스를 다시 생성해야 합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
quota에 대해서 질문입니다.
안녕하세요강의 잘 듣고 있습니다.현재 3.1 환경설정 부분 진행 중 인데요.강의 6:32 초 쯤에 quota 가 다 찼다? 라는 에러가 나오고, 해결 법은 안나와 있습니다.ㅠㅠ그래서 여기서 멈춰있는 상황인데요.해결방법 알려주시면 감사하겠습니다.
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
code . 미실행
VS 세팅에 문제가 있는제.. CMD 창에서 code . 해도 안열려요.. 어떻게 해야하나요? 1. 경로문제 환경설정변경에 path 에 들어가서 poetry 경로로 변경했지만 안됨VS 를 재다운로드받아서 실행하면서 (path 변경) 했지만 안됨 관리자권한으로 경로를 지정해서 수동으로 했지만 안됨 VS 파일열기로 들어감 그렇게 해도 실행이 안됨... 왜 그렇죠?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
LLM 마다 QA 과정에서 큰 차이가 있을까요?
안녕하세요. 오늘 결제 후 열심히 듣고 있습니다! (소중한 강의 만들어주셔 정말정말 감사합니다.)다름 아니라, openAI 크레딧 유효기간이 지나gemini 로 강의 코드를 변경하며 진행하고 있는데요,병진님과 동일한 과정으로 openai -> google genai(model 은 gemini-pro, 변경한 클래스: GoogleGenerativeAIEmbeddings, ChatGoogleGenerativeAI) 로 변경해 답변을 받아보았는데 답변이 썩.. 좋지가 않네요 ㅠㅠprompt 템플릿을 작성하고 나서 답변을 받아보면 다음과 같이 답을 합니다.'제공된 문서에는 해당 질문에 대한 답변이 없습니다.'(페르소나를 명시할 때 "컨텍스트에 없으면 당신이 알고 있는 정보로 대답해주세요" 를 추가했음에도 동일하게 대답하네요..)궁금한 점은LLM 마다 답변 성능이 많이 차이가 날까요?openAI 가 정답일까요..?ㅠ (참고로 저희 조직에서는 GCP 기반이다보니 제미나이를 좀 써보고 싶어서요..)감사합니다!
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Auto Differentiation에서 computational Graph 질문있습니다
안녕하세요, 좋은 강의 준비해주셔서 감사드립니다.딥러닝에 대한 흥미가 점점 더 깊어지는 중입니다!한가지 간략히 질문드리고 싶습니다.노드의 정의 문제와 관련된거 같은데요.. computation graph에서의 노드는 x, w, h, y, L 전부를 의미하는 반면, Neural network에서의 노드는 x, h, y, L이라고 이해하면 될까요?미리 감사드립니다.
-
미해결실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)
랭체인 외부 인터넷 사용 관련
안녕하세요~랭체인을 업무에 적용해 보고 싶어 질문 드립니다.현재 근무하는 환경 특성상(금융권)외부 인터넷망을 사용하지 못하는데요.이럴 경우 업무망에서 랭체인을 사용할 수 있는 방법이 없을까요??
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Section 3 이론 classification Loss function 질문
안녕하세요.Section 3 이론 classification Loss function 질문있습니다.ground truth는 각 class별 실제 확률값이라고 하셨는데, 실제 데이터에서 우리가 주어진 정보는 해당 observation이 어떤 클라스를 가지는지 label정보만 주어집니다. (확률이 아님)각 loss function별 비교를 위해 설명해주신부분은 이해가 되었으나, 실제로 모델이 학습할때 class별 ground truth 확률값을 모르는 상황에서 어떻게 학습이 되는지 궁금합니다.혹시라도 강의 후반에 관련 내용이 나온다면 미리 죄송하다는 말씀 드립니다.감사합니다.
-
미해결달리(DALL-E): 초보자를 위한 이미지 생성 가이드 (입문편)
한국 여성 이미지를 만드는데 문제가 있습니다.
안녕하세요. 1인 광고대행사를 운영하고 있습니다. 광고 이미지에 쓸 한국 여성 이미지를 만들려고 하는데요. 어떤 프롬프트를 넣든 전신 이미지는 나오지 않고 상반신 이미지만 만들어줍니다. 1) 어떤 프롬프트를 넣어야 전신샷을 만들어줄까요? 2) 상반신 이미지를 만들어줄 때 머리카락이나 어깨부분이 잘려서 나옵니다. 이 때도 어떤 프롬프트를 넣어야 여성 이미지가 신체 일부분이 잘리지 않고 이미지를 만들어줄까요?
-
해결됨프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
Error in loading PDF or creating vectorstore
안녕하세요. 강의 Gradio ChatInterface로 PDF 챗봇 애플리케이션 구현 (실습) 에서 additional inputs 에서 pdf 로딩하고, chunk size, chunk overlap, similarity metric, temperature 까지 해놓고 쿼리로 'what is the attention mechanism in transformers?' 라고 하니 대답으로 ' Error in loading PDF or creating vectorstore' 가 나옵니다. dependencies 는 아래와 같습니다. [tool.poetry.dependencies]python = "^3.12"chromadb = "^0.5.3"python-dotenv = "^1.0.1"langchain = "^0.2.5"langchain-openai = "^0.1.8"langchain-community = "^0.2.5"pypdf = "^4.2.0"gradio = "^4.36.1"gradio-pdf = "^0.0.11"langchain-text-splitters = "^0.2.1" 무엇이 문제일까용??
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
section4의 entropy 시그마 식 전개에 대한 질문입니다.
안녕하세요, 좋은 강의 잘 듣고 있습니다. 다름이 아니라 entropy를 안내해주실때 entropy의 식이-Σp_i*log(p_i)위 식이고, p와 1-p에 대한 의미도 잘 이해했습니다. 그런데 대입하는 과정에서 갑자기-plogp-(1-p)log(1-p)가 된 것이 이해가 안되네요... 그래프로 그려주시면서 설명해주신 것도 잘 이해가 되는데, 어떤 과정으로 위 식이 나왔는지 이해가 안되서 질문드려요.제가 단순 시그마 푸는 법을 잊어서 생긴 것이라면 다시 찾아보겠습니다. 두 값을 대입한다는 말이 어떤 것을 의미하는지 잘 이해가 안되서 질문드립니다. 감사합니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
!pip install langchain_community 문장이 필요할 것같아요(강의 2,4)
저만의 문제인지는 모르겠으나 !pip install langchain_community 설치가 계속 필요하네요~~
-
해결됨프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
환경세팅 문제
환경설정이 잘못된거 같아서, 커널설정도 했고, 파일경로도 확인했어요. 터미널에서는 인스톨되었다고 나오는데 막상 ipynb 에서는 잘 안됩니다. 어떻게 하면 좋을까요? 이미 3번째 시도라서 도저히 모르겠어용
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
RateLimitError
학습 관련 질문이 있으시면, 상세하게 남겨주세요.문제가 발생한 부분의 코드를 함께 올려주세요.수업 영상 몇 분/초 구간인지 알려주세요. 섹션1-3번째 강의 16분쯤에서 llm.invoke(prompt_text) 이 코드 작성부터 RateLimitError Traceback (most recent call last) Cell In[17], line 1 ----> 1 llm.invoke(prompt_text) File c:\Users\lhm22\AppData\Local\pypoetry\Cache\virtualenvs\qa-bot-nop3jHt_-py3.9\lib\site-packages\langchain_core\language_models\chat_models.py:170, in BaseChatModel.invoke(self, input, config, stop, kwargs) 159 def invoke( 160 self, 161 input: LanguageModelInput, (...) 165 kwargs: Any, 166 ) -> BaseMessage: 167 config = ensure_config(config) 168 return cast( 169 ChatGeneration, --> 170 self.generate_prompt( 171 [self._convert_input(input)], 172 stop=stop, 173 callbacks=config.get("callbacks"), 174 tags=config.get("tags"), 175 metadata=config.get("metadata"), 176 run_name=config.get("run_name"), 177 run_id=config.pop("run_id", None), 178 **kwargs, 179 ).generations[0][0],... (...) 1027 stream_cls=stream_cls, 1028 ) RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.', 'type': 'insufficient_quota', 'param': None, 'code': 'insufficient_quota'}}Output is truncated. View as a scrollable element or open in a text editor. Adjust cell output settings... 이런 에러가 발생하네요.. 혹시 어떻게 해결할 수 있을까요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
memory+ Retriever +llm 질문있습니다.
prompt는 memory+ Retriever +llm를 결합하여 사용할 때 사용할 수 없나요?
-
미해결(LLM개발) 랭체인과 챗GPT를 활용한 RAG 챗봇 만들기
수업 자료로 올라와 있는 자료가 소스 코드가 아닌 결과 파일입니다.
수업 자료로 올라와 있는 자료가 소스 코드가 아닌 결과 파일입니다.의도하신건지, 아니면 잘 못 올리신건지 문의 드립니다.
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
poetry로 파이썬 버전 설정하는 방법이 있나요?
특정 버전으로 진행하고 싶은데 고정으로 되는거 같아서요 궁금합니다!
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
Gradio ChatInterface로 PDF 챗봇 애플리케이션 구현 (실습) 에서 에러 발생합니다.
안녕하세요. 양질의 강의 감사드립니다. 아래와 같은 에러가 발생합니다. UnicodeDecodeError: 'cp949' codec can't decode byte 0x85 in position 144133: illegal multibyte sequence 그레서 Gradio 실행이 안되네요. 도움 요청드려 봅니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
llama 3 파인튜닝 관련 문의 사항
안녕하세요강의 내용을 기반으로 실습을 잘 진행 해보고 있습니다.허깅페이스에서 하나의 모델을 다운받아 테스트를 해보려고 하는데, 모델명.gguf 파일로 되어있는 모델은 autotrain으로 파인튜닝이 잘 진행되지 않아 문의 드립니다. !autotrain llm --train \ --project-name "llama3-finetuning-da-8B-Q4" \ --model "path/llama-3-8B-gguf-Q4_K_M/llama-3-8B-Q4_K_M.gguf" \ --data-path "/path/train_data/korquad" \ --text-column "text" \ --peft \ --quantization "int4" \ --lr 2e-4 \ --batch-size 8 \ --epochs 40 \ --trainer sft \ --model_max_length 2048 답변 부탁드리겠습니다. 감사합니다.