![Thumbnail](https://cdn.inflearn.com/public/courses/333796/cover/97e4a8aa-06b4-4e6d-89c7-a6231062cedd/333796.png)
30%
46,200원
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
.env 파일을 불러오지 못할 때 해결방법을 여쭤보고 싶습니다..
.env 파일 형식도 지키고 있고 환경변수를 직접 실행했을 때도 제대로 작동하지만 .env 파일에서 환경변수를 로드하는 과정에서 문제가 있는지 None이 계속 뜨면서 api키를 가지고 오지 못하는 것 같습니다.. 아무리 다시 만들어 시도해봐도 달라지지 않아 질문 남깁니다 감사합니다..!디렉토리 위치 문제인지, 가상환경 커널에서 venv커널도 뜨지 않습니다. 윈도우 사용자라면 어떻게 해결해야 할까요? 쥬피터를 사용해서 그런걸까요?
- 해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
강의 3.4 (8분5초) : Pinecone 업로드 과정 에러 질문입니다.
안녕하세요.오늘도 열심히 강의 잘 듣고 있습니다.현재 Upstage 이용해서 진행하고 있구요.아래 코드에서 아래와 같은 오류가 떠서 질문 드립니다...!PineconeApiException: (400) Reason: Bad Request HTTP response headers: HTTPHeaderDict({'Date': 'Tue, 02 Jul 2024 05:30:59 GMT', 'Content-Type': 'application/json', 'Content-Length': '104', 'Connection': 'keep-alive', 'x-pinecone-request-latency-ms': '8478', 'x-pinecone-request-id': '8670121622045530037', 'x-envoy-upstream-service-time': '36', 'server': 'envoy'}) HTTP response body: {"code":3,"message":"Vector dimension 4096 does not match the dimension of the index 3072","details":[]}챗 GTP 에게 물어보니, 아래와 같은 답을 주었습니다.해당 에러 메시지는 Pinecone 데이터베이스에 벡터를 업로드하려고 할 때 발생한 것으로 보입니다. 에러 메시지에 따르면, 업로드하려는 벡터의 차원(4096)이 이미 생성된 인덱스의 차원(3072)과 일치하지 않아서 발생한 문제입니다.다음은 이 문제를 해결하기 위한 몇 가지 단계입니다:인덱스 차원 확인:인덱스를 생성할 때 지정한 차원을 확인합니다. 인덱스가 3072 차원으로 생성된 것으로 보이므로, 현재 사용하려는 벡터가 이에 맞지 않습니다.벡터 차원 조정:사용하려는 벡터의 차원을 3072로 조정하거나, 현재 벡터의 차원에 맞게 새로운 인덱스를 생성해야 합니다.인덱스 재생성 (필요시):새로운 차원으로 인덱스를 생성하려면 Pinecone 관리 콘솔이나 API를 통해 인덱스를 다시 생성해야 합니다.
- 해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
quota에 대해서 질문입니다.
안녕하세요강의 잘 듣고 있습니다.현재 3.1 환경설정 부분 진행 중 인데요.강의 6:32 초 쯤에 quota 가 다 찼다? 라는 에러가 나오고, 해결 법은 안나와 있습니다.ㅠㅠ그래서 여기서 멈춰있는 상황인데요.해결방법 알려주시면 감사하겠습니다.
- 해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
LLM 마다 QA 과정에서 큰 차이가 있을까요?
안녕하세요. 오늘 결제 후 열심히 듣고 있습니다! (소중한 강의 만들어주셔 정말정말 감사합니다.)다름 아니라, openAI 크레딧 유효기간이 지나gemini 로 강의 코드를 변경하며 진행하고 있는데요,병진님과 동일한 과정으로 openai -> google genai(model 은 gemini-pro, 변경한 클래스: GoogleGenerativeAIEmbeddings, ChatGoogleGenerativeAI) 로 변경해 답변을 받아보았는데 답변이 썩.. 좋지가 않네요 ㅠㅠprompt 템플릿을 작성하고 나서 답변을 받아보면 다음과 같이 답을 합니다.'제공된 문서에는 해당 질문에 대한 답변이 없습니다.'(페르소나를 명시할 때 "컨텍스트에 없으면 당신이 알고 있는 정보로 대답해주세요" 를 추가했음에도 동일하게 대답하네요..)궁금한 점은LLM 마다 답변 성능이 많이 차이가 날까요?openAI 가 정답일까요..?ㅠ (참고로 저희 조직에서는 GCP 기반이다보니 제미나이를 좀 써보고 싶어서요..)감사합니다!