인프런 커뮤니티 질문&답변

유명선님의 프로필 이미지
유명선

작성한 질문수

LLM 데이터 분석 - 웹 크롤링부터 추천 시스템까지

[실습] Youtube 동영상 검색 결과를 URL 형태로 수집

LLM 기능 사용시에 라이브러리 에러 문제

작성

·

111

0

안녕하세요, 선생님 강의 잘 듣고 있습니다.

공유 해 주신 코드를 실행 할 때 LLM 기능 사용할 때 에러가 발생되서 실행이 되지 않습니다. 에러코드 첨부 드립니다.

 

---------------------------------------------------------------------------

RateLimitError Traceback (most recent call last)

Cell In[14], line 29

26 # Chain

27 llm_chain = prompt | llm | output_parser

---> 29 response = llm_chain.invoke({"text": text})

31 response

File ~\miniconda3\envs\study\Lib\site-packages\langchain_core\runnables\base.py:2499, in RunnableSequence.invoke(self, input, config)

2497 try:

2498 for i, step in enumerate(self.steps):

-> 2499 input = step.invoke(

2500 input,

2501 # mark each step as a child run

2502 patch_config(

2503 config, callbacks=run_manager.get_child(f"seq:step:{i+1}")

2504 ),

2505 )

2506 # finish the root run

2507 except BaseException as e:

 

생략 ~

 

해결 방법이 있을까요?

답변 2

1

판다스 스튜디오님의 프로필 이미지
판다스 스튜디오
지식공유자

안녕하세요.

첫 번째 에러 로그를 보면 "RateLimitError Traceback (most recent call last)"와 같은 내용이 있습니다. API 요청 한도 초과 또는 일시적인 서버 트래픽 증가에 따른 영향 등으로 추정됩니다.

먼저 API 사용량을 체크해보시고, 사용량 여유가 있다면 잠시 기다렸다가 해보시면 될 것 같습니다.

 

감사합니다.

0

유명선님의 프로필 이미지
유명선
질문자

invoke 메서드 사용 자체에서 막히는거 같습니다.

유명선님의 프로필 이미지
유명선

작성한 질문수

질문하기