작성
·
111
0
안녕하세요, 선생님 강의 잘 듣고 있습니다.
공유 해 주신 코드를 실행 할 때 LLM 기능 사용할 때 에러가 발생되서 실행이 되지 않습니다. 에러코드 첨부 드립니다.
---------------------------------------------------------------------------
RateLimitError Traceback (most recent call last)
Cell In[14], line 29
26 # Chain
27 llm_chain = prompt | llm | output_parser
---> 29 response = llm_chain.invoke({"text": text})
31 response
File ~\miniconda3\envs\study\Lib\site-packages\langchain_core\runnables\base.py:2499, in RunnableSequence.invoke(self, input, config)
2497 try:
2498 for i, step in enumerate(self.steps):
-> 2499 input = step.invoke(
2500 input,
2501 # mark each step as a child run
2502 patch_config(
2503 config, callbacks=run_manager.get_child(f"seq:step:{i+1}")
2504 ),
2505 )
2506 # finish the root run
2507 except BaseException as e:
생략 ~
해결 방법이 있을까요?