Inflearn Community Q&A
LLM 기능 사용시에 라이브러리 에러 문제
Written on
·
310
0
안녕하세요, 선생님 강의 잘 듣고 있습니다.
공유 해 주신 코드를 실행 할 때 LLM 기능 사용할 때 에러가 발생되서 실행이 되지 않습니다. 에러코드 첨부 드립니다.
---------------------------------------------------------------------------
RateLimitError Traceback (most recent call last)
Cell In[14], line 29
26 # Chain
27 llm_chain = prompt | llm | output_parser
---> 29 response = llm_chain.invoke({"text": text})
31 response
File ~\miniconda3\envs\study\Lib\site-packages\langchain_core\runnables\base.py:2499, in RunnableSequence.invoke(self, input, config)
2497 try:
2498 for i, step in enumerate(self.steps):
-> 2499 input = step.invoke(
2500 input,
2501 # mark each step as a child run
2502 patch_config(
2503 config, callbacks=run_manager.get_child(f"seq:step:{i+1}")
2504 ),
2505 )
2506 # finish the root run
2507 except BaseException as e:
생략 ~
해결 방법이 있을까요?
Answer 2
1
안녕하세요.
첫 번째 에러 로그를 보면 "RateLimitError Traceback (most recent call last)"와 같은 내용이 있습니다. API 요청 한도 초과 또는 일시적인 서버 트래픽 증가에 따른 영향 등으로 추정됩니다.
먼저 API 사용량을 체크해보시고, 사용량 여유가 있다면 잠시 기다렸다가 해보시면 될 것 같습니다.
감사합니다.
0





