답변의 정확성을 위한 질문
244
작성한 질문수 9
안녕하세요 강사님
답변의 정확성을 높이기 위해 upstage에서 temperature를 사용 해보았는데요.
3~4번 까지 질문의 대답을 잘해주다가 그 후에는 답변에 무한핑으로 "답변을 생성중입니다"가 계속 나오고 있습니다!
기다려보면 토큰 수 초과라고 오류가 나오는데,, temperature 옵션을 넣어주고 나서 토큰 수 초과 오류가 계속 나오고 있습니다. 원인이 무엇일까요???
def get_llm(model_name='solar-1-mini-chat', temperature=0.3):
llm = ChatUpstage(model_name=model_name, temperature=temperature)
return llm
답변 2
0
안녕하세요! 상세 에러메세지를 올려주실 수 있으실까요?
토큰 수 초과라면 크레딧 이슈이거나 한번에 너무 많은 양의 텍스트를 인풋으로 넣어서 발생하는 문제일 수 있습니다
0
에러 보면 요청 토큰 수가 많다고하는데 temperature를 지정하고 나서 저렇게 계속 뜹니다.
openai에서는 안나오는 오류가 upstage에서 계속 나와서 문의드립니다!
retriever = database.as_retriever(search_kwargs={'k':5})
리트리버는 5로 지정하였습니다.
0
맥스 토큰이 4000인데 27609만큼 넣어서 요청을 보내서 발생하는 문제입니다.
retriever에서 리턴하는 문서의 갯수를 줄여주시고
각 Chunk의 크기도 줄이는게 필요할 것 같습니다
0
안녕하세요, 인프런 AI 인턴입니다. 이홍기님.
Upstage에서 temperature 옵션을 사용하면서 다수의 질문에 대한 답변에 “답변을 생성중입니다”가 지속적으로 표시되고, 토큰 수 초과 오류가 발생하는 문제에 대해 답변드리겠습니다.
원인 분석
Temperature 설정과 토큰 수:
- Temperature 옵션은 답변 생성의 다양성을 조정하게 됩니다. Temperature 값이 높거나 낮더라도 토큰 수 초과 오류에는 직접적인 영향이 없을 수 있습니다.
- 답변 길이가 영향을 미칠 수 있습니다. Temperature 값으로 인해 답변이 길어질 경우, 할당된 토큰 수를 넘어서게 되면 해당 오류가 발생할 수 있습니다.
- Temperature 옵션은 답변 생성의 다양성을 조정하게 됩니다. Temperature 값이 높거나 낮더라도 토큰 수 초과 오류에는 직접적인 영향이 없을 수 있습니다.
토큰 제한:
- 토큰 수 초과 오류가 발생하는 이유는 모델이 한 번에 처리할 수 있는 최대 토큰 수를 초과했기 때문입니다. 이는 주어진 context와 생성된 답변의 길이에 따라 다르며, 대화가 이어질수록 누적된 토큰 수가 많아집니다.
- 토큰 수 초과 오류가 발생하는 이유는 모델이 한 번에 처리할 수 있는 최대 토큰 수를 초과했기 때문입니다. 이는 주어진 context와 생성된 답변의 길이에 따라 다르며, 대화가 이어질수록 누적된 토큰 수가 많아집니다.
해결 방법
토큰 사용 최적화:
- 매 회차의 질문과 답변이 너무 길어지지 않도록 조정하는 것이 좋습니다. 특히 대화가 길어질 경우 이전 대화 일부를 생략하거나 요약하는 방법도 고려해 볼 수 있습니다.
- 매 회차의 질문과 답변이 너무 길어지지 않도록 조정하는 것이 좋습니다. 특히 대화가 길어질 경우 이전 대화 일부를 생략하거나 요약하는 방법도 고려해 볼 수 있습니다.
토큰 제한 설정:
- LLM 설정에서 max_tokens 옵션을 사용해 한 번에 생성되는 답변의 최대 토큰 수를 제한할 수 있습니다. 예를 들어,
ChatUpstage인스턴스를 생성할 때max_tokens옵션을 명시할 수 있습니다.
- LLM 설정에서 max_tokens 옵션을 사용해 한 번에 생성되는 답변의 최대 토큰 수를 제한할 수 있습니다. 예를 들어,
세션 관리:
- 각 세션에 대해 accumulated tokens를 모니터링하고 일정 토큰 수에 도달하면 새로운 세션을 시작하는 방법도 고려할 수 있습니다.
- 각 세션에 대해 accumulated tokens를 모니터링하고 일정 토큰 수에 도달하면 새로운 세션을 시작하는 방법도 고려할 수 있습니다.
관련 질문
비슷한 문제를 다룬 질문과 그에 대한 답변을 참고해보세요:
- LLM이 답변하지 못함 : 데이터를 최적화하여 답변 효율성을 높이는 방법을 설명합니다.
- 4.3강의: Bad Request 오류 발생 : LLM 설정 시 발생할 수 있는 오류와 그 해결 방법에 대해 논의합니다.
코드 예시
다음은 get_llm 함수의 최적화된 예시입니다:
def get_llm(model_name='solar-1-mini-chat', temperature=0.3, max_tokens=150):
llm = ChatUpstage(model_name=model_name, temperature=temperature, max_tokens=max_tokens)
return llm
이를 주의 깊게 설정해 주시면 답변 생성 과정에서 발생하는 문제를 줄일 수 있을 것입니다.
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.
소득세법 docx 파일 공유 요청건
0
65
1
EXAONE 모델 불러오기 안되는 문제
0
89
2
[5.1 강의] LLM Evaluator에 Upstage를 사용하는 방법 + 변경된 Langsmith Docs를 참고하여 구현하는 방법 공유
0
104
2
강의 9에 QA관련된 import가 되지 않네요
0
111
2
🚨 python3.14 를 쓰고 계시면 chroma 에서 ConfigError 가 발생합니다.
1
200
1
강의와 책 관련 질문
0
87
1
문서 전처리 고민
0
111
1
RAG 배포 질문드립니다
0
95
1
강의 내용과는 별개로 궁금한 점이 있습니다
0
89
2
폐쇄망 챗봇 모델
0
94
1
AI agent 쿠폰
0
95
2
저는 왜 그대로 했는데 답변이 틀리게 나오는지 모르겠네요
0
102
2
langchain howto/sequence는 지금 doc 공식 사이트 어디서 확인할 수 있나요?
1
95
1
new_question에 대한 답 출력
0
75
2
랭체인 라이브러리
0
148
2
[LangGraph를 활용한 AI Agent 개발] 쿠폰 유효기간
0
107
1
postgresql의 pgvector 벡터는 어떤가요?
0
345
2
doc관련
0
128
2
load_dotenv() 실행 False
0
96
1
RAG 답변 개선을 위한 정답지 활용 구조 검토 요청
0
119
2
3.2 from langchain.chains ~ 에서 모듈을 찾지 못할 때.
1
406
2
강의 완료 오류
0
89
1
hub.pull 이슈
0
131
2
[3.3 강의] Upstage를 사용한 RAG 구현 성공기 공유
1
150
1





