LLM 응답속도
71
작성한 질문수 21
안녕하세요! LangChain 관련 강의를 수강하고 있습니다.
다름이 아니라 응답 속도에 관해서 질문드리고싶은데요.
LLM(e.g., OpenAI)에 입력(질문)한다.
OpenAI의 API Call이 수행된다.
OpenAI에서 응답이 BE로 전달된다.
이 순서가 될텐데. 이 때, 강의를 보면 AIMessage가 금방 도출이 되는데. 질문의 길이가 길고, 전문적이게 된다면 응답의 속도가 느려지는건지 궁금합니다.
답변 1
0
네, 맞습니다. 질문이 길고 전문적일수록 응답 속도는 느려집니다. 입력 토큰이 많아지면 모델이 처리해야 할 컨텍스트가 커져 초기 처리 시간이 증가하고, 복잡한 질문일수록 모델이 생성하는 응답도 길어지기 때문입니다.
강의에서 빠르게 보이는 이유는 주로 짧고 간단한 예제를 사용하기 때문이며, 실제 프로덕션 환경에서는 복잡한 질의에 수 초에서 수십 초가 소요될 수 있습니다. 이를 개선하려면 스트리밍 방식을 활용하여 토큰이 생성되는 즉시 사용자에게 전달하거나, 프롬프트를 최적화하여 불필요한 입력을 줄이는 방법을 고려할 수 있습니다.
미션 06-02
0
9
1
yes24 수집 md 파일 만들 때
0
11
1
python main.py 실행시 게임이 실행이 안돼요
0
14
2
antigravity 대신 cursor를 활용해도 되나요?
0
17
1
뉴스 검색 분류 한도초과
0
22
2
무료할당량 사용하는데 문제가 생겼습니다.
0
16
1
완성자료
0
13
2
섹션5 노션링크 는 따로 없나요?
0
19
2
필기자료 사라졌나요?(실기 일주일만에 안돼서 재도전-_-)
0
20
2
Part 4에서 강의 연관 노션 정보들이 워드파일에 없습니다.
0
23
2
첨부자료 Part 4 코드 확인 부탁드리겠습니다.
0
20
2
섹션2-11 내용중 tool_call
0
22
2
질문 드립니다.
0
38
2
max token을 제한하는게 왜 성능을 개선하게 되는걸까요?
0
30
2
RAG 강의 prompt 질문
0
70
2
system 메세지는 정의가 되어 있는 건가요?
0
50
2
새로 추가된 강의의 강의자료는 따로 없는 걸까요??
0
171
2
안녕하세요. 오늘 커뮤니티에 올라온 서적 예제 4.11관련 질문입니다.
0
114
2
llm 모델 사용 관련 질문 있습니다.
0
191
3
랭체인 질문드립니다.
0
172
2
코드 결과값이 좀 다릅니다.
0
179
2
chain 실행 오류가 납니다.
0
236
2
랭체인 실행이 안됩니다.
0
1359
3
typer 호환 문제
0
587
2





