LLM 응답속도
73
작성한 질문수 21
안녕하세요! LangChain 관련 강의를 수강하고 있습니다.
다름이 아니라 응답 속도에 관해서 질문드리고싶은데요.
LLM(e.g., OpenAI)에 입력(질문)한다.
OpenAI의 API Call이 수행된다.
OpenAI에서 응답이 BE로 전달된다.
이 순서가 될텐데. 이 때, 강의를 보면 AIMessage가 금방 도출이 되는데. 질문의 길이가 길고, 전문적이게 된다면 응답의 속도가 느려지는건지 궁금합니다.
답변 1
0
네, 맞습니다. 질문이 길고 전문적일수록 응답 속도는 느려집니다. 입력 토큰이 많아지면 모델이 처리해야 할 컨텍스트가 커져 초기 처리 시간이 증가하고, 복잡한 질문일수록 모델이 생성하는 응답도 길어지기 때문입니다.
강의에서 빠르게 보이는 이유는 주로 짧고 간단한 예제를 사용하기 때문이며, 실제 프로덕션 환경에서는 복잡한 질의에 수 초에서 수십 초가 소요될 수 있습니다. 이를 개선하려면 스트리밍 방식을 활용하여 토큰이 생성되는 즉시 사용자에게 전달하거나, 프롬프트를 최적화하여 불필요한 입력을 줄이는 방법을 고려할 수 있습니다.
마크다운을 텍스트 파일로 변환하기
0
7
1
작업형 1 유형 부분
0
6
1
수강평 이벤트
0
15
2
작업형 1 (삭제예정, 구 버전)
0
28
2
강의노트는 어디있나요?
0
11
0
노션 학습 자료 권한 요청
0
12
1
수강기간 연장 문의드립니다.
0
19
1
2유형 레이블 인코딩 VS 원핫 인코딩
0
19
3
part2강의 문의사항입니다.
0
17
2
수강기간 연장 문의드립니다.
0
26
1
인덱스 슬라이싱
0
26
2
코드를 첨부해야하는 이유가 있나요?
0
20
2
소리가 겹쳐서 들려요
0
19
2
데스크톱과 노트북 연결
0
26
1
RAG 강의 prompt 질문
0
72
2
system 메세지는 정의가 되어 있는 건가요?
0
52
2
새로 추가된 강의의 강의자료는 따로 없는 걸까요??
0
174
2
안녕하세요. 오늘 커뮤니티에 올라온 서적 예제 4.11관련 질문입니다.
0
116
2
llm 모델 사용 관련 질문 있습니다.
0
192
3
랭체인 질문드립니다.
0
174
2
코드 결과값이 좀 다릅니다.
0
181
2
chain 실행 오류가 납니다.
0
236
2
랭체인 실행이 안됩니다.
0
1362
3
typer 호환 문제
0
590
2





