Inflearn Community Q&A
LECL 문법을 통한 RAG chain 구성
Written on
·
333
0
위 코드에서는
# Prompt와 ChatModel을 chain으로 연결
document_chain = create_stuff_documents_chain(llm, prompt)
# Retriever를 chain에 연결
retriver_chain = create_retrieval_chain(retriever, document_chain)
response = retriver_chain.invoke({"input": message})
return response['answer']
를 통해서 답변을 구성했는데.
rag_chain = {'context':retriever, 'input': message} | rag_prompt | llm
위와같이 LECL 방식을 통한 response를 구성하고싶은데 어떻게 해야할까요?
Quiz
RAG 기법을 사용하는 주된 이유는 무엇일까요?
LLM의 연산 속도를 높이기 위해
LLM의 학습 데이터를 확장하기 위해
LLM의 환각 현상을 줄이고 최신 정보에 정확히 응답하기 위해
LLM 모델 자체를 더 작게 만들기 위해
Answer 1
0
안녕하세요.
보내주신 코드 부분을 아래 코드와 같이 LCEL을 적용해서 처리할 수 있습니다.
여기서는 StrOutputParser 를 사용해서 모델 응답 메시지 중에서 텍스트만을 추출합니다.
from langchain_core.output_parsers import StrOutputParser
def format_docs(docs):
return '\n\n'.join([d.page_content for d in docs])
retriver_chain = prompt | llm | StrOutputParser()
response = retriver_chain.invoke({"input": message})
return response
한번 적용해보시고 추가적으로 궁금하신 점이 있으면 말씀해주세요.
감사합니다.





