• 카테고리

    질문 & 답변
  • 세부 분야

    AI · ChatGPT 활용

  • 해결 여부

    미해결

LECL 문법을 통한 RAG chain 구성

24.04.17 12:32 작성 조회수 43

0

위 코드에서는

# Prompt와 ChatModel을 chain으로 연결

document_chain = create_stuff_documents_chain(llm, prompt)

# Retriever를 chain에 연결

retriver_chain = create_retrieval_chain(retriever, document_chain)

response = retriver_chain.invoke({"input": message})

return response['answer']

를 통해서 답변을 구성했는데.
rag_chain = {'context':retriever, 'input': message} | rag_prompt | llm
위와같이 LECL 방식을 통한 response를 구성하고싶은데 어떻게 해야할까요?

 

답변 1

답변을 작성해보세요.

0

안녕하세요.

보내주신 코드 부분을 아래 코드와 같이 LCEL을 적용해서 처리할 수 있습니다.

여기서는 StrOutputParser 를 사용해서 모델 응답 메시지 중에서 텍스트만을 추출합니다.

 

from langchain_core.output_parsers import StrOutputParser def format_docs(docs): return '\n\n'.join([d.page_content for d in docs]) retriver_chain = prompt | llm | StrOutputParser() response = retriver_chain.invoke({"input": message}) return response

 

한번 적용해보시고 추가적으로 궁금하신 점이 있으면 말씀해주세요.

감사합니다.