inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

RAG를 활용한 LLM Application 개발 (feat. LangChain)

3.6 Retrieval 효율 개선을 위한 키워드 사전 활용

벡터db 저장 문제

75

왐뫔뫄

작성한 질문수 5

0

image.png

안녕하세요! 현재 3.6강까지 수강하였습니다.

저는 llm 모델은 ollama의 exaone을 사용했고 임베딩 모델은 HuggingFaceEmbeddings 모델을 사용했습니다.

Pinecone 콘솔로 들어온 데이터를 보고 있는데, 사진처럼 같은 게 2개씩 들어갔더라구요.

 

질문도 최대한 맞춰보려고

"거주자의 종합소득이 5천만원일 때 소득세는 얼마인가요?" 라고 하였는데

''제공된 문서들은 주로 다양한 유형의 소득과 관련된 조세 규정에 대해 설명하고 있지만, 특정 종합소득세율 테이블이나 5천만 원 소득에 대한 정확한 세액 계산 정보는 포함하고 있지 않습니다"

이런식으로 답변이 나왔습니다.

 

이것은 단지 llm모델과 임베딩 모델에서 생긴 문제인 걸까요? 여기서 어떻게 더 해야할지 모르겠어서 질문남깁니다. 감사합니다.!

vector-database llm langchain rag openai-api 카카오공채-개발

답변 2

0

제이쓴

안녕하세요! 좋은 질문 감사합니다.

중복으로 데이터가 들어간 것은 아마 데이터 처리중에 어디선가 에러가 있었을거라고 판단됩니다. 여기까지 오셨으면 이제 답변이 제대로 나와야 하는데요, retriever.invoke(<질문>) 을 통해서 원하는 문서가 제대로 가져와지는지 한번 확인해주시고, 문서가 잘 가져와지지 않는다면 높은 확률로 임베딩 모델의 성능 문제입니다ㅠㅠ

0

인프런 AI 인턴

안녕하세요, 인프런 AI 인턴입니다. 왐뫔뫄님.

주신 질문에 대한 답변을 드리겠습니다. Pinecone에 데이터를 저장할 때, 동일한 데이터가 두 번 저장되는 문제는 벡터 데이터베이스 설정 문제나 데이터 전처리 과정에서 발생할 수 있는 문제입니다. 아래에 몇 가지 확인 및 해결 방향을 제시하겠습니다.

1. 데이터 중복 저장 확인

  • 중복 데이터 제거: 데이터를 저장하기 전에 중복 검사를 수행하여, 이미 저장된 데이터가 다시 저장되지 않도록 확인합니다.

  • 데이터 인덱스 확인: 이미 백터 DB에 저장된 데이터가 있다면, 해당 인덱스를 기반으로 저장을 차단하거나 덮어쓰는 방식으로 설정할 수 있습니다.

2. 임베딩 모델 및 LLM 모델 설정

  • 임베딩 모델과 LLM 모델 최적화: HuggingFace의 임베딩 모델 및 ollama의 exaone 모델 설정에서 세부적인 파라미터를 최적화하여, 질문을 더 잘 이해하게 하도록 설정합니다.

  • 세부 기능 설정 : 데이터를 검색하는 과정에서 관련도 높은 결과를 인출하도록 k-값을 적절히 조정하고, 필요하다면 검색 파라미터(k 및 유사도 임계값 등)는 실험적으로 조정합니다.

  • 텍스트 전처리: 입력 데이터 텍스트와 쿼리 모두에 일관된 전처리를 수행합니다(예: 소문자로 변환, 불필요한 공백 제거 등).

3. 모델 응답 개선

  • 풍부한 답변 기대: LLM이 정확한 세금 계산 정보를 제공하지 않는 경우, 이것은 모델이 해당 데이터를 학습하지 않았거나, 정확한 정보를 인출하지 않은 경우입니다. 설정을 통해 LLM이 제공할 정보를 명확히 하고, 데이터베이스의 적절한 문서가 검색될 수 있도록 데이터 구조를 재검토합니다.

  • 데이터 적재 내용 확인: Pinecone에 저장되는 데이터의 구조 및 내용이 예상대로 잘 저장되고 있는지 확인하고, 필요시 저장 방식을 개선합니다.

질문 주제와 관련된 추가 정보를 원하신다면, DB별로 LLM 답변이 다른 이유가 궁금합니다.LLM이 답변하지 못함 링크를 참조하시면 도움이 될 수 있습니다.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

ollama설치해서 llama로 돌려도 되나요?

0

25

2

소득세법 docx 파일 공유 요청건

0

78

1

EXAONE 모델 불러오기 안되는 문제

0

92

2

[5.1 강의] LLM Evaluator에 Upstage를 사용하는 방법 + 변경된 Langsmith Docs를 참고하여 구현하는 방법 공유

0

118

2

강의 9에 QA관련된 import가 되지 않네요

0

118

2

🚨 python3.14 를 쓰고 계시면 chroma 에서 ConfigError 가 발생합니다.

1

210

1

강의와 책 관련 질문

0

93

1

문서 전처리 고민

0

116

1

RAG 배포 질문드립니다

0

102

1

강의 내용과는 별개로 궁금한 점이 있습니다

0

92

2

폐쇄망 챗봇 모델

0

98

1

AI agent 쿠폰

0

98

2

저는 왜 그대로 했는데 답변이 틀리게 나오는지 모르겠네요

0

108

2

langchain howto/sequence는 지금 doc 공식 사이트 어디서 확인할 수 있나요?

1

98

1

new_question에 대한 답 출력

0

78

2

랭체인 라이브러리

0

154

2

[LangGraph를 활용한 AI Agent 개발] 쿠폰 유효기간

0

110

1

postgresql의 pgvector 벡터는 어떤가요?

0

357

2

doc관련

0

137

2

load_dotenv() 실행 False

0

98

1

RAG 답변 개선을 위한 정답지 활용 구조 검토 요청

0

124

2

3.2 from langchain.chains ~ 에서 모듈을 찾지 못할 때.

2

420

2

강의 완료 오류

0

93

1

hub.pull 이슈

0

138

2