2.1강에서 소개해주신 rlm/rag-prompt에 대해 궁금한 부분이 있습니다
Langchain에서 제공해주는 rag-prompt 기능에 대해 설명해주셨는데요
하나 궁금한게 LLM마다 prompt의 처리도 다를 것으로 생각되는데 prompt를 잘 만들어주는게 langchain 내부적으로 사용한 target model에 맞추어 최적화해주는건가요 ?
아니면 서로 다른 LLM이더라도 공통적으로 최적화된 prompt가 존재할 수 있는건가요 ?
답변 1
ollama설치해서 llama로 돌려도 되나요?
0
24
2
소득세법 docx 파일 공유 요청건
0
78
1
EXAONE 모델 불러오기 안되는 문제
0
92
2
[5.1 강의] LLM Evaluator에 Upstage를 사용하는 방법 + 변경된 Langsmith Docs를 참고하여 구현하는 방법 공유
0
118
2
강의 9에 QA관련된 import가 되지 않네요
0
118
2
🚨 python3.14 를 쓰고 계시면 chroma 에서 ConfigError 가 발생합니다.
1
210
1
강의와 책 관련 질문
0
93
1
문서 전처리 고민
0
116
1
RAG 배포 질문드립니다
0
102
1
강의 내용과는 별개로 궁금한 점이 있습니다
0
92
2
폐쇄망 챗봇 모델
0
98
1
AI agent 쿠폰
0
98
2
저는 왜 그대로 했는데 답변이 틀리게 나오는지 모르겠네요
0
108
2
langchain howto/sequence는 지금 doc 공식 사이트 어디서 확인할 수 있나요?
1
98
1
new_question에 대한 답 출력
0
78
2
랭체인 라이브러리
0
154
2
[LangGraph를 활용한 AI Agent 개발] 쿠폰 유효기간
0
110
1
postgresql의 pgvector 벡터는 어떤가요?
0
357
2
doc관련
0
137
2
load_dotenv() 실행 False
0
98
1
RAG 답변 개선을 위한 정답지 활용 구조 검토 요청
0
124
2
3.2 from langchain.chains ~ 에서 모듈을 찾지 못할 때.
2
420
2
강의 완료 오류
0
93
1
hub.pull 이슈
0
138
2





