묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
LangChain에서 프롬프트 품질을 개선하기 위해 A/B 테스트를 수행한 사례가 있을까요?
서로 다른 PromptTemplate를 구성하고, LangSmith나 사용자 만족도를 기반으로 점수를 비교하여 더 나은 프롬프트를 도출하는 케이스가 있는지 궁금합니다!
-
미해결회사에서 바로 쓰는 업무자동화 AI 에이전트 (w. n8n, LangGraph)
실무 Text-to-SQL 구현 시 도메인별 모델 분리 vs 통합 모델
실무에서 Text-to-SQL 시스템을 구축하면서 고민이 생겼습니다.현재 상황: 간단한 단일 테이블 조회는 잘 동작하는데, 실제 업무 데이터로 넘어가니 여러 도메인을 JOIN해야 하는 복잡한 쿼리에서 정확도가 많이 떨어집니다.고려 중인 해결 방안: 도메인별로 AI 모델을 분리하는 구조를 생각하고 있습니다. 사용자 질문이 들어오면 라우터가 적절한 도메인 모델로 연결하고, 해당 모델이 쿼리를 생성하는 방식입니다. 이렇게 하면 각 도메인에 특화되어 정확도가 올라갈 것 같습니다.걸림돌: 문제는 여러 도메인(예: A, B, C)의 데이터를 함께 조회해야 하는 경우입니다. 예를 들어 "지난 분기 매출 상위 고객들의 최근 주문 배송 현황"처럼 매출(A), 고객(B), 배송(C) 도메인이 모두 엮인 질문이 들어오면 어떻게 처리해야 할까요?질문:이런 크로스 도메인 쿼리는 실무에서 보통 어떻게 해결하나요?도메인별 분리 구조가 맞는 방향인지, 아니면 전체를 아우르는 통합 모델이 나은지 조언 부탁드립니다.
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
LangChain 질문
지식그래프(KG) 검색 - Text2Cypher 기법지식그래프(KG) 검색 - Text2Cypher 기법 여기 커리큘럼에서 갑자기 LangChain smith 관련 내용이 나오는데 이거 관련한 설정이나 Langchain이 LLM(GPT, Gen) 과 같은 설명이 좀 있었으면 좋겠어요그리고 한글에 대한 정보를 이해하기 위해서, 좀더 부가적인 설정이 필요한지 궁금해요~
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
upstage 사용
4강 부터 upstage 관련해서 업데이트가 안된것 같네요 openai -> upstage로 바꾸는 방법이나 샘플 코드가 있으면 좋을것 같습니다. docs나 지피티 참고해가면서 바꾸고 있는데 굉장히 힘드네요
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
성능 측정 방식
강의를 듣다보면 임베딩 및 프롬프트의 성능에 대해서 "어떤것이 좋다" 라고 말씀십니다. 혹시 그런 성능들은 직접 모두 수행해봐야 하는건가요? 아니면 어떤 상황에서는 어떤것의 성능이 더 좋다라는 데이터가 존재할까요?
-
미해결회사에서 바로 쓰는 업무자동화 AI 에이전트 (w. n8n, LangGraph)
openAi api 토큰 소진이나 토큰 제한일때
에이전트를 실행시키는 와중에Open Ai에서 토큰이 모두 소진되거나 제한됬을때개인적으로 알람이 오게하는 서비스는 따로 구축을 해놔야하는건가요?
-
해결됨맞춤형 LLM 만들기 : 처음 시작하는 분을 위한 RAG 기초 개념부터 멀티모달·Agent 실습까지
제공해준 ipynb 소스에
강사님의 api 키가 노출되는 거 같습니다호출은 안해봤는데
-
미해결회사에서 바로 쓰는 업무자동화 AI 에이전트 (w. n8n, LangGraph)
n8n기반 프로젝트 소스코드 히스토리 문서화 모델
프로젝트 소스 코드의 개발 히스토리 또는 문서화를 위해 도움을 줄 수 있는 모델을 생성 할 수 있을까요?코드에 주석을 다는 것이 아닌 개발 중인 프로젝트 코드에 특정 시간 또는 날짜를 기준으로 개발 히스토리를 개별 자동 생성 및 관리화 해서 추후에 개발자가 문서화를 위해 참고 할 수 있는 정보를 얻고 싶어요
-
미해결회사에서 바로 쓰는 업무자동화 AI 에이전트 (w. n8n, LangGraph)
Webhook 사용 시 AI Agent Memory 동작 관련 질문
안녕하세요 강사님, 강의 잘 보고 있습니다."n8n API와 Streamlit으로 만드는 이메일 작성 봇" 강의 중 9분 04초쯤 AI Agent 노드의 Memory(Simply Memory) 설정 부분에서 질문이 있습니다.강의 초반에는 "When chat message received" 노드를 사용하셨는데, 이 경우 워크플로우가 지속적으로 실행되면서 세션이 유지되므로 AI Agent가 이전 대화 내용을 기억할 수 있습니다.그런데 강의 후반부에서 "When chat message received" 노드를 "Webhook" 노드로 변경하셨습니다(Streamlit 사용을 위해). Webhook을 사용하면 사용자의 각 질문마다 워크플로우가 새롭게 실행되고, 실행이 끝나면 세션이 종료되는 것으로 알고 있습니다.이런 구조에서는 Simple Memory가 각 Webhook 호출 간 대화 내용을 유지하지 못해, AI Agent가 이전 대화를 참고할 수 없는 것 아닌가요?Webhook 방식에서도 대화 맥락을 유지하려면 Simple Memory 대신 Redis Chat Memory나 Postgres Chat Memory 같은 영구 저장소 기반 메모리를 사용해야 하는 것이 맞는지 궁금합니다.감사합니다.
-
미해결한시간으로 끝내는 LangChain 기본기
RAG 강의 안듣고 AGENT 강의 먼저 들어도 되나요?
안녕하세요 선생님RAG 강의 안듣고 AGENT 강의 먼저 들어도 되나요?
-
미해결회사에서 바로 쓰는 업무자동화 AI 에이전트 (w. n8n, LangGraph)
supabase vector store 에러 "unsupported Unicode escape sequence 400 Bad Request"
안녕하세요. 강의 잘 듣고 있습니다.강사님 혹시 이런 이슈 만난 적 있으신가요?n8n 에서 pdf 파일을 binary 형식으로 supabase vector store 입력 중 생기는 에러 입니다. 어떤 pdf 파일은 되고 어떤 pdf 파일은 에러 발생으로 멈춥니다.binary 를 json 으로 변경 후 DB table 쪽 jsonb 컬럼에 입력 할 항목 스캔하면 '\x00' 문자들이 몇개 있습니다.python 직접 코딩 streamlit, LangChain 으로 같은 로직, 같은 파일을 supabase vector store로 입력하면 문제 없이 임베딩 처리 후 입력이 됩니다.Issues:Error inserting: unsupported Unicode escape sequence 400 Bad Request
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
pdf화일을 임베딩하고 싶어요
현재 국가전산망 화재로 소득세법을 '국가법령센터'가 장애중입니다. 대체사이트인 (사법정보공개포탈)에서는 PDF와 TXT만 다운로드가 가능합니다. 대부분 pdf화일 문서가 많은데, word말고 pdf문서를 임베딩하는 방법/강의가 있었으면 합니다. 추가로, 문서내 텍스트외에 도형이나 표같은경우는 어떻게 임베딩을 하면 좋을까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
RAG 구조에서 전체 맥락을 이해시키는 방법
안녕하세요, 강사님.강의 덕분에 RAG를 활용한 챗봇을 성공적으로 구현해서 잘 사용하고 있습니다!(질문1)다만, RAG 구조상 사용자의 질문과 가장 유사한 문서 조각(chunk)을 찾아서 그 안에서만 답변을 생성하다 보니, 전체 문서를 이해해서 답변을 해주지는 못하는 점이 아쉽습니다.RAG로 학습시킨 매뉴얼이 약 47페이지 정도이고 양이 많지 않은데,이 전체 매뉴얼의 내용 전체를 이해하고 종합적으로 답변할 수 있는 방법이 있을까요?출처를 알려줄 수 있는 RAG의 분명한 장점이 있어서, 현재의 RAG 기반 구조를 유지한 채 개선을 할 수 있는 방법이 있을지 궁금합니다. (질문2)47페이지 문서 외에 더 자세한 매뉴얼을 추가로 반영하려고 하는데요,이때 pinecone에 동일 DB(인덱스)로 그냥 추가하는게 좋을지 아니면 더 나은 구조가 있을지 조언 구하고 싶습니다.감사합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
ㅠ 업스테이지 임베딩을 못 쓰네요..
업스테이징 임베딩에서 오픈ai쪽 _AllReturnType를 사용하는건가요?ㅠ버전 문제 같은데, 해결 방법이 없을까요 ? --------------------------------------------------------------------------- ImportError Traceback (most recent call last) Cell In[12], line 2 1 from dotenv import load_dotenv ----> 2 from langchain_upstage import UpstageEmbeddings 4 load_dotenv() 5 embedding = UpstageEmbeddings( 6 model = "solar-embedding-1-large" 7 ) File ~/IdeaProjects/inflearn-llm-app/.venv/lib/python3.10/site-packages/langchain_upstage/__init__.py:1 ----> 1 from langchain_upstage.chat_models import ChatUpstage 2 from langchain_upstage.document_parse import UpstageDocumentParseLoader 3 from langchain_upstage.document_parse_parsers import UpstageDocumentParseParser File ~/IdeaProjects/inflearn-llm-app/.venv/lib/python3.10/site-packages/langchain_upstage/chat_models.py:43 41 from langchain_core.utils import from_env, secret_from_env 42 from langchain_core.utils.function_calling import convert_to_openai_tool ---> 43 from langchain_openai.chat_models.base import ( 44 BaseChatOpenAI, 45 _AllReturnType, 46 _convert_message_to_dict, 47 _DictOrPydantic, 48 _DictOrPydanticClass, 49 _is_pydantic_class, 50 ) 51 from pydantic import BaseModel, Field, SecretStr, model_validator 52 from tokenizers import Tokenizer ImportError: cannot import name '_AllReturnType' from 'langchain_openai.chat_models.base' (/Users/xeroman.k/IdeaProjects/inflearn-llm-app/.venv/lib/python3.10/site-packages/langchain_openai/chat_models/base.py)
-
해결됨한시간으로 끝내는 LangChain 기본기
openai 사용하면서부터 할당량 초과했다고 나오네요.
RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.', 'type': 'insufficient_quota', 'param': None, 'code': 'insufficient_quota'}}무료계정이라 할당량 초과로 뜨는 거 같은데요.
-
미해결한시간으로 끝내는 LangChain 기본기
Safety 이해
안녕하세요 Safety 체인에 대해서 이해가 잘 안가서요.예를들어 "독도는 누구땅이냐?"는 질문으로 하고 AI가 "독도는 한국땅"이다라는 응답을 했을때 해당 답변이 할루시네이션인지 아닌지를 검증하기 위한 "독도는 한국땅이 맞아 맞으면: Yes, 틀리면: No 로 대답해줘" 라는 Safety 질문을 만들고 그거를 체인으로 연결시키라는걸로 이해했는데 맞을까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
upstate import 가 안됩니다.
---------------------------------------------------------------------------ImportError Traceback (most recent call last) Cell In[3], line 1 ----> 1 from langchain_upstage import ChatUpstage 2 llm = ChatUpstage() File ~/Documents/dev/Langchain/devInf/.venv311/lib/python3.11/site-packages/langchain_upstage/__init__.py:1----> 1 from langchain_upstage.chat_models import ChatUpstage 2 from langchain_upstage.document_parse import UpstageDocumentParseLoader 3 from langchain_upstage.document_parse_parsers import UpstageDocumentParseParser File ~/Documents/dev/Langchain/devInf/.venv311/lib/python3.11/site-packages/langchain_upstage/chat_models.py:4341 from langchain_core.utils import from_env, secret_from_env 42 from langchain_core.utils.function_calling import convert_to_openai_tool ---> 43 from langchain_openai.chat_models.base import ( 44 BaseChatOpenAI, 45AllReturnType, 46convert_message_to_dict, 47DictOrPydantic, 48DictOrPydanticClass, 49ispydantic_class, 50 ) 51 from pydantic import BaseModel, Field, SecretStr, model_validator 52 from tokenizers import Tokenizer ImportError: cannot import name '_AllReturnType' from 'langchain_openai.chat_models.base' (/Users/frair/Documents/dev/Langchain/devInf/.venv311/lib/python3.11/site-packages/langchain_openai/chat_models/base.py)이런 메세지이고요from langchain_upstage import ChatUpstage llm = ChatUpstage()해당부분 실행시 나타납니다.파이썬 3.11.9 버전 사용하고 있고 설치된 랭체인들을 보니 langchain_openai-0.3.34langchain)upstage-0.7.3버전으로 설치가 되어있기는 합니다.venv 사용하고 있고 맥os 실리콘 쓰고있습니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.3 코드 에러
3.3 LangChain 없이 구성하는 RAG의 불편함.ipynb의 8번째tax_collection = chroma_client.get_or_create_collection(collection_name, embedding_function=openai_embedding)에서 아래의 에러가 납니다.ValueError: An embedding function already exists in the collection configuration, and a new one is provided. If this is intentional, please embed documents separately. Embedding function conflict: new: openai vs persisted: default 어떻게 해야하나요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
현업에서 LangChain 사용에 대해 질문드립니다
안녕하세요 강사님 강의 듣고 이젠 스스로가 재밌어서 LangChain 문서들 혼자서 읽고 학습중입니다 ㅎㅎ강의를 들으면서 몇개 질문들이 있는데요현업에서 LangChain이 많이 쓰이나요?해외 reddit이나 개발자 커뮤니티에서도 랭체인이 오히려 불편하다고, 실제 서비스에서는 안쓴다고 하는 분들이 있어서 현업에서도 잘 쓰는지 궁급합니다LangChain 공식 문서를 보면 너무 자주 바뀌는데, 어떻게 해결하시나요?특히 API에서 말하는 예제랑 공식 문서에서 소개하는 예제가 너무 다릅니다 (retrieval chain 등)현재 2025년 10월 기준, 강의 내용은 0.2 기반이고 현재 랭체인 버전은 0.3, 그리고 10월 말에 1.0이 정식 출시된다고 해서 너무 혼란스럽네요바뀔 떄마다 코드를 수정하시는건가요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
출처를 좀 더 명확하게 표시해주고 싶습니다!
강의에서는 출처를 제공할 때, 프롬프트 설정을 통해 제공하는 형태로 되어있는데어떤 문서에서 몇 페이지에 있는 건지 표시해주기Pinecone기준 코사인 유사도를 숫자로 환산해 표시해주기좀 더 확실한 출처 제공을 위해 위에 적은 기능을 활용해보고 싶은데, 어떤 부분을 수정해줘야 할까요?지피티 대답이 너무 중구난방에 수정해도 오류가 계속 발생해서 여쭤봅니다!