묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
다음 강의 오픈
Evaluation 부분 궁금한데 다음 강의는 언제 오픈하세요~
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
안녕하세요.
안녕하세요.기획자로 일하고 있는 직장인입니다. 강의를 듣던중 갑자기 궁금한 것이 있는데,강사님께서 Claude Code대신 Cursor를 이용하시는 이유를 여쭤볼 수 있을까요? 감사합니다.
-
해결됨한시간으로 끝내는 LangChain 기본기
딥시크
조금 유치한 질물일수도 있긴 한데 주변 친구들이 딥시크를 사용하면 개인정보가 나간다, 해킹당한다느니 와 같은 말을 하는데 진짜일까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
DB별로 LLM 답변이 다른 이유가 궁금합니다.
파인콘 사용시에 2MB 초과하는 문제 있잖아요. 그래서 다른 답변들 보고 사이즈 조정해서사이즈만 맞춰서 했더니 저장은 문제 없이 됬는데 저희 수업 내용상 질문이 '연봉 5천만원인 직장인의 소득세는 얼마인가요?' 라는건데 기존 크로마 이용시에는{'query': '연봉 5천만원인 직장인의 소득세는 얼마인가요?', 'result': '연봉 5천만원인 직장인의 소득세는 "근로소득에 대해서는 기본세율"이 적용된다고 명시되어 있습니다. 기본세율에 의한 과세는 종합소득세 과세표준에 따라 결정되며, 구체적인 세금 금액은 소득 공제 등이 고려되어야 하므로 단순 계산으로 제시할 수 없습니다. 따라서, 구체적인 세금을 산정하기 위해서는 소득세율표와 개인 소득 공제를 참고해야 합니다.'}파인콘 사용시에는 {'query': '연봉 5천만원인 직장인의 소득세는 얼마인가요?', 'result': '연봉 5천만원인 직장인의 소득세는 84만원과 1,400만원을 초과하는 금액의 15퍼센트를 더한 것입니다. 이를 계산하면, 소득세는 약 474만원입니다.'}같은 문서를 가지고 DB만 달리 하는건데 이렇게 답변이 상이하게 나오면 문서가 제대로 벡터DB에 저장이 안됬다고 생각할수 있는건가요? 원인이 궁금합니다.그리고 수업 영상 랭체인 홈페이지에서 나오는 코드랑 실제로 들어가서 버전 맞추어도 예제 코드가 달라서 좀 어려움이 있습니다. 10분짜리 영상을 30분 넘게 보게 됩니다. 그나마 깃허브 코드가 비슷해서 그걸로 사용하고 있습니다.
-
미해결[입문/초급] 다양한 예제를 통한 추천 시스템 구현
안녕하세요 몇가지 질문이 있습니다.
안녕하세요!좋은 강의 만들어주셔서 감사합니다.방금전 강의를 신청하였고,저는 데이터사이언스 관련 전공자이며, 현재 회사에서 IT PM직군을 하고 있습니다. 다름이 아니라, 추천시스템을 예전에 비영리 목적으로 미니 프로젝트를 하며 잠시 다루다가 데이터가 별로 없기도 하고 만들고자 하는 데이터 형식과 기술적인 문제로 시도를 하다가 접었던 이력이 있습니다.현재 대략적으로 구현을 하고자 하는 것은 제조 트렌드 기반의 맞춤형 소재를 추천하는 프로젝트를 진행할 예정입니다. 그래서 실제 사용자의 선호도와 성향을 기반으로한 데이터가 없다고 가정하며, 최신 트렌드를 반영하여 사용자의 정확한 직군과 역할을 살펴보며, 추천을 하는 시스템을 원하고 있습니다. 보통 OTT나 쿠팡과 같은 도매사이트에서 ID, 사용자, 아이템 기반의 각종 추천시스템에 대한 아이디어는 검색을 하거나 깃헙에서 충분히 구할수 있으나, 위와 같은 부분은 데이터 구축까지 진행되어야 하는데, 추천해주실만한 데이터 형성 기법과 방법에 대해서 여쭙고 싶습니다. 물론 강의를 이제 시작하여, 강의를 완강할때쯤이면 아이디어가 떠 오를수도 있는데... 현재 급하게 일을 진행하며 하다보니, 전체 강의를 조금씩 주제를 기반으로 살펴봤는데 아이디어가 떠오르지 않고 자문을 구할때가 없어서 급하게 질문을 드렸습니다. 실례가 안된다면 혹시 강의에서도 관련된 부분이나 키워드 위주라도 검색해볼만한 내용이 있다면, 추천해주시면 감사하겠습니다ㅠ
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
강의 46에서 노드의 병렬 수행시 Thread-Safety 문제는 없을까요?
강의 46 듣고 질문드립니다.여러 노드가 병렬로 수행 되면서 동일한 ToolSearchState를 접근해서 데이터를 수정하게 되면 thread-safety 문제가 발생할 텐데 이런 부분에 대한 설명이 명시적이지 않아서 어떻게 처리 되는 건지 궁금합니다. Langchain에서 State 클래스는 이미 thread-safety를 보장하는 것인가요? 아니면 강의 예제에는 없었지만 실 구현시에는 사용자가 직접 thread-safety에 대한 고려를 해서 코딩해야 하는 건가요?
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
similarity_search 후 왜 다시 LLM을 통해 grade를 측정 하나요?
안녕하세요.Self RAG 에이전트 구현하기 강좌에 대한 질문이 있습니다. 중간 중간에 결과 평가하는 것 중 검색된 문서와 질문에 대한 관련성을 평가하는 부분이 있는데요, 검색 자체를 embedding된 vector에서 similarity search를 하여 뽑아 낸 것들이고, 이 방식 자체가 질문과 유사한 문서를 뽑아 내는 기술인데 굳이 LLM으로 하여 다시 평가를 하게 하는 이유는 뭘까요? 벡터 embedding 과 유사도 검색에 대한 기술이 LLM에 맏기는 것 보다 유사도 검색에 있어 더 정확해야 하는 것이 아닌가 하는 생각이 들어서요. LLM이 하는 유사도 평가가 더 정확하다면 굳이 벡터 embedding 같은 기술을 쓸 필요가 있을까 싶어서 질문 드립니다.
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
agent_executor 실행시 JSONDecodeError에러가 발생해요.
문제가 발생하는 코드 ㄴ LLM모델만 gemini-2.5-pro로 사용하고 있고 다른 부분은 다른게 없는데 아래의 에러가 발생하네요...혹시 도와주실 수 있을까요? # AgentExecutor 실행 query = "시그니처 스테이크의 가격과 특징은 무엇인가요? 그리고 스테이크와 어울리는 와인 추천도 해주세요." agent_response = agent_executor.invoke({"input": query})에러로그 Entering new AgentExecutor chain... Invoking: search_menu with {'query': 'Signature Steak'} [Document(metadata={'menu_name': '시그니처 스테이크', 'menu_number': 1, 'source': './data/restaurant_menu.txt'}, page_content='1. 시그니처 스테이크\n • 가격: ₩35,000\n • 주요 식재료: 최상급 한우 등심, 로즈메리 감자, 그릴드 아스파라거스\n • 설명: 셰프의 특제 시그니처 메뉴로, 21일간 건조 숙성한 최상급 한우 등심을 사용합니다. 미디엄 레어로 조리하여 육즙을 최대한 보존하며, 로즈메리 향의 감자와 아삭한 그릴드 아스파라거스가 곁들여집니다. 레드와인 소스와 함께 제공되어 풍부한 맛을 더합니다.'), Document(metadata={'menu_name': '안심 스테이크 샐러드', 'menu_number': 8, 'source': './data/restaurant_menu.txt'}, page_content='8. 안심 스테이크 샐러드\n • 가격: ₩26,000\n • 주요 식재료: 소고기 안심, 루꼴라, 체리 토마토, 발사믹 글레이즈\n • 설명: 부드러운 안심 스테이크를 얇게 슬라이스하여 신선한 루꼴라 위에 올린 메인 요리 샐러드입니다. 체리 토마토와 파마산 치즈 플레이크로 풍미를 더하고, 발사믹 글레이즈로 마무리하여 고기의 풍미를 한층 끌어올렸습니다.')] Invoking: search_wine with {'query': 'steak'} [Document(metadata={'menu_name': '사시카이아 2018', 'menu_number': 3, 'source': './data/restaurant_wine.txt'}, page_content='3. 사시카이아 2018\n • 가격: ₩420,000\n • 주요 품종: 카베르네 소비뇽, 카베르네 프랑, 메를로\n • 설명: 이탈리아 토스카나의 슈퍼 투스칸 와인입니다. 블랙베리, 카시스의 강렬한 과실향과 함께 허브, 가죽, 스파이스 노트가 복잡성을 더합니다. 풀바디이지만 우아한 타닌과 신선한 산도가 균형을 잡아줍니다. 오크 숙성으로 인한 바닐라, 초콜릿 향이 은은하게 느껴집니다.'), Document(metadata={'menu_name': '샤토 디켐 2015', 'menu_number': 9, 'source': './data/restaurant_wine.txt'}, page_content='9. 샤토 디켐 2015\n • 가격: ₩800,000 (375ml)\n • 주요 품종: 세미용, 소비뇽 블랑\n • 설명: 보르도 소테른 지역의 legendary 디저트 와인입니다. 아프리콧, 복숭아, 파인애플의 농축된 과실향과 함께 꿀, 사프란, 바닐라의 복잡한 향이 어우러집니다. 놀라운 농축도와 균형 잡힌 산도, 긴 여운이 특징이며, 100년 이상 숙성 가능한 와인으로 알려져 있습니다.')]--------------------------------------------------------------------------- JSONDecodeError Traceback (most recent call last) Cell In[163], line 4 1 # AgentExecutor 실행 3 query = "시그니처 스테이크의 가격과 특징은 무엇인가요? 그리고 스테이크와 어울리는 와인 추천도 해주세요." ----> 4 agent_response = agent_executor.invoke({"input": query}) File c:\Users\jangi\AppData\Local\pypoetry\Cache\virtualenvs\langgraph-agent-AGzdf7hx-py3.11\Lib\site-packages\langchain\chains\base.py:170, in Chain.invoke(self, input, config, kwargs) 168 except BaseException as e: 169 run_manager.on_chain_error(e) --> 170 raise e 171 run_manager.on_chain_end(outputs) 173 if include_run_info: File c:\Users\jangi\AppData\Local\pypoetry\Cache\virtualenvs\langgraph-agent-AGzdf7hx-py3.11\Lib\site-packages\langchain\chains\base.py:160, in Chain.invoke(self, input, config, kwargs) 157 try: 158 self._validate_inputs(inputs) 159 outputs = ( --> 160 self._call(inputs, run_manager=run_manager) 161 if new_arg_supported 162 else self._call(inputs) 163 ) 165 final_outputs: Dict[str, Any] = self.prep_outputs( 166 inputs, outputs, return_only_outputs 167 )... 339 if end != len(s): --> 340 raise JSONDecodeError("Extra data", s, end) 341 return obj JSONDecodeError: Extra data: line 1 column 29 (char 28)Output is truncated. View as a scrollable element or open in a text editor. Adjust cell output settings...
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
poetry add python-dotenv langchain langchain-openai gradio 설치 안 되요
패키지 설치:poetry add python-dotenv langchain langchain_openai gradio위를 입력하는데, 아래 처럼 같은 에러가 수십번 납니다 PS D:\mypersonal\myprojects\LANGCHAIN\qa-bot> poetry add python-dotenv langchain langchain-openai gradioUsing version ^1.1.1 for python-dotenvUsing version ^0.3.26 for langchainUsing version ^0.3.27 for langchain-openaiUsing version ^5.35.0 for gradioUpdating dependenciesResolving dependencies... (1.1s)The current project's supported Python range (>=3.10) is not compatible with some of the required packages Python requirement: - langchain-text-splitters requires Python <4.0,>=3.9, so it will not be installable for Python >=4.0Because no versions of langchain match >0.3.26,<0.4.0 and langchain (0.3.26) depends on langchain-text-splitters (>=0.3.8,<1.0.0), langchain (>=0.3.26,<0.4.0) requires langchain-text-splitters (>=0.3.8,<1.0.0).Because langchain-text-splitters (0.3.8) requires Python <4.0,>=3.9 and no versions of langchain-text-splitters match >0.3.8,<1.0.0, langchain-text-splitters is forbidden.Thus, langchain is forbidden.So, because qa-bot depends on langchain (^0.3.26), version solving failed. * Check your dependencies Python requirement: The Python requirement can be specified via the python or markers properties For langchain-text-splitters, a possible solution would be to set the python property to ">=3.10,<4.0"
-
미해결[Sionic MCP 시리즈 1] Model Context Protocol 을 이용하여 IntelliJ 와 코딩해보자!
cluade에 jetbrains 추가했는데 failed 떳을때 해결방법 공유!!
mcp-server가 node.js 기반인데 제가 node.js를 안깔아서 생긴 문제였습니다ㅠ참고하시면 좋을거같아요!
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
비동기 방식으로 agent를 구성할 필요성이 궁금합니다.
안녕하세요, 강의 감사히 잘 보고 있습니다.Plan-and-Execute 강의 코드 보다가 궁금한 점이 있는데요,다른 agent 구성에서는 동기 방식으로 def를 정의했었는데,여기에서는 async와 await, .ainvoke의 비동기 방식으로 agent를 정의하는 것 같아 왜 여기서는 비동기 방식으로 정의하는지 여쭤봅니다.plan -> execute -> replan 자체도 순차적으로 실행되는 것 같은데(RAG와 같이), 비동기 방식이 어떤 이유로 필요한 것인지 질문드립니다.감사합니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
안녕하세요 답변 길이에 관한 질문을 좀 드리고 싶은데
안녕하세요 답변 길이에 관한 질문을 좀 드리고 싶은데 llm에 넘긴건 문서 1,2장 정도 되는 길이로 보내는데 답변은 3,4 줄 밖에 안 나오는데 답변의 길이나 퀄리티를 좋게 해달라는 문구를 넣어도 그대로인 부분은 개선이 불가능한걸까요??
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
Structured outputs ppt 강의자료 다운로드 가능 위치 문의
안녕하세요, 강의 잘 듣고 있습니다.강의자료 관련하여Structured outputs 관련 자료는 '강의 슬라이드 다운로드'를 통한 다운로드에도 포함되어 있지 않고 강의 화면에서 아래로 스크롤을 내려서도 확인할 수 없는데,어디서 받을 수 있는지 답변주시면 감사드리겠습니다.
-
미해결Spring AI 실전 가이드: RAG 챗봇 만들기
좋은 강의 퀄러티 감사합니다 질문있습니다 !
2번째 챕터를 하던 와 중 gpt 모델을 mini로 바꾸고pdf 변환을 하려고했으나 여전히 429 에러가 나타는데 해결법이 어떻게 되는지 알 수 있을까요?!(llm 채팅 메세지 전송은 정상적으로 됩니다)
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
Google RSS 최신 뉴스 강의에서 뉴스가 하나만 가져와지네요
Google 최신뉴스들 실시간으로 Notion에 저장하기강의를 보고 있는데Google Headline News 테스트 중인데, 뉴스가 하나만 가져와지는데, 실제 url에 입력하면 뉴스가 여러개 뜨긴 한데 왜 그럴까요?감사합니다문제 / 오류 / 질문에 대해 설명해 주세요 오류 메시지가 있다면 작성해 주세요 사용 중인 워크플로우를 공유해 주세요 n8n 설치 정보 안내 n8n 버전:데이터베이스 종류 (기본값: SQLite):n8n 실행 프로세스 설정 (기본값: own, main):n8n 실행 방식 (예: Docker, npm, n8n cloud, 데스크탑 앱 등):운영 체제:
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
툴의 숫자가 많을때 동작
안녕하세요.강의들 듣다가 질문이 생겨서 문의 드립니다. 첫번째, 툴이 너무 많은경우 어떤 식으로 처리해야 하나요? 즉, 사용할수 있는 툴이 천개 정도 된다면 LLM 호출시 마다 모든 툴에 대한 description 등을 같이 보내서 알맞은 툴을 선택하라고 할 수 없을 것 같은데 좋은 방법이 있을 까요?두번째, 툴들 중 비슷한 역할을 하거나 중복되는 툴이 있을 때는 어떻게 처리해야 하나요? 사용자 정의 툴들을 등록하다 보면 기존에 있었던 것과 동일하지만 이름만 다르거나 아예 중복되는 툴들이 생길 수 있는데 이럴때 처리 방법이 궁금합니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
Elasticsearch 를 벡터 데이터베이슬 활용가능한가요
여러 벡터 데이터베이스가 나왔는데 혹시 Elasticsearch 를 docker로 설치하고 사용하는 경우도 있는지 궁금합니다. Elasticsearch 도 벡터 데이터베이스를 지원한다는 글을 읽은바가 있고, 검색엔진 분야에서는 Open 소스로 많이 활동되다는 점에서 활용성이 좋아보여서 질문 드립니다.
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
키워드 사전 강의
안녕하세요 강의 7분 30초 쯤에 키워드 사전을 통해서 답변의 퀄리티를 높힌다고 하셨는데 그 강의가 RAG를 활용한 LLM Application 개발 (feat. LangChain) 일까요??
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
엄....이거 java, kotlin 개발자는 어떻게 이해를 해야 할까 대게 고민에 빠지네요
그래도 눈치가 제법 빠른편인데 notebook 이나 파이썬...이거 모르겠는데 어떻하나 걱정되는데요? 일단 임베디드와 기존의 LLM의 차이는 뭔가요
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
2.2 PDF 전처리 강의에서 문의가 있습니다.
강의에서 구성한 그래프를 보면 retriever로 조회한 document들을 그대로 context로 넣는것으로 보이는데요.여기에서 document의 page_content만 추출하는 과정은 필요 없나요?lang smith를 보면 아래와 같이 프롬프트가 구성되어있는데 page_content만 넣도록 해야하는것이 아닌가 의문이 들었습니다.