묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
AI 에이전트를 위한 웹검색(Web search) Tool 에서 DuckDuckGoSearchRun 실행 관련..
안녕하세요..DuckDuckGo 검색 관련 랭체인 가이드 보고 따라하는데from langchain_community.tools import DuckDuckGoSearchRun search = DuckDuckGoSearchRun(cache_results=True) result = search.invoke("obama's first name?") print(result)이를 실행했을 때, 다음과 같은 오류가 발생합니다. 어떻게 수정해야 하는지 알려주셨으면 좋겠습니다.---------------------------------------------------------------------------DuckDuckGoSearchException Traceback (most recent call last) Cell In[18], line 103 from langchain_community.tools import DuckDuckGoSearchRun 6 search = DuckDuckGoSearchRun(cache_results=True) ---> 10 result = search.invoke("obama's first name?") 11 print(result) File ~/Workspace/pythonprj/langgraphtutorial/.venv/lib/python3.12/site-packages/langchain_core/tools/base.py:513, in BaseTool.invoke(self, input, config, kwargs)505 @override 506 def invoke( 507 self, (...) 510kwargs: Any, 511 ) -> Any: 512 tool_input, kwargs = preprun_args(input, config, kwargs) --> 513 return self.run(tool_input, kwargs) File ~/Workspace/pythonprj/langgraphtutorial/.venv/lib/python3.12/site-packages/langchain_core/tools/base.py:774, in BaseTool.run(self, tool_input, verbose, start_color, color, callbacks, tags, metadata, run_name, run_id, config, tool_call_id, kwargs)772 if error_to_raise: 773 run_manager.on_tool_error(error_to_raise) --> 774 raise error_to_raise 775 output = formatoutput(content, artifact, tool_call_id, self.name, status) 776 run_manager.on_tool_end(output, color=color, name=self.name, kwargs) File ~/Workspace/pythonprj/langgraphtutorial/.venv/lib/python3.12/site-packages/langchain_core/tools/base.py:743, in BaseTool.run(self, tool_input, verbose, start_color, color, callbacks, tags, metadata, run_name, run_id, config, tool_call_id, **kwargs)... 181logger.info(f"Error to search using {b} backend: {ex}") 182 err = ex --> 184 raise DuckDuckGoSearchException(err) DuckDuckGoSearchException: https://lite.duckduckgo.com/lite/ 202 Ratelimit 확인 부탁드립니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
배포시 버전 에러가 생깁니다
streamlit에서 배포시 위와 같은 에러가 발생합니다 ㅜㅜ파이썬 버전은 3.10.2이고, requirements.txt는 아래와 같습니다. aiohappyeyeballs==2.6.1aiohttp==3.10.11aiosignal==1.3.2altair==5.5.0annotated-types==0.6.0anyio==4.3.0asgiref==3.8.1asttokens==3.0.0async-timeout==4.0.3attrs==25.3.0backoff==2.2.1bcrypt==4.3.0blinker==1.9.0build==1.2.2.post1cachetools==5.5.2certifi==2022.12.7charset-normalizer==3.1.0chroma-hnswlib==0.7.6chromadb==0.6.3click==8.1.8colorama==0.4.6coloredlogs==15.0.1comm==0.2.2contourpy==1.2.0cycler==0.12.1dataclasses-json==0.6.7debugpy==1.8.14decorator==5.2.1Deprecated==1.2.18distro==1.9.0docx2txt==0.9durationpy==0.9exceptiongroup==1.2.0executing==2.2.0fastapi==0.115.12filelock==3.18.0flatbuffers==25.2.10fonttools==4.47.2frozenlist==1.6.0fsspec==2025.3.2gitdb==4.0.12GitPython==3.1.44google-auth==2.39.0googleapis-common-protos==1.70.0greenlet==3.2.2grpcio==1.71.0h11==0.14.0httpcore==1.0.4httptools==0.6.4httpx==0.27.0httpx-sse==0.4.0huggingface-hub==0.30.2humanfriendly==10.0idna==3.4importlib_metadata==8.6.1importlib_resources==6.5.2iniconfig==2.1.0ipykernel==6.29.5ipython==8.36.0jedi==0.19.2Jinja2==3.1.6jiter==0.9.0joblib==1.4.2jsonpatch==1.33jsonpointer==3.0.0jsonschema==4.23.0jsonschema-specifications==2025.4.1jupyter_client==8.6.3jupyter_core==5.7.2kiwisolver==1.4.5kubernetes==32.0.1langchain==0.3.25langchain-chroma==0.2.3langchain-community==0.3.23langchain-core==0.3.58langchain-openai==0.3.16langchain-pinecone==0.2.6langchain-tests==0.3.19langchain-text-splitters==0.3.8langchain-upstage==0.6.0langsmith==0.3.42markdown-it-py==3.0.0MarkupSafe==3.0.2marshmallow==3.26.1matplotlib==3.8.2matplotlib-inline==0.1.7mdurl==0.1.2mmh3==5.1.0mpmath==1.3.0multidict==6.4.3mypy_extensions==1.1.0narwhals==1.38.2nest-asyncio==1.6.0numpy==1.26.4oauthlib==3.2.2onnxruntime==1.21.1openai==1.78.0opentelemetry-api==1.32.1opentelemetry-exporter-otlp-proto-common==1.32.1opentelemetry-exporter-otlp-proto-grpc==1.32.1opentelemetry-instrumentation==0.53b1opentelemetry-instrumentation-asgi==0.53b1opentelemetry-instrumentation-fastapi==0.53b1opentelemetry-proto==1.32.1opentelemetry-sdk==1.32.1opentelemetry-semantic-conventions==0.53b1opentelemetry-util-http==0.53b1orjson==3.10.18overrides==7.7.0packaging==23.2pandas==2.2.3parso==0.8.4pillow==10.2.0pinecone==6.0.2pinecone-plugin-interface==0.0.7platformdirs==4.3.8pluggy==1.5.0posthog==4.0.1prompt_toolkit==3.0.51propcache==0.3.1protobuf==5.29.4psutil==7.0.0pure_eval==0.2.3pyarrow==20.0.0pyasn1==0.6.1pyasn1_modules==0.4.2pydantic==2.11.4pydantic-settings==2.9.1pydantic_core==2.33.2pydeck==0.9.1Pygments==2.19.1pyparsing==3.1.1pypdf==4.3.1PyPika==0.48.9pyproject_hooks==1.2.0pyreadline3==3.5.4pytest==8.3.5pytest-asyncio==0.26.0pytest-socket==0.7.0python-dateutil==2.8.2python-dotenv==1.1.0pytz==2025.2pywin32==305PyYAML==6.0.2pyzmq==26.4.0referencing==0.36.2regex==2024.11.6requests==2.32.3requests-oauthlib==2.0.0requests-toolbelt==1.0.0rich==14.0.0rpds-py==0.24.0rsa==4.9.1scikit-learn==1.5.1scipy==1.14.0shellingham==1.5.4six==1.16.0smmap==5.0.2sniffio==1.3.1SQLAlchemy==2.0.40stack-data==0.6.3starlette==0.46.2streamlit==1.45.0sympy==1.14.0syrupy==4.9.1tenacity==9.1.2threadpoolctl==3.5.0tiktoken==0.9.0tokenizers==0.19.1toml==0.10.2tomli==2.2.1tornado==6.4.2tqdm==4.66.2traitlets==5.14.3typer==0.15.3typing-inspect==0.9.0typing-inspection==0.4.0typing_extensions==4.13.2tzdata==2025.2urllib3==1.26.15uvicorn==0.34.2watchdog==6.0.0watchfiles==1.0.5wcwidth==0.2.13websocket-client==1.8.0websockets==15.0.1wrapt==1.17.2yarl==1.20.0zipp==3.21.0zstandard==0.23.0
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
ReWoo 아키텍처에서는 RePlan이 필요없나요?
안녕하세요.. Plan and Executor 아키텍처에서는 Planning 하고 하나의 태스크를 실행하고, 그리고 다시 Replanning 에이전트를 거치면서 답변을 만들어 가는데, ReWoo 아키텍처에서는 RePlanning 과정에 대한 설명이 없던데.. 그렇다면 ReWoo 아키텍처의 Planner 에이전트 성능이 좋아서 모든 게획을 세운것처럼 보이는데. Plan and Executor의 Planner 에이전트도 모든 계획을 세운 것이 아닌건가요? 둘사이 프롬프트가 달라서 그런건가요? ReWoo에서는 왜 재계획 에이전트가 필요없는건가요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
langChain 최신버전 문서
최신 버전 LangChain 문서의 <How to add chat history> 부분이 강의 영상이랑 대부분 다른 것 같은데 강의 영상 코드 기준으로 진행해도 문제가 없을까요?(https://python.langchain.com/docs/how_to/qa_chat_history_how_to/#chains)
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
[실습을 위한 환경 설정 방법] 자료가 없습니다.
자료 다운로드를 해도 toml파일만 있고 resaurant_wine.txt등의 파일들이 다 없는데 어디서 찾는걸까요..m2사용하고있습니다
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
MCP 서버 관련 질문이있습니다.
안녕하세요! 강의 잘 보고있습니다. MCP 관련해서 질문이 두 개 있습니다.# 1MCP튜토리얼과 이 강의, 유투브를 보고 MCP 서버를 개발중입니다.https://github.com/snaiws/DART-mcp-serverDART api연동하는 서버고 api가 83종류가 있습니다.FastMCP 사용하니 메인 스크립트에 함수를 매우 많이 적어야해서 팩토리클래스를 만들고, docstring을 따로 관리하고싶어 함수와 docstring을 분리해서 팩토리클래스에서 조립했습니다. 그런데 이렇게 만들고보니 FastMCP 개발방식 말고 from mcp.server import Server를 통해 좀 더 로우레벨로 만드는 방식도 있는 것 같았습니다. https://github.com/modelcontextprotocol/python-sdk여기의 Low-Level부분입니다.혹시 Low-level관련 영상도 업로드예정이 있으신가요?# 2MCP 서버에 툴을 83개나 만들면 tool calling하는데 헷갈려할 것 같은데 맞는지... 그리고 어떻게 대처가 가능할지 조언부탁드립니다 감사합니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
배포 시 오류 (Chroma sqlite3 버전 오류)
안녕하세요 강사님.마지막 Streamlit Cloud 배포 후 버전 오류가 발생해서 질문 납깁니다!Python은 3.10.17 버전 사용하고 있습니다.retriever에 pinecone 사용하지 않고 Chroma 를 사용했고요, requirements.txt 에 버전은 langchain-chroma==0.2.3chromadb==0.6.3로 들어가 있습니다.오류는 unsupported version of sqlite3. Chroma requires sqlite3 >= 3.35.0.라고 뜨는 걸 보면 chromadb 에서 sqlite3 를 사용하고 그 버전 오류인 것 같은데요.. 어떻게 조치를 할지 검색해도 잘 모르겠어서 질문 남깁니다. 감사합니다.
-
해결됨AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
최근 안내해주신 수강생 이벤트 관련 문의입니다.
최근 안내해주신 수강생 이벤트 관련 문의입니다.안녕하세요, 강사님.📌 AI에이전트 강의 수강생 특별 혜택이미 AI에이전트 강의를 수강 중이신가요? GraphRAG 강의 구매 시 <RAG 입문> 70% 할인쿠폰을 드립니다!이라고 이벤트 안내 주셨는데요.1. 여기서 언급하신 GraphRAG 강의는 "graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)"(정가 143,000원) 이 맞나요?2. 또한 여기서 언급하신 <RAG 입문> 70% 할인쿠폰은 RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)(정가 121,000원) 이 맞나요?확인 후 추가로 수강신청 하려고 합니다. 답변 부탁드립니다. 감사합니다.
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
AI 에이전트로 구현하는 RAG 시스템 수강생입니다.
공지사항보고 메세지 남깁니다.AI 에이전트로 구현하는 RAG 시스템 수강생인데70퍼 쿠폰은 어떻게받을수있을까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.2.1 Upstage 로 embedding 하실때에 typeError..
3.2.1 OpenAIEmbeddings 대신 UpstageEmbeddings를 활용하는 방법 으로 실습 예제 하고 있는데요기존 예제로 하면 chain_type 이 없이 동영상자료에서는 그대로 실행되었는데, 실제로 해보니 chain_type 이 2번째로 와야 하는데 없어서 오류가 뜨더라구요,...아래는 동영상에서 실행되는 코드 입니다.from langchain.chains import RetrievalQA qa_chain = RetrievalQA.from_chain_type( llm, retriever=database.as_retriever(), chain_type_kwargs={"prompt": prompt} ) TypeError Traceback (most recent call last) Cell In[17], line 3 1 from langchain.chains import RetrievalQA ----> 3 qa_chain = RetrievalQA.from_chain_type( 4 llm, 5 database.as_retriever(), 6 chain_type_kwargs={"prompt":prompt} 7 )가 뜨게 되는데 확인해 보니, from langchain.chains import RetrievalQA qa_chain = RetrievalQA.from_chain_type( llm=llm, chain_type="stuff", # 기본 체인 타입 (원하면 "map_reduce"도 가능) retriever=database.as_retriever(), chain_type_kwargs={"prompt": prompt} ) chain_type 이 빠져서 안돌아 가더라구요..chain_type 을 넣어주면 잘 돌아갑니다. 혹시나 저처럼 헤메이실 분을 위해 올려둡니다. OpenAI 유료결제 안하는 바람에 Upstage로 따라해보려고 하는데...앞으로의 강의는 OpenAI 로 작성되는것 같아서 유료결제를 해야 할까요...??그리고 로컬 Ollama 로 하는 영상도 시간 나시면 올려주시면 좋겠어요~^^덕분에 langChain 의 l 도 모르던 제가 따라하게 되네요 좋은 영상 감사합니다.
-
미해결하루만에 끝내는 생성형 AI 핵심 정리
Missing optional dependency 'tabulate'
pip install tabulateuninstall , install 을 시행해도 되지 않습니다.아래의 메시지만 나오고 있습니다. 해결책을 제시 부탁드립니다.ImportError: Missing optional dependency 'tabulate'. Use pip or conda to install tabulate.
-
미해결하루만에 끝내는 생성형 AI 핵심 정리
[warning 무시하고 하기] from langchain_openai import OpenAI
from langchain_openai import OpenAI -> from langchain_community.llms import OpenAI 소스 변경함이 어떨까 의견 드립니다.pip install 한다고 시간 보내는데요.warning 무시하고 아래 명령어로 실행이 되긴합니다. 코린이라 오해없으시길 바랍니다.streamlit run '.\8. 랭체인-텍스트 요약 앱 만들기.py'
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
Text2Cypher 기법에서 Llm이 작성하는 cypher 코드의 오타 발생 문제
안녕하세요 강사님 수업 도중 openai의 llm 모델이 아니라 개인적으로 ChatOllama를 이용해 gemma3 모델로 실습을 해 보고 있었는데, 스키마가 제대로 전달이 되었는데도 불구하고 llm이 서치를 위해 작성한 cypher 코드 상에서 오타가 나는 것을 발견했습니다. 우선 위와 같이 전달 되는 스키마는 제대로 [:DIRECTED] 로 작성되어 있음을 확인할 수 있고요. 반면 크리스토퍼 놀란이 감독한 영화를 찾기 위해 작성한 쿼리에서는 Llm이 [:DORECTED]로 오타를 내고 있습니다. (참고로 다른 예제에서는 정상적으로 동작하였습니다.) 이처럼 llm이 쿼리 작성 시에 오타를 내는 문제가 종종 발생하는 일인지그렇다면 이 문제를 어떻게 해결 혹은 완화할 수 있는지 궁급합니다! 그냥 좀 더 똑똑한 모델을 쓰면 대체적으로 해결되는 문제인가요?
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
수업 자료 문의
법률 문서 PDF 3개가 '자료 다운로드'를 하였을 때 압축파일 안에 존재하지 않습니다.
-
해결됨TypeScript로 시작하는 LangChain - LLM & RAG 입문
Chat bot 강의가 짤려 있어요
2:27 밖에 없습니다.
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
docker 환경에서 해당 서비스를 구성해보는 건 어떤가요?
시작 부분에 가상환경 구현이 있는데,포티(conda) 가상환경 vs Docker 컨테이너 docker 컨테이너로 초기 환경을 구성하면 제약사항이 있을까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
rag 데이터 가져오는 부분에서 질문드립니다!
안녕하세요 강사님정해져있는 문서를 Rag로 가져오는것이 아닌openAPI에서 필요한 정보를 호출해서 가져오도록 만들고 싶습니다.openAPI에 requests로 호출해서 데이터를 가져오는 부분까지 완성했습니다.수업중에 llm에게 dictionary 지정해주는것처럼openAPI에서 호출한 정보를 rag로 가져오도록 하는 방법을 가르쳐주세요감사합니다
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
선생님 질문 있습니다 한번 봐주세여~!
안녕하세요 선생님 수업 잘 듣고 열심히 만들고 있는데 한가지 해결이 안되는 부분이 있어 이렇게 글 남깁니다.문서를 100개를 넣고, LLM이 대답할 때 인사규정에 따르면 혹은 인사규정을 참조하여 규정명을 나오게 하고 싶은데, 매칭이 잘안되거나 잘못된 규정명을 알려주곤 하는데 정확한 방법이 있을까요? 백터 DB에서 메타 데이터 지정하는 방식 이거나 document에 정의해 호출하는 방식 등을 사용하는데 .. 선생님도 이렇게 하실까요??
-
해결됨AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
numpy 설치 에러
강의 시점: 섹션1 > 실습을 위한 환경 설정 방법에서 약 1분 16초내용: 제공해주신 pyproject.toml에서 저는 파이썬 3.13 버전으로 설치되어 이 부분만 수정해 install하였습니다.그랬더니 아래와 같이 numpy 설치 에러 문구가 뜨는데 왜 그런걸까요?해결 방법이 있을까요? 에러 메시지- Installing numpy (1.26.4): FailedPEP517 build of a dependency failedBackend subprocess exited when trying to invoke build_wheel Note: This error originates from the build backend, and is likely not a problem with poetry but one of the following issues with numpy (1.26.4)- not supporting PEP 517 builds- not specifying PEP 517 build requirements correctly- the build requirements are incompatible with your operating system or Python version- the build requirements are missing system dependencies (eg: compilers, libraries, headers).You can verify this by running pip wheel --no-cache-dir --use-pep517 "numpy (==1.26.4)".
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
embedding 과정 중 Error, message length too large 발생
안녕하십니까 강의 잘 듣고있습니다.!from langchain_ollama import OllamaEmbeddings embeddings = OllamaEmbeddings(model="llama3.2") import os from pinecone import Pinecone from langchain_pinecone import PineconeVectorStore index_name = "tax-table-index" pinecone_api_key = os.environ.get("PINECONE_API_KEY") pc = Pinecone(api_key=pinecone_api_key) database = PineconeVectorStore.from_documents(document_list, embedding=embeddings, index_name=index_name) Embedding 후 PinecondVectorStore 저장 할떄아래와 같은 예외가 발생합니다.```PineconeApiException: (400) Reason: Bad Request HTTP response headers: HTTPHeaderDict({'Date': 'Thu, 17 Apr 2025 02:53:26 GMT', 'Content-Type': 'application/json', 'Content-Length': '118', 'Connection': 'keep-alive', 'x-pinecone-request-latency-ms': '2664', 'x-pinecone-request-id': '9090329298438964680', 'x-envoy-upstream-service-time': '2', 'server': 'envoy'}) HTTP response body: {"code":11,"message":"Error, message length too large: found 4194738 bytes, the limit is: 4194304 bytes","details":[]} Output is truncated. View as a scrollable element or open in a text editor.```OllamaEmbeddings(model="llama3.2") 를 사용하고 있는데요.해당 모델로 임베딩을 하면 Pinecone에서 허용하는 데이터를 초과하는 것 으로 보이는데요이러한 경우 처리하는 방법이 있을까요?아니면 모델을 변경해야하는 걸까요?