묻고 답해요
156만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
2-3 임베딩모델 에러
실행 시 에러 나는데 무슨 문제일까요? 2.3 임베딩 모델입니다.--------------------------------------------------------------------------- RateLimitError Traceback (most recent call last) Cell In[81], line 6 2 embeddings = OpenAIEmbeddings( 3 model="text-embedding-3-small", # 사용할 모델 이름을 지정 가능 4 ) 5 sample_text = "테슬라 창업자는 누구인가요?" ----> 6 vector = embeddings.embed_query(sample_text) 7 print(f"임베딩 벡터의 차원: {len(vector)}") File ... (...) 1031 retries_taken=retries_taken, 1032 ) RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.', 'type': 'insufficient_quota', 'param': None, 'code': 'insufficient_quota'}}
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
STORM 아키텍쳐
Structured output과 regex pattern 설정 충돌quries["raw"].toll_calls 가 빈 리스트로 반환됨두 문제 모두 langchain_openai==0.2.4 에서는 정상적으로 동작
-
해결됨한시간으로 끝내는 LangChain 기본기
JsonOutputParser
영상에는 JsonOutputParser가 Json으로 파싱을 못하는 것 같은데제가 테스트하는 시점에서는 ```content='{"capital": "Paris", "population": 67867511, "language": "French", "currency": "Euro"}' additional_kwargs={} response_metadata={'model': 'llama3.2', 'created_at': '2025-04-09T06:56:17.010494Z', 'done': True, 'done_reason': 'stop', 'total_duration': 1087877500, 'load_duration': 26809708, 'prompt_eval_count': 62, 'prompt_eval_duration': 576710791, 'eval_count': 27, 'eval_duration': 483715500, 'message': Message(role='assistant', content='', images=None, tool_calls=None), 'model_name': 'llama3.2'} id='run-c9042af5-e5d4-4e27-b2ff-d78c308ec28f-0' usage_metadata={'input_tokens': 62, 'output_tokens': 27, 'total_tokens': 89}``` --> ``` json{'capital': 'Paris', 'population': 67867511, 'language': 'French', 'currency': 'Euro'}```파싱이 잘 되네요llama3.2를 사용 중인데 질문에 대한 응답이 잘나와서 그런거지 JsonOutputParser 사용은 여전히 사용하지 않는 것을 추천하실까요?
-
해결됨입문자를 위한 LangChain 기초
안녕하세요. 오늘 커뮤니티에 올라온 서적 예제 4.11관련 질문입니다.
안녕하세요. 사전 구입하여 책을 읽고있는 한 인원입니다. 다름이아니라 책 102쪽 4.11 예제를 제 컴퓨터에서 하려하는데 다음과같은 오류가 뜹니다. 혹시 버전문제일까요?지금 버전에서 해당 컨텍스트 길이를 보려면 어떻게 수정해야할까요? 추가적으로 큰 문제는 아니지만 책에 오타있는 부분도 기재합니다.43페이지 딱히 큰 문제는 아니지만 사소하게 변수명이 잘못적혀있습니다..! 해당 장의 다른 변수들은 모두 맞게 작성되어있지만 해당 부분만 오타가있습니다. 크리티컬한 오타는 아니지만 혹여나 도움이 될까 싶어 기재합니다. 지금 절반 정도 읽었는데 읽는 인원이 최대한 잘 이해하고 어려워하지 않도록 매 개념마다 실습을 진행하고 한줄 한줄 코드 해석해주는 것이 느껴지는 책입니다. 강의 등 랭체인 및 LLM 어플리케이션 개발에 항상 큰 도움을 받고있습니다. 좋은 자료 강의 항상 감사드립니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.2 LangChain과 Chroma를 활용한.. 예제중 질문입니다.
안녕하세요.3.2 예제 실습중 아래와 같은 이슈를 해결하지 못하여 질문 드립니다. 사용자 환경운 github 에서 제고해준 code space 환경에서 테스트 중입니다. 오류 코드는.. from langchain_chroma import Chroma # 데이터를 처음 저장할 때 database = Chroma.from_documents(documents=document_list, embedding=embedding, collection_name='chroma-tax', persist_directory="./chroma") 위 코드 실행시 아래와 같은 오류가 발생합니다. AttributeError Traceback (most recent call last) Cell In[108], line 41 from langchain_chroma import Chroma 3 # 데이터를 처음 저장할 때 ----> 4 database = Chroma.from_documents(documents=document_list, embedding=embedding, collection_name='chroma-tax', persist_directory="./chroma") 6 # 이미 저장된 데이터를 사용할 때 7 #database = Chroma(collection_name='chroma-tax', persist_directory="./chroma", embedding_function=embedding) File /workspaces/faith79/.venv/lib/python3.12/site-packages/langchain_chroma/vectorstores.py:1239, in Chroma.from_documents(cls, documents, embedding, ids, collection_name, persist_directory, client_settings, client, collection_metadata, kwargs)1237 if ids is None: 1238 ids = [doc.id if doc.id else str(uuid.uuid4()) for doc in documents] -> 1239 return cls.from_texts( 1240 texts=texts, 1241 embedding=embedding, 1242 metadatas=metadatas, 1243 ids=ids, 1244 collection_name=collection_name, 1245 persist_directory=persist_directory, 1246 client_settings=client_settings, 1247 client=client, 1248 collection_metadata=collection_metadata, 1249kwargs, 1250 ) ...--> 327clientsettings = chromadb.config.Settings(is_persistent=True) 328clientsettings.persist_directory = persist_directory 329 else: AttributeError: module 'chromadb' has no attribute 'config'Output is truncated. View as a scrollable element or open in a text editor. Adjust cell output settings... //////////////////////////////////////////////////////////////////////////////// chromadb 에서 config 속성 사용이 안된다는거 같아요.그래서 langchain_chroma의 버전도 변경하고 chromadb 도 설치 후 버전도 이것저것 변경해 보았는데, 동일한 이슈만 지속적으로 나오고 있습니다 꼭 해결하고 싶어요~ 도와주세요.
-
미해결입문자를 위한 LangChain 기초
llm 모델 사용 관련 질문 있습니다.
랭체인_Runnable~~ 마지막 강좌에서 llm 모델 사용 관련해 model을 "qwen2.5:14b"와 "deepseek " model을 사용한 특별한 이유라도 있는지요. 대체할만한 다른 model이 있으면 추천해 주세요.
-
미해결LLM 기초부터 최신 RAG·LangChain까지: 단 5시간 만에 LLM 기초과정 마스터!
프롬프트 엔지니어링 완벽 총 정리 파트 질문
안녕하세요. "프롬프트 엔지니어링 완벽 총 정리" 파트에서 여러 이론이 나오는데, 여기서 필수적으로 알고 넘어가야 할 이론이 있는지 궁금합니다. 감사합니다.
-
해결됨TypeScript로 시작하는 LangChain - LLM & RAG 입문
슬라이드
안녕하세요. 강의 잘 듣고 있습니다.혹시 사용하신 슬라이드를 받아볼수 있을까요?감사합니다.
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
에이전틱 루프에서의 병렬 노드 구현 문의
안녕하세요, 강사님워크플로우가 아닌 에이전틱 루프에서 병렬 노드 구현이 가능한지 문의드립니다. 구체적으로 다음과 같은 두 가지 시나리오에 대한 가능 여부가 궁금합니다 쿼리에 따라 1, 2번 작업을 순차적으로 진행한 후, 그 결과를 aggregate하여 3번으로 전달하는 방식1, 2, 3번 작업을 동시에 병렬로 수행한 후 한 번에 취합하는 방식 어떤 방식이 가능한지 조언 부탁드립니다. 감사합니다
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
[공유] llama3-groq 모델명 수정 필요
"LLM 모델의 Tool Calling 성능 비교(OpenAI, Gemini, Llama 70B)" 파트 강의 중 1:48초 부터 llama3-groq-70b-8192-tool-use-preview 모델을 불러와 Tool Call의 성능 비교를 진행합니다.2025-04-03 기준 해당 모델명이 변경되어 더 이상 로드가 불가능 합니다.따라서 "llam3-70b-8192" 모델명을 변경하여 사용하는 것이 좋을 것 같습니다.수정 전 코드llm_groq = ChatGroq(model="llama3-groq-70b-8192-tool-use-preview", temperature=0) 수정 후 코드llm_groq = ChatGroq(model="llama3-70b-8192", temperature=0) 감사합니다.
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
수업자료 문의
실습환경 및 도구설정에서법률문서 pdf 파일들이 수업자료에 없는데 어디있을까요?
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
서브그래프로 구성된 워크플로우 설계 조언을 듣고 싶습니다
안녕하세요 선생님 위 이미지처럼 추후 서브그래프로 들어갈 CSV 관련 코드 작성 및 실행 워크플로우를 구성했는데, 테스트를 통해서 동작은 확인했습니다그런데 마지막 execute_node가 python_repl로 실행만 하는 노드라서 실패했을 때 워크플로우가 중간에 다시 돌아갈 때 원인이 전달되지 않아서 수정이 잘 될지가 걱정됩니다. 에러까지 넘겨야 할지, 아니면 code_gen node에서 agentexecutor api로 tool_call로 python_repl을 연결한 다음 validation 노드를 타는 게 더 나을지 고민 중인데, 이렇게 하면 코드 실행 실패할 때마다 그래프 시각화가 여러 번 나올 것 같아서 어떤 접근법이 좋을지 조언 부탁드립니다 감사합니다
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
subgraph와 add_conditional_edges 질문
안녕하세요 강사님,서브 그래프 관련 질문입니다!subgraph에서 routing 코드를 보고 있는데, add_conditional_edges 문법이 좀 헷갈려서 질문드립니다. search_builder.add_conditional_edges( "analyze_question", route_datasources_tool_search, ["search_menu", "search_web", "search_wine"]) 위 코드에서 세 번째 매개변수인 ["search_menu", "search_web", "search_wine"]가 어떻게 작동하는지 궁금합니다.제가 이해한 바로는 route_datasources_tool_search 함수에서 return되는 값의 key 값에 따라 다음 노드로 라우팅되는 것 같은데요. 그냥 저렇게 함수들을 나열하면 알아서 key 값과 네임이 일치하는 함수로 넘어가는 건가요?혹시 시간 되실 때 설명 부탁드립니다!감사합니다.
-
미해결입문자를 위한 LangChain 기초
랭체인 질문드립니다.
from langchain_community.llms import HuggingFaceHub # Hugging Face의 Mistral 모델 사용 llm = HuggingFaceHub( repo_id="mistralai/Mistral-7B-Instruct-v0.1", model_kwargs={"temperature": 0.7, "max_new_tokens": 300}, huggingfacehub_api_token=HUGGINGFACE_API_TOKEN )이미 완성된 언어 모델을 기반으로 앱 개발에 사용한다고 하셨는데, openai 말고 허깅페이스로 실습 해도 되나요?이 부분 말고는 같을까요?
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
uv sync 시에 에러가 발생합니다.
아래처럼 에러가 발생해요(uv add -dev ipykerenel 역시)uv sync Resolved 227 packages in 1ms × Failed to build chroma-hnswlib==0.7.6 ├─▶ The build backend returned an error ╰─▶ Call to setuptools.build_meta.build_wheel failed (exit status: 1) [stdout] running bdist_wheel running build running build_ext clang++ -fno-strict-overflow -Wsign-compare -Wunreachable-code -fno-common -dynamic -DNDEBUG -g -O3 -Wall -I/Users/hyungseok/.cache/uv/builds-v0/.tmprx1Zqg/include -I/opt/homebrew/opt/python@3.13/Frameworks/Python.framework/Versions/3.13/include/python3.13 -c /var/folders/yh/wqs1mg612sd3vr49_0qbbvtm0000gn/T/tmp95qf8z8x.cpp -o var/folders/yh/wqs1mg612sd3vr49_0qbbvtm0000gn/T/tmp95qf8z8x.o -std=c++14 clang++ -fno-strict-overflow -Wsign-compare -Wunreachable-code -fno-common -dynamic -DNDEBUG -g -O3 -Wall -I/Users/hyungseok/.cache/uv/builds-v0/.tmprx1Zqg/include -I/opt/homebrew/opt/python@3.13/Frameworks/Python.framework/Versions/3.13/include/python3.13 -c /var/folders/yh/wqs1mg612sd3vr49_0qbbvtm0000gn/T/tmpjouomjdk.cpp -o var/folders/yh/wqs1mg612sd3vr49_0qbbvtm0000gn/T/tmpjouomjdk.o -fvisibility=hidden building 'hnswlib' extension clang++ -fno-strict-overflow -Wsign-compare -Wunreachable-code -fno-common -dynamic -DNDEBUG -g -O3 -Wall -I/Users/hyungseok/.cache/uv/builds-v0/.tmprx1Zqg/lib/python3.13/site-packages/pybind11/include -I/Users/hyungseok/.cache/uv/builds-v0/.tmprx1Zqg/lib/python3.13/site-packages/numpy/_core/include -I./hnswlib/ -I/Users/hyungseok/.cache/uv/builds-v0/.tmprx1Zqg/include -I/opt/homebrew/opt/python@3.13/Frameworks/Python.framework/Versions/3.13/include/python3.13 -c ./python_bindings/bindings.cpp -o build/temp.macosx-15.0-arm64-cpython-313/python_bindings/bindings.o -O3 -stdlib=libc++ -mmacosx-version-min=10.7 -DVERSION_INFO=\"0.7.6\" -std=c++14 -fvisibility=hidden [stderr] ./python_bindings/bindings.cpp:1:10: fatal error: 'iostream' file not found 1 | #include <iostream> | ^~~~~~~~~~ 1 error generated. error: command '/usr/bin/clang++' failed with exit code 1 hint: This usually indicates a problem with the package or the build environment. help: chroma-hnswlib (v0.7.6) was included because inflearn-langgraph-lecture (v0.1.0) depends on chroma-hnswlib
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
tool_search_graph 서브그래프 구현 관련 질문: 조건부 분기 처리 및 supervisor 연결 방법
섹션 6. 서브그래프입니다!안녕하세요,tool_search_graph 관련 서브그래프 구현에 대해 두 가지 질문이 있습니다조건부 분기 처리 시, question에 따라 분기된 후에 해당 툴에 맞게 질문을 추가로 필터링하는 과정이 필요한지 궁금합니다. 현재는 간단해서 그냥 하신건지요? question을 찍어보니, 그대로 넘어와서요해당 서브그래프를 supervisor 하단에 배치했을 때, 코드상으로 어떻게 연결할 수 있는지 구체적인 방법이 궁금합니다.답변 부탁드립니다
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
poetry를 사용해야하는 이유가 있나요??
정말 궁금해서 여쭤봅니다. conda로 안하시고 poetry를 중점으로 사용하시는 이유가 궁금합니다
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
"Plan-and-Execute 아키텍쳐 구현하기" 강의 prompt not found error
"Plan-and-Execute 아키텍쳐 구현하기" 강의 hub.pull("ih/ih-react-agent-executor") 실행 시 not found error 발생hub.pull("pollyjaky/ih-react-agent-executor") 로 대체
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
[sec. 2-8 실습] 배치사이즈의 선택
안녕하세요. 좋은 강의 잘 듣고 있습니다. 반복해서 여러 차례 들을 수 있어서 정말 좋습니다. 조금 기초적인 질문인가 싶은데요. 아래 이미지에서 질문이 있습니다.맨 아래 셀의 코드 x = torch.rand(8, 128)에서 배치 사이즈를 8로 정하는 이유를 질문드립니다.in feature가 128이고, out feature가 64라서 대략 2의 배수가 선택된 것인가 추측합니다. 다음 시리즈 기다리고 있습니다. 감사합니다.
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
MCP 를 사용하게 되면 기존 구현 패턴과 어떻게 달라질까요
최근 MCP 가 많이 얘기되고 있는데 MCP 를 활용한 내용이 다뤄줬으면 좋을것 같습니다.기존과는 어떻게 달라지는지, LangChain MCP Adapters 내용등에 대해 간략하게 알려주는 강의가 추가됐으면 좋겠습니다.