묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
rag 데이터 가져오는 부분에서 질문드립니다!
안녕하세요 강사님정해져있는 문서를 Rag로 가져오는것이 아닌openAPI에서 필요한 정보를 호출해서 가져오도록 만들고 싶습니다.openAPI에 requests로 호출해서 데이터를 가져오는 부분까지 완성했습니다.수업중에 llm에게 dictionary 지정해주는것처럼openAPI에서 호출한 정보를 rag로 가져오도록 하는 방법을 가르쳐주세요감사합니다
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
선생님 질문 있습니다 한번 봐주세여~!
안녕하세요 선생님 수업 잘 듣고 열심히 만들고 있는데 한가지 해결이 안되는 부분이 있어 이렇게 글 남깁니다.문서를 100개를 넣고, LLM이 대답할 때 인사규정에 따르면 혹은 인사규정을 참조하여 규정명을 나오게 하고 싶은데, 매칭이 잘안되거나 잘못된 규정명을 알려주곤 하는데 정확한 방법이 있을까요? 백터 DB에서 메타 데이터 지정하는 방식 이거나 document에 정의해 호출하는 방식 등을 사용하는데 .. 선생님도 이렇게 하실까요??
-
해결됨AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
numpy 설치 에러
강의 시점: 섹션1 > 실습을 위한 환경 설정 방법에서 약 1분 16초내용: 제공해주신 pyproject.toml에서 저는 파이썬 3.13 버전으로 설치되어 이 부분만 수정해 install하였습니다.그랬더니 아래와 같이 numpy 설치 에러 문구가 뜨는데 왜 그런걸까요?해결 방법이 있을까요? 에러 메시지- Installing numpy (1.26.4): FailedPEP517 build of a dependency failedBackend subprocess exited when trying to invoke build_wheel Note: This error originates from the build backend, and is likely not a problem with poetry but one of the following issues with numpy (1.26.4)- not supporting PEP 517 builds- not specifying PEP 517 build requirements correctly- the build requirements are incompatible with your operating system or Python version- the build requirements are missing system dependencies (eg: compilers, libraries, headers).You can verify this by running pip wheel --no-cache-dir --use-pep517 "numpy (==1.26.4)".
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
embedding 과정 중 Error, message length too large 발생
안녕하십니까 강의 잘 듣고있습니다.!from langchain_ollama import OllamaEmbeddings embeddings = OllamaEmbeddings(model="llama3.2") import os from pinecone import Pinecone from langchain_pinecone import PineconeVectorStore index_name = "tax-table-index" pinecone_api_key = os.environ.get("PINECONE_API_KEY") pc = Pinecone(api_key=pinecone_api_key) database = PineconeVectorStore.from_documents(document_list, embedding=embeddings, index_name=index_name) Embedding 후 PinecondVectorStore 저장 할떄아래와 같은 예외가 발생합니다.```PineconeApiException: (400) Reason: Bad Request HTTP response headers: HTTPHeaderDict({'Date': 'Thu, 17 Apr 2025 02:53:26 GMT', 'Content-Type': 'application/json', 'Content-Length': '118', 'Connection': 'keep-alive', 'x-pinecone-request-latency-ms': '2664', 'x-pinecone-request-id': '9090329298438964680', 'x-envoy-upstream-service-time': '2', 'server': 'envoy'}) HTTP response body: {"code":11,"message":"Error, message length too large: found 4194738 bytes, the limit is: 4194304 bytes","details":[]} Output is truncated. View as a scrollable element or open in a text editor.```OllamaEmbeddings(model="llama3.2") 를 사용하고 있는데요.해당 모델로 임베딩을 하면 Pinecone에서 허용하는 데이터를 초과하는 것 으로 보이는데요이러한 경우 처리하는 방법이 있을까요?아니면 모델을 변경해야하는 걸까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
맞는 답변은 5,000만원 이하에 대한 내용이어야 할것 같아요
올려주신 영상에서 LLM 답변이 5,000만원 초과 8,800만원 이하 구간에 대한 내용으로 나왔는데요, 1,400만원 초과 5,000만원 이하 구간에 대한 내용이 나와야 맞는 것 같아요 UpstageEmbeddings 사용하니까 이 구간에 대한 정보로 알려주네요
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
The onnxruntime python package is not installed.
'벡터 저장소(Vector Store)를 도구로 변환하기' 강의에서 'from langchain_chroma import Chroma' 부분 실행 시 아래와 같은 오류가 발생합니다.ValueError: The onnxruntime python package is not installed. Please install it with pip install onnxruntimepip install을 수행해도 에러는 동일하게 발생합니다.구글 검색으로 Microsoft Visual C++ Redistributable 설치도 시도해 보았으나 여전히 동일합니다.어떻게 해결해야할까요?필요한 정보가 있다면 알려주세요.
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
섹션 5, 사용자 정의 조건부 엣지 관련 질문입니다.
from langgraph.graph import MessagesState, StateGraph, START, END from langchain_core.messages import HumanMessage, SystemMessage from langgraph.prebuilt import ToolNode from IPython.display import Image, display # LangGraph MessagesState 사용 class GraphState(MessagesState): pass # 노드 구성 def call_model(state: GraphState): system_message = SystemMessage(content=system_prompt) messages = [system_message] + state['messages'] response = llm_with_tools.invoke(messages) return {"messages": [response]} def should_continue(state: GraphState): last_message = state["messages"][-1] # 도구 호출이 있으면 도구 실행 노드로 이동 if last_message.tool_calls: return "execute_tools" # 도구 호출이 없으면 답변 생성하고 종료 return END # 그래프 구성 builder = StateGraph(GraphState) builder.add_node("call_model", call_model) builder.add_node("execute_tools", ToolNode(tools)) builder.add_edge(START, "call_model") builder.add_conditional_edges( "call_model", should_continue, { "execute_tools": "execute_tools", END: END } ) builder.add_edge("execute_tools", "call_model") graph = builder.compile() # 그래프 출력 display(Image(graph.get_graph().draw_mermaid_png()))# 그래프 실행 inputs = {"messages": [HumanMessage(content="스테이크 메뉴의 가격은 얼마인가요?")]} messages = graph.invoke(inputs)위 코드는 강사님께서 제공해주신 코드를 가져온 것입니다.제가 궁금한 것은 Tool 노드를 사용하고 다시 call_model 노드로 왔을 때 SytemMessage가 중복되지 않을까? 라는 생각을 했습니다. 예를 들어 message : [유저 인풋] 가 처음으로 그래프에 들어오게된다면def call_model(state: GraphState): system_message = SystemMessage(content=system_prompt) messages = [system_message] + state['messages'] response = llm_with_tools.invoke(messages) return {"messages": [response]}message : SystemMessage + [유저 인풋]이 될것입니다.그 이후 response를 호출하여message : SystemMessage + [유저 인풋] + toolMessage이 되어 상태를 업데이트 하고, 그리고 tool 콜이 있어서 툴노드를 마무리 한 이후 돌아왔을 땐 GraphState에 있는 message는 SystemMessage + [유저 인풋] + toolMessage + [툴이보낸 메세지] 일테니call model 노드에서SystemMessage + SystemMessage + [유저 인풋] + toolMessage + [툴이보낸 메세지]가 적용되어 툴 콜 할때마다 SytemMessage가 쌓이는 구조가 되지 않을까 생각이 들었는데 맞을까요?
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
OpenAI API를 활용하여 LLM Chain 구현하기 (실습)
OpenAI API를 활용하여 LLM Chain 구현하기 (실습) 에서 llm.invoke(prompt_text)하면 이런에러가뜹니다..api_key 새로 갱신받아도 계속 이럽니다..
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
OpenAI API를 활용하여 LLM Chain 구현하기 (실습) 에서
OpenAI API를 활용하여 LLM Chain 구현하기 (실습) 에서 All attempts to connect to pypi.org failed.Probable Causes: - the server is not responding to requests at the moment - the hostname cannot be resolved by your DNS - your network is not connected to the internetYou can also run your poetry command with -v to see more information. 이런 에러가뜹니다.. 미치겠네요..
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
langchain 홈페이지 관련이요
강의중에 들어가시는 langchain 홈페이지가 지금이랑 version이 다른것 같은데 현재 version 홈페이지에서는 강의 내용에 나오는 곳을 찾을 수가 없습니다. 혹시 version이 달라도 괜찮을까요? 예를 들어 Microsoft Word Document loaders를 찾고 싶습니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 2 - 랭체인(LangChain)으로 나만의 ChatGPT 만들기
혹시 로컬llm을 활용해서 RAG를 구현하는 예제도 한번 올려주시면 안될까요?
기업이나 연구소에 근무하시면서 상용 llm을 활용해서 서비스를 개발하시는 분들도 많겠지만로컬pc 24G정도의 vram에 ollama로 Gemma3 27B ( 모델용량 17GB)정도의 모델을 올리면 개인이 가지고 있는 문서들을 따로 토큰을 쓰지않고도 벡터화해서 필요할때 질의응답 하는 용도로 활용가능할거 같은데요https://m.blog.naver.com/PostView.naver?blogId=se2n&logNo=223625573379&navType=by강의중에 codeLlama 연동하시는 부분은 봤는데 ollama로 연동하는 방법이 궁금합니다
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
No module named 'langchain_chroma' 발생해요
langchain_chroma를 다운로드하면 제대로 설치가 안되는것 같은데 무슨 문제가 있는걸까요?
-
해결됨AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
강사님의 LLM 모델의 버전이 어떻게 되나요?
안녕하세요, 강사님Azure OpenAI API를 사용해 봤는데요. gpt-4o-mini-2024-07-18 입니다.Structured output을 하는 경우 다음과 같은 애러가 발생해요. 모델 버전 문제일 것 같기는 한데요.BadRequestError: Error code: 400 - {'error': {'code': 'BadRequest', 'message': 'response_format value as json_schema is enabled only for api versions 2024-08-01-preview and later'}}강사님의 LLM 모델의 버전이 어떻게 되나요?
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
Agent RAG 구현에서 '정보 추출 및 평가' 노드 결과 애러
안녕하세요, 강사님.강의 마지막 섹션 Agent RAG 시스템을 그래프로 구현 에서 # 4. Agent RAG 구현 부분에서 LLM 모델에 따라 결과 다르게 나오는 것 같습니다.참고로, 저는 ANTHROPIC claude-3-7-sonnet-20250219 모델을 사용하는데요.다음과 같이, '정보 추출 및 평가' 노드에서 애러가 발생합니다. 안정적인 결과를 얻기 위해서는 어떤 방안이 좋을지 의견을 부탁 드립니다. ---정보 추출 및 평가---ValidationError: 2 validation errors for ExtractedInformationstripsInput should be a valid list [type=list_type, input_value='[\n {\n "content": "...="query_relevance">0.95', input_type=str]For further information visit https://errors.pydantic.dev/2.10/v/list_typequery_relevanceField required [type=missing, input_value={'strips': '[\n {\n "..."query_relevance">0.95'}, input_type=dict]For further information visit https://errors.pydantic.dev/2.10/v/missing수업 영상 몇 분/초 구간인지 알려주세요.
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
메시지 그래프/피드백 루프 활용하기에서 질문
12:20 에서 grade, num_generation 필드값으로 상태값이 덮어 써진다고 하셨는데요. 그러면 기존 상태에 있던 "messages"와 "documents"가 사라지는 건가요? 4:07에서 rag_chain.invoke함수에 string 타입의 query가 들어가면 "context"와 "question"에 모두 입력으로 들어가게 되는건가요?
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
2-3 임베딩모델 에러
실행 시 에러 나는데 무슨 문제일까요? 2.3 임베딩 모델입니다.--------------------------------------------------------------------------- RateLimitError Traceback (most recent call last) Cell In[81], line 6 2 embeddings = OpenAIEmbeddings( 3 model="text-embedding-3-small", # 사용할 모델 이름을 지정 가능 4 ) 5 sample_text = "테슬라 창업자는 누구인가요?" ----> 6 vector = embeddings.embed_query(sample_text) 7 print(f"임베딩 벡터의 차원: {len(vector)}") File ... (...) 1031 retries_taken=retries_taken, 1032 ) RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.', 'type': 'insufficient_quota', 'param': None, 'code': 'insufficient_quota'}}
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
STORM 아키텍쳐
Structured output과 regex pattern 설정 충돌quries["raw"].toll_calls 가 빈 리스트로 반환됨두 문제 모두 langchain_openai==0.2.4 에서는 정상적으로 동작
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.2 LangChain과 Chroma를 활용한.. 예제중 질문입니다.
안녕하세요.3.2 예제 실습중 아래와 같은 이슈를 해결하지 못하여 질문 드립니다. 사용자 환경운 github 에서 제고해준 code space 환경에서 테스트 중입니다. 오류 코드는.. from langchain_chroma import Chroma # 데이터를 처음 저장할 때 database = Chroma.from_documents(documents=document_list, embedding=embedding, collection_name='chroma-tax', persist_directory="./chroma") 위 코드 실행시 아래와 같은 오류가 발생합니다. AttributeError Traceback (most recent call last) Cell In[108], line 41 from langchain_chroma import Chroma 3 # 데이터를 처음 저장할 때 ----> 4 database = Chroma.from_documents(documents=document_list, embedding=embedding, collection_name='chroma-tax', persist_directory="./chroma") 6 # 이미 저장된 데이터를 사용할 때 7 #database = Chroma(collection_name='chroma-tax', persist_directory="./chroma", embedding_function=embedding) File /workspaces/faith79/.venv/lib/python3.12/site-packages/langchain_chroma/vectorstores.py:1239, in Chroma.from_documents(cls, documents, embedding, ids, collection_name, persist_directory, client_settings, client, collection_metadata, kwargs)1237 if ids is None: 1238 ids = [doc.id if doc.id else str(uuid.uuid4()) for doc in documents] -> 1239 return cls.from_texts( 1240 texts=texts, 1241 embedding=embedding, 1242 metadatas=metadatas, 1243 ids=ids, 1244 collection_name=collection_name, 1245 persist_directory=persist_directory, 1246 client_settings=client_settings, 1247 client=client, 1248 collection_metadata=collection_metadata, 1249kwargs, 1250 ) ...--> 327clientsettings = chromadb.config.Settings(is_persistent=True) 328clientsettings.persist_directory = persist_directory 329 else: AttributeError: module 'chromadb' has no attribute 'config'Output is truncated. View as a scrollable element or open in a text editor. Adjust cell output settings... //////////////////////////////////////////////////////////////////////////////// chromadb 에서 config 속성 사용이 안된다는거 같아요.그래서 langchain_chroma의 버전도 변경하고 chromadb 도 설치 후 버전도 이것저것 변경해 보았는데, 동일한 이슈만 지속적으로 나오고 있습니다 꼭 해결하고 싶어요~ 도와주세요.
-
미해결LLM 기초부터 최신 RAG·LangChain까지: 단 5시간 만에 LLM 기초과정 마스터!
프롬프트 엔지니어링 완벽 총 정리 파트 질문
안녕하세요. "프롬프트 엔지니어링 완벽 총 정리" 파트에서 여러 이론이 나오는데, 여기서 필수적으로 알고 넘어가야 할 이론이 있는지 궁금합니다. 감사합니다.
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
에이전틱 루프에서의 병렬 노드 구현 문의
안녕하세요, 강사님워크플로우가 아닌 에이전틱 루프에서 병렬 노드 구현이 가능한지 문의드립니다. 구체적으로 다음과 같은 두 가지 시나리오에 대한 가능 여부가 궁금합니다 쿼리에 따라 1, 2번 작업을 순차적으로 진행한 후, 그 결과를 aggregate하여 3번으로 전달하는 방식1, 2, 3번 작업을 동시에 병렬로 수행한 후 한 번에 취합하는 방식 어떤 방식이 가능한지 조언 부탁드립니다. 감사합니다