묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
강의 자료
안녕하세요 첨부 되어 있는 강의 PDF의 순서와 강의 순서가 맞지 않고, 누락된 부분도 있는데 ... 강의 하시는 자료와 일치하는 강의 PDF를 다시 받을 수 있을까요 .. 왔다 갔다 하면서 어떻게 강의는 듣는데, 없는 부분도 있어서 수업 듣는데 어려움이 존재 합니다. 감사합니다.
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
2.8 Multi-Agent 시스템과 RouteLLM 강의에서
from langchain_core.prompts import ChatPromptTemplate from pydantic import BaseModel, Field from typing import Literal class Route(BaseModel): target: Literal["income_tax", "llm", "real_estate_tax"] = Field( description="The target for the query to answer" ) router_system_prompt = """ You are an expert at routing a user's question to 'income_tax', 'llm', or 'real_estate_tax'. 'income_tax' contains information about income tax up to December 2024. 'real_estate_tax' contains information about real estate tax up to December 2024. if you think the question is not related to either 'income_tax' or 'real_estate_tax'; you can route it to 'llm'.""" router_prompt = ChatPromptTemplate.from_messages( [("system", router_system_prompt), ("user", "{query}")] ) structured_router_llm = small_llm.with_structured_output(Route) def router(state: AgentState) -> Literal["income_tax", "real_estate_tax", "llm"]: """ 주어진 state에서 쿼리를 기반으로 적절한 경로를 결정합니다. Args: state (AgentState): 현재 에이전트의 state를 나타내는 객체입니다. Returns: Literal['income_tax', 'real_estate_tax', 'llm']: 쿼리에 따라 선택된 경로를 반환합니다. """ query = state["query"] router_chain = router_prompt | structured_router_llm route = router_chain.invoke({"query": query}) return route.target 안녕하세요 강병진 강사님:) 혹시 위 코드에서 router_prompt없이 Route class의 Field에만 프롬프트 지침을 넣어도 문제가 없을까요? 테스트 결과는 잘 나왔습니다. 아래는 수정 코드입니다.class Route(BaseModel): target: Literal["real_estate_tax", "llm", "income_tax"] = Field(description = """ 당신은 사용자의 질문을 보고 적절한 라우터를 연결해주는 전문가입니다. 부동산에 관련된 질문은 real_estate_tax라우터를, 소득세에 관한 질문은 income_tax라우터를, 그 외의 질문은 llm라우터로 연결해주세요. """) def router(state: AgentState): query = "역삼역 떡볶이 맛집을 알려주세요 " router_llm = llm.with_structured_output(Route) response = router_llm.invoke(query) return response.target print(router({})) >> 'llm'
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
tool의 Output Size 관련 질문
MCP Server 나 langgraph 나 모두 tool 입니다. 만약 tool 에서 결과 값이 너무 많이 나오는 경우 어떻게 처리 해야 할까요?예1) MCP Server의 "우리 회사 고객 정보중 매출 얼마 이상 되는 정보를 보여줘?" 라고 고객이 입력 했는데, 그 고객 정보가 10만명이 나와서 tool 의 결과가 너무 커 버리는 예)DB의 Limit 등으로 어떻게 하더라도 다음 호출을 LLM이 잘 못해주는 경우가 있음.예2) 슬랙의 채널을 보여줘 했을 때, 슬랙의 채널이 너무 많은 경우 ... 결국 전부다 예3) 소스코드를 분석해 줘소스코드가 1만 - 2만 라인 되었을 경우 Tool 의 결과라도 양이 많으면 Summary를 하면서 계속 돌려야 하는게 효과 적일까요? 아니면 페이지 1, 2 등을 호출할 수 있게 어떻게 하던 LLM 에게 권한을 주는게 효과 적일까요?더 괜찮은 방법이나 좋은 prompt 등이 있으시면 답변 부탁 드립니다.감사합니다.
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
public 모델 사용시 주의점
안녕하세요 좋은 수업제공해주셔서 많은 도움을 받고있습니다. langChain에 public 모델을 사용할때 개인정보 관련해서 질문이 있는데요예를 들어 챗봇이나 자동 상담 기능에 적용을 한다고하면 입력이 매우 자유로울거같은데 개인정보에대해서는 어떻게 처리를 해야할까요? 기본적으로는 정규식으로 전처리를 하는데 100%보장된 작업은 아니라 현업에서는 어떻게 처리하는지 궁금합니다. 만약 개인정보 처리가 매우 중요하다면 public 모델(ex. chatGPT, gemini)은 사용 못하고 private 한 환경에 오픈소스로 운영할수밖에는 없을까요?
-
미해결Spring WebFlux + LLM 실전 구현
안녕하세요 혹시 강의 내용 소스코드를 제공 받을수 있을까요?
안녕하세요 혹시 강의 내용 소스코드를 제공 받을수 있을까요?
-
해결됨RAG 성능의 한계를 뚫는 인지 부하 관리 기술
42. 수업 7.6 다중 프롬프트 전략과 CoT 영상 오류
42. 수업 7.6 다중 프롬프트 전략과 CoT 영상 오류입니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
문서 전처리에 관한 질문
안녕하십니까 강사님. 제공해주신 고품질의 강의 너무 잘 보고 있습니다.3.6의 강의 내용 중 문서의 표에 대한 마크다운 전처리를 추천해주셨습니다. 만약 실시간으로 크롤링하는 데이터를 바탕으로 RAG 챗봇을 만든다고 했을 때, 크롤링된 문서를 자동적으로 전처리하는 로직은 따로 없을까요? 사용자가 수동적으로 해야하는 부분일까요? 감사합니다.
-
해결됨Spring WebFlux + LLM 실전 구현
기본적 동작과정에 대한 이해가 부족해 질문드립니다.
안녕하세요일단 제가 생각은컨트롤러에서 Mono 나 Flux 를 반환하고 webflux 가 이를 구독할 때 실행된다. 인데 어쨌든 구독하는 동작도 이벤트 루프 스레드가 하는 거라고 생각합니다.그렇다면 구독에서부터 Mono 또는 Flux 실행까지 같은 이벤트 루프 스레드가 이어서 동작하는 건가요?만약 제가 생각하는 게 맞다면 컨트롤러에서 수행하는 것과 구독후 수행하는 것의 순서만 다를 뿐 성능 차이를 모르겠는데 제가 어떤 부분을 잘못생각하고있는 걸까요? 개념이 잡히지 않아 질문이 좀 이상한 거 같아 죄송합니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ
trainer = Trainer( model=model, args=training_args, train_dataset=tokenized_bionlp["train"], eval_dataset=tokenized_bionlp["validation"], tokenizer=tokenizer, data_collator=data_collator, compute_metrics=compute_metrics, ) trainer.train() 강의에서는 training 하면 바로 된다고 하셨는데, 2025년 8월 현재 입력하면 wandb: Logging into wandb.ai. (Learn how to deploy a W&B server locally: https://wandb.me/wandb-server) wandb: You can find your API key in your browser here: https://wandb.ai/authorize?ref=models wandb: Paste an API key from your profile and hit enter: 위와 같이 나옵니다. 어떻게 하면 될까요?
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
evaluate_retrieval_at_K 함수 문의드립니다.
안녕하세요, krag 라이브러리가 pip 서버에는 등록이 되어있는데 상세한 정보는 찾을 수가 없어서 문의드립니다. 일정 한도 내에서는 무료로 사용할 수 있는 Gemini API를 통해서 검색 성능을 평가중에 있는데, 중간중간 NaN값이 나오길래 추적해봤더니 API 분당 호출 수가 초과해서 값을 호출받지 못하는 경우가 생기더라구요. time.sleep을 걸고싶어도 이게 함수 자체로 전체 데이터프레임을 순회하는지라.. 혹시 delay를 넣을 수 있는 옵션이 있을까요?
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
Multi Agent vs Multi tools (강좌 처럼)
뭔가 제가 이해하기로는 Multi Agent의 개념이 Multiple tool로의 개념으로 이번 강의를 이해했는데요 맞을까요 ? 둘의 명시적인 기능의 차이는 없어보이는데 클린 코드 작성 측면에서는 더 Multi tools가 효과적으로 보입니다 다만, 명확히 왜 이렇게했지? 라는 생각이 계속 듭니다. 어떤 점에서 장점이 있다고 이해하면 될까요 ?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
저장 오류
소득세법을 저장하려고 doc파일로 저장을 눌렀는데 왜 안될까요? 파일은 저장되는데 막상 눌러서 들어가보면 빈페이지 밖에 안나와요
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
검색기 관련 질문드립니다.
안녕하세요, Langchain RAG 강의 잘 듣고 있습니다. 데이터셋이 방대해질 경우 분명 시간이 지나면서 이제는 사용되지 않은 정보 구식의 정보라고 해야할까요? 그런 것들이 생기는데, 그런 데이터들은 어떻게 필터가 되는지 궁금합니다. 예) Python 2.xx 버전 문서 저장Python 3.xx 버전으로 신규 업데이트 분명 검색을 할 때 동일하게 겹치는 내용이라면 1번과 2번 모두 가져올 것 같은데요! 이 경우 최신 버전으로만 불러올 수 있게 가능한가요??
-
해결됨한시간으로 끝내는 LangChain 기본기
ram 용량
요구하는 PC의 최소 RAM은 몇기가 인가요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
Cursor 마우스오버 후에 보이는 argument 리스트
강사님 안녕하세요:) 사소하지만 아무리 검색해도 안나와서 질문드립니다ㅠ현재 편집기로 cursor를 사용중인데요! ('한시간으로 끝내는 LangChain 기본기' 강의 따라하면서 cursor를 이번에 사용하게 되었습니다) 강의 동영상에서는 함수 위에 마우스 오버하면 argument 옵션들이 쫙 보여서 어떤 인자를 넣어야할지 확인하기 쉬운데요. 제 환경에서는 모두 (function) : Any 로만 떠서 확인이 안되네요ㅠ cursor라서 안보이는걸가요? argument 리스트를 확인할 수 있는 옵션 아시면 알려주시면 감사하겠습니다!
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
ollama 코드 업데이트
강병진 강사님 안녕하세요:)하나하나 떠먹여주시는 강의 너무나 잘 듣고 있습니다!저도 하나하나 실습하면서 내용 소화시키는 중인데요ㅎㅎ 3.1.3 실습을 하는 중에, ollama가 그 사이에 업데이트 되어서 공식 문서를 보면 더이상 langchain_community를 import 하지 않더라구요! 화면에 보여주신 아래 링크 보면서 자체적으로 langchain-ollama 설치하고, langchain_ollama의 ChatOllama import해서 실습 따라해보았습니다.https://python.langchain.com/docs/integrations/chat/ollama/ 업데이트된 내용 모르실까봐 공유 드려보았습니다!(사소하지만 ipynb 파일 이름에서 ChatOllana라고 오타가 있더라구요~ 이것도 도움될까봐 일단 공유 드려보아요!)https://github.com/jasonkang14/inflearn-rag-notebook/blob/main/3.1.3%20%ED%99%98%EA%B2%BD%20%EC%84%A4%EC%A0%95%EA%B3%BC%20LangChain%EC%9D%98%20ChatOllana%EB%A5%BC%20%ED%99%9C%EC%9A%A9%ED%95%9C%20%EA%B2%80%EC%A6%9D.ipynb 좋은 강의 만들어주셔서 다시 한번 감사합니다. 🙂
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
Chroma.from_documents 수행시 kernel 중단
안녕하세요, 강의를 듣고 있는 수강생입니다.퀄리티 있는 강의 감사드립니다. 다름이 아니라, 저는 윈도우 환경에서 VisualStudio에서 소스를 돌리고 있고 소스를 실행하는 실행환경은 venv 가상환경 python 3.10.11 버전으로 구성을 했습니다. 다른 소스는 문제 없이 수행되나Chroma.from_documents 수행시에 kernel 이 중단되는 문제가 있습니다. C기반의 라이브러리 충돌이나 시스템 메모리 충돌일 가능성이 높다고 하여 python 버전도 바꿔보고, 깔려 있는 라이브러리들의 버전도 바꿔보고 C기반 라이브러리도 다시 설치해보고 했으나 여전히 저 과정에서 죽습니다. documents 사이즈를 한문장 처럼 작은 단위로 줄여서 시도도 해봤으나 이것도 저한테는 효과가 없네요.. 같은 데이터셋으로 FAISS에 저장하는 건 제 가상환경에서도 성공하는데...Chroma만 되지 않습니다.. 혹시 어떻게 하면 좋을지 조언 얻을 수 있을까요?
-
미해결맞춤형 LLM 만들기 : 처음 시작하는 분을 위한 RAG 기초 개념부터 멀티모달·Agent 실습까지
실습을 위한 구글 드라이브 접근권한 해제요청
아래 2개 링크에 대한 접근권한이 막혀있습니다.ㅠㅠ권한을 풀어주세요...-- 아래 --[실습] 벡터_데이터베이스_기반_RAG어플리케이션[실습] PDF내용_기반_질의응답_애플리케이션[실습] DB_to_VectorDB_Searching_Chatbot
-
미해결맞춤형 LLM 만들기 : 처음 시작하는 분을 위한 RAG 기초 개념부터 멀티모달·Agent 실습까지
구글 드라이브 접근권한이 없습니다 ㅠ
실습하고싶은데 구글드라이브 접근권한이 없네요creee77@gmail.com 으로 요청드렸습니다
-
미해결Prompt Engineering: 완벽 가이드
학습 자료 다운로드 관련
학습 자료를 다운로드하면 강의에서 코딩된 코드들은 전혀 없는 데 이건 공유 안하시는 건가요 ?어떤 강의는 절반이 아무 설명없이 코딩 빨리 감기로 녹화된거라 이거 어떻게 따라 치라는 건가요;;