묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
n8n 강의 잘 들었습니다.
혹시 n8n 고급 강의는 언제쯤 준비될 예정인지 알 수 있을까요?
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
8강에서 gmail은 메일 삭제가 안되네요?
안녕하세요.스팸 구분해서 마지막에 DeleteMail 해주는 부분에서 기존 네이버 메일은 휴지통으로 이동이 되는데 gmail은 따로 설정을 또 해줘야하는건가요?[Gmail]/휴지통 으로 설정을 해줘도 삭제가 안되네요. 네이버메일과 gmail 삭제시 이동되는 메일함 설정이 각각 구분해서 하는것도 안되는것 같아요.
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
HTTPS Reqquest 설정 화면이 들립니다.
안녕하세요. 강의 잘 듣고 있습니다.강의에서 HTTPS REQUEST를 설정하는 화면에서 'Add parameter'설정 항목중에서 'Value Provided'라는 항목이 없고, Name과 Value 항목만 있습니다. 버전의 문제인자? 몇 번을 다시 해봐도 동일한 화면입니다. 확인요청드립니다. 수고하세요.
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
012에서 transcription에 아무 것도 나오지 않음
012에서 transcription에서 한글이 나오지 않고 그냥 " " 이것만 계속 나옵니다. 왜 그런가요?
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
create_react_agent, retriever요약 문제점
안녕하십니까 선생님 강의 잘 듣고있습니다.만약 create_react_agent에 tool이 vectordb retriever를 수행 할 때 retriever의 문서의 내용이 너무 많은 context를 가지고 있다면 llm이 리트리버한 결과를 바탕으로 질문에 대한 답변을 하지 않고 리트리버 문서를 요약해서 답변으로 출력합니다. 왜 그런건지 궁금합니다. from langgraph.prebuilt import create_react_agent @tool def retriever_tool(query: str)->List[Document]: """ 이 도구는 HR 데이터베이스에서 정보를 검색합니다. """ return retriever.invoke(query) tools = [retriever_tool] research_agent = create_react_agent( model = llm, tools = tools, prompt=(""), )
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
AI로 네이버 스팸 메일 자동 분류하기
늘 상세한 답변 감사드립니다.^^ uid를 구하기 위해 imap get many에서 subject를 검색 필터로 주셨는데요...결과값이 나오지 않더라고요.AI에게 질문해보니 "디코딩이 안되어서 그렇다. 디코딩하는 자바스크립트를 code node에 넣어서 작동해봐라..." 그렇게도 해보았는데 디코딩이 안되었습니다.디코딩이 안되어도 이런 문제가 생길 수 있나요?참고로 railway에서 호스팅 중입니다.환경설정에 문제가 있는걸까요?
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
Ollama를 이용한 모델 사용시 GPU 사용
Ollama를 이용해서 gemma3:4b를 설치했고, 로컬 PC가 NVIDIA GPU를 사용해서 이에 맞춰 설치 및 터미널에서 잘 응답을 했습니다!다만 n8n에 돌아와서 AI Agent에 Ollama Chat Model에 연결해서 사용하는데 너무 오래 걸려서,작업관리자로 확인해 보니 CPU만 100%로 돌아가고 GPU는 거의 구동은 안하고 있더라구요.이것 때문에 응답 속도가 느리지 않을까 싶은데, GPU가 사용되게끔 해줄 수 있을까요?? 감사합니다.
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
7강. 이메일 스팸 분류하기
안녕하세요. 수업 잘 듣고있습니다!! 이메일 스팸 분류하기에서,마지막 IMAP에서 GET MANY의인풋값은 잘 들어왔는데 (yes로 잘 들어옴)아웃풋이 자꾸 없다고 뜹니다. 이유가 뭘까요?
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
지메일 필드명에 text 필드가 없습니다.
구글 메일에서.. 필드명에 text가 없습니다. 이럴 경우는 Edit Field2 에서 어떻게 처리 해야 할까요?textplain 을 text 로 변환 하는 방법은 없을까요?
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
네이버 스팸 메일 자동분류하기에서
안녕하세요. 강의 재미있게 잘 듣고 있습니다. 네이버 스팸 메일 자동분류하기에서 네이버에서 메일을 가져올 때 3item을 가져오더라고요.복수의 메일을 가져와서 true, false 복수의 결과값이 나온 이후 switch 노드에서 결과 값이 안나옵니다. 그리고 네이버 메일 읽음처리한(Mark as read) 경우에도 수백개의 메일이 읽음 처리로 바뀌기도 했었습니다.메일 1통씩 처리가 안되는 이유가 뭔지 궁금합니다.제가 설정에 미숙했던 부분이 있을까요?
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
6강 오류 고쳐주시기 바립니디
6. 네이버 검색 API 를 추가하고 검색 기능을 서브 워크플로우로 작성하기 다른 건 질 보이는데 유독 6강민 재생이 되지않습니다
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
Agent로 리눅스 제어
안녕하세요 강의 잘 보고있습니다. 에이전트 구현 관련해서 강의 외적으로 몇가지 질문드립니다. 에이전트를 리눅스 호스트에서 구동하며 ShellTool, PlayWright 등을 활용해서 원래 사람이 직접 리눅스와 소통하며 수행해야 했을 동작들을 에이전트로 대체하고자 합니다. 이와 관련된 좋은 Practice Example이 있을까요?에이전트를 여러 시나리오에 대응할 수 있도록 여러 Sub StateGraph로 나누어 작업한 후에 이들을 하나의 에이전트로 합치는 구조를 생각하고 있습니다. 혹시 이렇게 될 경우 State가 Subgraph 마다 다른 것과, 메모리 등에 대해서 정확한 그림이 그려지지 않는데 이를 해결하기 위해 혹시 효과적인 설명이나 예시가 있을까요?
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
prompt 요청
안녕하세요 현재 강좌까지 무사히 잘 따라하고 있는 수강생입니다. 16강에서 텔레그램으로 구현하는 음성 기반 AI 비서: 메일 확인부터 회신까지 자동화하기에서 막히고 있는데요 AI Agent에서 사용하는 prompt 랑 Basic LLM Chain에서 사용하는 prompt를 스크립트로 받을 수 있을까요?대략적으로 보면서 짜는데 잘 안되네요;;
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
n8n-mpc에서 google계정차단
pm2에서 ngrok url을 사용하고 있고, 여기에 docker compose로 구글메일을 사용하려고 하는데 계속 에러가 발생하네요. pm2를 중지시키면 docker compose로는 구글메일이 연결안되고(위의 스크린샷 처럼), 그렇다고 pm2를 활성화시키면 docker compose로 작성한 workflow를 볼 수 없고,강사님 잠간 언급한 ngrok url을 고정시켜 port 5678로 docker compose로 ngrok를 가져와서 구글 계정을 사용할 수 있는 방법을 알기쉽게 알려주세요. 우분투 24.04 lts desktop 버전입니다. 누군가 redirection url에서 ngrok url에 localhost:5678를 입력하면 된다는 그런 얘기도 있던데 .... 하여간 방법을 알려 주세요
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
GmailEmail 트리거가 안됩니다.
Gmail 연동부터 자동 응답까지: 이메일 AI 에이전트 완전 구축법7:18 GmailEmail 트리거가 안됩니다.테스트스탭으로 계속 리슨상태로 기다리는데, 이메일을 보내봐도 트리거가 안됩니다.!
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
구글Sheet 데이타에서 체봇답변
음식이름, 만드는 레서피, 필요한재료 를 구글Sheet에 저장을 해 놓고 챗봇을 통해서 그 구글Sheet 에 있는 내용만을 기본으로 해서 답변을 할 수가 있나요 ? 즉, 구글Sheet 나 구글 구글 문서를 기반으로 한 답변 챗봇을 만들려고 합니다. 이게 가능할까요 ? 아니면 이 데이타를 변형해야지만 가능한가요?
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
22강에서 구글드라이브 인증 후 from list가 안나타납니다.
구글드라이브 인증하면서 권한도 모두 체크 했습니다. 그런데 Folder> From list에서 폴더가 보이지 않습니다.무엇이 문제인지 문의드립니다.
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
응답 오류
안녕하세요, 5강에서 강사님께서 설명해주신 대로 세팅을 다 했는데, 입력 값이 이상하게 나옵니다. 강의에서는 '지금 몇 년도야?'라고 물었을 때 2025년이라고 나오는데, 저 같은 경우에는 계속 2024년도라고 응답이 됩니다. 프롬프트 수정도 해보았는데, 계속해서 '2024년'이라고 응답하고 있습니다. 세팅은 다 잘 따라했는데, 무엇이 부족한 걸까요?
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
redis node에서 timeout 에러발생
volumes: n8n_storage: postgres_storage: ollama_storage: qdrant_storage: redis_storage: networks: demo: x-n8n: &service-n8n image: n8nio/n8n:latest networks: ['demo'] environment: - N8N_SECURE_COOKIE=false - DB_TYPE=postgresdb - DB_POSTGRESDB_HOST=postgres - DB_POSTGRESDB_USER=${POSTGRES_USER} - DB_POSTGRESDB_PASSWORD=${POSTGRES_PASSWORD} - N8N_DIAGNOSTICS_ENABLED=false - N8N_PERSONALIZATION_ENABLED=false - N8N_ENCRYPTION_KEY - N8N_USER_MANAGEMENT_JWT_SECRET - OLLAMA_HOST=ollama:11434 env_file: - .env x-ollama: &service-ollama image: ollama/ollama:latest container_name: ollama networks: ['demo'] restart: unless-stopped ports: - 11434:11434 volumes: - ollama_storage:/root/.ollama x-init-ollama: &init-ollama image: ollama/ollama:latest networks: ['demo'] container_name: ollama-pull-llama volumes: - ollama_storage:/root/.ollama entrypoint: /bin/sh environment: - OLLAMA_HOST=ollama:11434 command: - "-c" - "sleep 3; ollama pull llama3.2" services: postgres: image: postgres:16-alpine hostname: postgres networks: ['demo'] restart: unless-stopped environment: - POSTGRES_USER - POSTGRES_PASSWORD - POSTGRES_DB volumes: - postgres_storage:/var/lib/postgresql/data healthcheck: test: ['CMD-SHELL', 'pg_isready -h localhost -U ${POSTGRES_USER} -d ${POSTGRES_DB}'] interval: 5s timeout: 5s retries: 10 n8n-import: <<: *service-n8n hostname: n8n-import container_name: n8n-import entrypoint: /bin/sh command: - "-c" - "n8n import:credentials --separate --input=/demo-data/credentials && n8n import:workflow --separate --input=/demo-data/workflows" volumes: - ./n8n/demo-data:/demo-data depends_on: postgres: condition: service_healthy n8n: <<: *service-n8n hostname: n8n container_name: n8n restart: unless-stopped ports: - 5678:5678 volumes: - n8n_storage:/home/node/.n8n - ./n8n/demo-data:/demo-data - ./shared:/data/shared depends_on: postgres: condition: service_healthy n8n-import: condition: service_completed_successfully qdrant: image: qdrant/qdrant hostname: qdrant container_name: qdrant networks: ['demo'] restart: unless-stopped ports: - 6333:6333 volumes: - qdrant_storage:/qdrant/storage redis: image: redis:latest container_name: redis hostname: redis restart: unless-stopped ports: - "6379:6379" volumes: - redis_storage:/data healthcheck: test: ["CMD", "redis-cli", "ping"] interval: 1s timeout: 8s retries: 5 command: ["redis-server", "--appendonly", "yes"] redisinsight: image: redislabs/redisinsight:latest container_name: redisinsight hostname: redisinsight restart: unless-stopped ports: - "8001:8001" depends_on: - redis ollama-cpu: profiles: ["cpu"] <<: *service-ollama ollama-gpu: profiles: ["gpu-nvidia"] <<: *service-ollama deploy: resources: reservations: devices: - driver: nvidia count: 1 capabilities: [gpu] ollama-gpu-amd: profiles: ["gpu-amd"] <<: *service-ollama image: ollama/ollama:rocm devices: - "/dev/kfd" - "/dev/dri" ollama-pull-llama-cpu: profiles: ["cpu"] <<: *init-ollama depends_on: - ollama-cpu ollama-pull-llama-gpu: profiles: ["gpu-nvidia"] <<: *init-ollama depends_on: - ollama-gpu ollama-pull-llama-gpu-amd: profiles: [gpu-amd] <<: *init-ollama image: ollama/ollama:rocm depends_on: - ollama-gpu-amd 위의 내용은 docker-compose.yml 이구요. redis node를 생성하는데 아래와 같이 에러발생 합니다. os는 우분투 24.04 lts desktop 버전입니다.
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
agent가 tool을 선택하는 방법?
from langchain_core.messages import HumanMessage from langgraph.prebuilt import create_react_agent from langchain_mcp_adapters.client import MultiServerMCPClient async with MultiServerMCPClient( { "house_tax": { "command": "python", "args": ["./mcp_stdio_server.py"], "transport": "stdio", }, } ) as client: ##### AGENT ##### tool_list = client.get_tools() agent = create_react_agent(llm, tool_list) query = '5억짜리 집 1채, 10억짜리 집 1채, 20억짜리 집 1채를 가지고 있을 때 세금을 얼마나 내나요?' system_prompt = client.get_prompt(server_name="house_tax", prompt_name="house_tax_system_prompt", arguments={}) messages = await system_prompt + [HumanMessage(content=query)] print("=====RESPONSE=====") stream_generator = agent.astream({'messages': messages}) all_chunks = await process_stream(stream_generator) if all_chunks: final_result = all_chunks[-1] print("\nFinal result:", final_result)안녕하세요, mcp 쪽 공부하다가 궁금한 점이 생겨서 질문드립니다. MultiServerMCPClient를 이용해서 react_agent를 생성하면, query에 적합한 tool들을 알아서 선별해서 query가 요청하는 태스크를 실행해주는 방식이란 점은 잘 이해가 됩니다. 하지만, 어떤 방식으로 tool들의 메타 정보(description, 필수 argument 정보)등을 가져오고 인식하는 지 공식 문서로 정리된 점이 있나요? 강의 자료에서는 local python 파일을 이용해서 tool을 등록했지만, 아래의 방식처럼 smithery를 통해 tool을 등록하는 방법도 있는 것으로 알고 있습니다. 이렇게 tool을 등록하는 방식이 다양한데 MultiServerMCPClient가 어떤 식으로 tool들의 정보와 사용법에 대한 정보를 얻어서, 태스크에 적절한 tool들을 할당할 수 있는 지에 대해 여쭤보고 싶습니다"Gmail": { "transport": "sse", "enabled": True, "command": "npx", "args": [ "-y", "supergateway", "--sse", "https://" ], https://github.com/langchain-ai/langchain-mcp-adapters/tree/main 에서 MultiServerMCPClient 코드들을 조회해봤을 때 get_prompt나 get_resources가 있는 것으로 보아 분명 '어떠한 방식'으로 등록하려는 도구들에 대한 메타 정보를 가져오는 것 같은데 그 '어떠한 방식'을 구체적으로 알고 싶습니다