묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
SerpAPI 노드 q파라메터 에러
4강 SerpAPISerpAPI 노드에서 q파라메터가 없다는 에러가 뜹니다. q 파라메터는 어떻게 정하죠?
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
n8n 설치관련 문의 docker
n8n설치부터 셀프 호스팅 강의를 보고 있는데 2강부터 설치가 제대로 안되서 문의 드립니다. docker - container에는 n8n 이 보이지 않고 포트 정보가 안나오고요이미지 탭으로 들어가면 있는데 포트 정보는 없습니다. 강사님 저 좀 도와주세요 -_ㅠ
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
hub 임포트 문제
%pip install -U langchain langchainhub --quietfrom langchain import hub prompt = hub.pull("rlm/rag-prompt")안녕하세요! 강의에서처럼 hub를 임포트 하기 위해서 이렇게 했는데, 아래와 같은 에러가 뜹니다. --------------------------------------------------------------------------- ImportError Traceback (most recent call last) Cell In[47], line 1 ----> 1 from langchain import hub 3 prompt = hub.pull("rlm/rag-prompt") ImportError: cannot import name 'hub' from 'langchain' (/home/Dev/llm-app/llm-app/lib/python3.10/site-packages/langchain/__init__.py)from langchainhub import hub로도 해보았는데 안되고 검색해도 잘 안나와서 질문 남깁니다ㅠㅠ
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
7강 2단계 인증번호
네이버의 2단계 인증번호는 매번 생성해줘야 하나요? 전에 됐었는데 오늘 다시 노드를 실행하니까 에러가 나서, 다시 설정하려고 기존에 생성되었던 인증번호를 가져오려고 하는데 가져올 수 있는 방법을 모르겠습니다. 새로 다시 설정하려고 하니까 정상적으로 등록이 되지 않습니다(빨강색)
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
KR.txt파일이 없습니다.
제공해주신 데이터.zip파일내에 한글 text 파일이 누락된것 같습니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
ChatOllama 임포트 질문입니다
안녕하세요제가 이 강의를 듣기 전에 '한 시간으로 끝내는 LangChain 기본기'를 수강했습니다.거기서는 올라마를 사용할 때from langchain_ollama import ChatOllama llm = ChatOllama(model="")langchain_ollama에서 가져왔는데이번 강의에서는from langchain_community.chat_models import ChatOllama llm = ChatOllama(model="")langchain_community에서 가져오셨더라구요.둘의 차이가 있나요? 차이가 없다면 둘 중 어느 쪽으로 하면 좋을까요?
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
8강 이메일 노드 중 하나만 실행됩니다.
8강 워크플로우 완성했습니다다만, NAVER EMAIL, GMAIL TRIGGER 노드 중 한개만 실행이 됩니다. 각 노드를 개별 실행하면 정상수행 됩니다. 전체 실행에서 에러도 없고, 둘중 한 노드만 실행이 되네요. 어떻게 해결해야할까요아래는 전체 실행시 Gmail 만 동작해서, 네이버 노드 동작후, 다시 전체 노드 실행해본 결과 이번엔 naver 노드로만 동작됩니다. 이메일 데이터는 양쪽에 모두 있습니다.
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
6강 잘들었습니다! (챗지피티에 그냥 물어볼수 있음에도 코딩통하여 검색엔진 묶어서 검색하여 얻는 이점이 무엇인가요?)
6강 잘들었습니다! (챗지피티에 그냥 물어볼수 있음에도 코딩통하여 검색엔진 묶어서 검색하여 얻는 이점이 무엇인가요?)
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
n8n Connection lost
docker를 통한 n8n 세팅 후 연습중에 커넥션 로스트가 계속 유지중에 있습니다.강의자료에 있던 docker compose를 활용해서 세팅한 상태입니다.검색이랑 해봤는데 무엇이 문제인지 확인이 되지 않아 질문드립니다.무엇을 확인해봐야 좋을지 궁금합니다.
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
id(actor) 와 관련한 질문입니다
이 명령은 actor.id 를 생성하는 명령인지. 아니면 gactor.get("id") 인지 궁금합니다.
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
쿼리문 질문 드립니다.
"graphRAG 구현 (랭체인 LCEL 활용)" 부분입니다.WHERE ANY(title IN $movie_titles WHERE movie.title CONTAINS title) 부분을 아래와 같이 수정 WHERE movie.title IN $movie_titles수정한 이후에 건수가 제대로 나오질 않았습니다. ( 참고 $movie_titles 는 4건인데최총 추출되는 것은 2건입니다.) 단순히 생각하면 title 이 추출된 title 에 포함되어 있는 movie 만 추출하면 될 거 같은데..제대로 동작하지 않네요...왜 그런지 설명 부탁드립니다.WHERE 절 안에 다시 WHERE 절이 있는 것도 잘 모르겠습니다.감사합니다.
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
n8n mac 설치환경설정 관련 질문
안녕하세요 mac을 사용하는유저입니다. 맛보기강의를 수강하면서 아무것도 모른체 챗지피티설명듣고 n8n다운로드하였습니다.-docker 다운로드-docker내 image 에서 n8n"만" 검색하여 설치 후 실행미리보기로 진도살짝 나가고 유료결제통하여 "n8n설치환경강의"를 보고나니 제가 놓친게 많아보이더라구요(초보관점에서 불현듯 두렵네요. 깃헙도 사용하고 윈도우에 직접 타입핑해야하는것도있고..)나중 중후반 강의들을때쯤 설치환경을 강의와 똑같이 해놓지않아서 문제가생길까봐 두려운데, 혹시 mac 설치환경설정 강의는 없을까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
docs 파일 못찾음
국정자원 화재로 인해... docs 파일을 내려받을수가 없네요 ㅠ 어떻게 해야할까요?
-
미해결코딩 없이 AI 앱 만들기: Dify 노코드 완전 정복
dify앱 배포 방식에 대해서 궁금합니다.
2가지 질문이 있는데요.과정 중에는 dify 내에서의 앱 실행 만을 해봤는데 다른 도메인의 웹 페이지 내에 만든 dify앱을 embed 하는 것도 가능할까요? 예를 들어 26강의 투자분석 보고서 같은 앱을 만들어서 웹 페이지 내에서 사용자에게 입력을 받고 결과를 화면에 배치해서 보여주는 것이요.2. 제가 구축한 RAG나 TAG 데이터베이스를 노출시키지 않고도 똑같은 dify앱을 만들어주는 것도 가능한지도 궁금합니다. 제가 만약 어떤 분야에서 꼭 필요한 dify 앱을 만들었다면 제가 앱을 만들기 위해 구축해놓은 지식들은 외부에 노출을 하지 않고 앱만 배포를 해서 사용하게 한다던지 하는게 가능한지요
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
tax_with_markdown.docx 에 테이블 값 오타
연봉 1억4천만원 소득세가 다르게 나와서 문서 확인하니테이블에 있는 값이 오타네요...ㅜㅜ1536만원인데 3706만원으로 된부분과 42퍼센트도 오타...제가 발견한건 두군데임
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
mac으로 hugging face 양자화 공유합니다.(질문도 있습니다)
안녕하세요.강의에서 나오는 BitsAndBytesConfig를 통한 양자화 예시에서 CUDA가 필수로 요구되어 macbook에서 진행할 수 있는 방안을 찾다가 mlx_lm을 통해서 MPS(mac의 gpu)를 활용하여 양자화가 가능하단 사실을 알게되어 공유드리고자 합니다. 아마 맥북 사용자도 꽤 많을 것으로 예상됩니다. langchain에서 MLXPipeline을 제공하지만 이를 사용했을 때 현재 invoke시 호출되는 _call 메서드 내부에서 generate_step이 mlx_lm에서 제공은 하지만 MLXPipeline에서 제대로 불러올 수 없어 RunnableLambda를 통해서 에러를 우회해봤습니다.(Q? 강사님은 혹시 해결 방법을 알고 계실까요? 공홈 코드가 다 안 되네요 ㅜㅜ 오류 코드는 맨 아래 첨부하겠습니다.) 먼저 양자화 진행하는 방식입니다. cli를 통한 command 또는 python-api를 활용하는 방법 두 가지가 있습니다. 자세한건 링크 첨부하겠습니다. 양자화 개념에 대해서 자세히 나오니 참고하면 좋으실 듯 합니다.링크: [quantization with xlm_lm](https://developer.apple.com/kr/videos/play/wwdc2025/298/?time=187) mlx_lm을 통한 양자화먼저 양자화한 model을 local path에 저장합니다. 그 전에 apple의 gpu를 확인할 수 있는 코드 부분은 처음 부분에서 확인하실 수 있습니다.사실 python코드를 싸는 것보다 command로 양자화 진행하는게 편한 것 같습니다. 전 projection layer와 embedding layer는 다른 layer보다 높은 bit로 해주는게 좋다고 하여 python으로 진행했습니다. dequantize on-the-fly(게산 추론)시 더 좋다고 합니다. # mac에서 mps를 사용한 예제 import torch from mlx_lm.convert import convert print("MPS available on this device =>", torch.backends.mps.is_available()) # projection layer & embedding layer는 6bit, 양자화 가능한 layer는 4bit, 양자화 불가능은 False return def mixed_quantization(layer_path, layer): if "lm_head" in layer_path or 'embed_tokens' in layer_path: return {"bits": 6, "group_size": 64} elif hasattr(layer, "to_quantized"): return {"bits": 4, "group_size": 64} else: return False # quantization 진행 convert( hf_path="microsoft/Phi-3-mini-4k-instruct", mlx_path="./models/microsoft-Phi-3-mini-4k-instruct-mixed-4-6-bit", dtype="float16", quantize=True, q_bits=4, q_group_size=64, quant_predicate=mixed_quantization )$) mlx_lm.convert --hf-path "mistralai/Mistral-7B-Instruct-v0.3" \ --mlx-path "./mistral-7b-v0.3-4bit" \ --dtype float16 \ --quantize --q-bits 4 --q-group-size 64 --upload-repo "my-name/mistral-7b-v0.3-4bit" Langchain과 연계하기 from functools import wraps from langchain_core.runnables import RunnableLambda from langchain_core.output_parsers import StrOutputParser from mlx_lm import generate, load quantized_model_path = "./models/microsoft-Phi-3-mini-4k-instruct-mixed-4-6-bit" model, tokenizer = load(quantized_model_path) def runnable_wrapper(func): """RunnableLambda wrapper function""" @wraps(func) def wrapper(*args, **kwargs): return RunnableLambda(func) return wrapper @runnable_wrapper def create_chat_prompt(question): messages = [ { "role": "system", "content": """ You are an expert in information retrieval and summarization. Your job is to read the provided text and produce a precise, faithful, and concise summary. Prioritize the author’s main claim, key evidence, and conclusions. Use plain English and avoid filler. Do not invent facts that aren’t present in the input. """ }, { "role": "user", "content": f""" Question: {question} """ } ] prompt_without_tokenized = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False) prompt_with_tokenized = tokenizer.apply_chat_template(messages, add_generation_prompt=True) print("생성된 prompt👇\n", prompt_without_tokenized) return prompt_with_tokenized @runnable_wrapper def run_llm_with_mlx(prompt): return generate(model=model, tokenizer=tokenizer, prompt=prompt) @runnable_wrapper def output_parser(answer): return answer.replace("<|end|>", "") chain = create_chat_prompt() | run_llm_with_mlx() | output_parser()오류 코드llm.invoke에서 에러가 발생하며 TypeError: generate_step() got an unexpected keyword argument 'formatter'라는 에러가 발생합니다.from langchain_community.llms.mlx_pipeline import MLXPipeline from mlx_lm import load model_path = "./models/microsoft-Phi-3-mini-4k-instruct-mixed-4-6-bit" model, tokenizer = load(model_path) llm = MLXPipeline( model=model, tokenizer=tokenizer ) llm.invoke("what's my name?")
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
강병진 강사님 반갑습니다. RAG 추가 전략에 아이디어에 대해서 질문드립니다.
강병진 강사님 안녕하세요 우선 저와 같은시기쯤? 울산에 있으셨다고 하니 반갑습니다. 저는 병진강사님과 인연이 많은것 같습니다. 강사님 전 회사? 정유회사 바로 옆에 제련회사에서 딥러닝 이미지 처리 프로젝트를 개발하고 있었습니다.병진강사님 덕분에 생성형 AI도 따로 학습을 하고 있고 개별적인 프로젝트도 하고 있습니다. 감사합니다. 질문.1RAG를 구성하고 문서를 벡터DB에 지속하여 업데이트를 위해서 PDF 텍스트·이미지 분석 → RAG용 JSON/JSONL 생성 → Pinecone 적재가능하도록 PyQt GUI 프로그램 만들었는데 여기서 추가적으로 생성되는 문서를 지속적으로 업데이트를 해야할 경우 25년 10월 초에 새로나온 Open AI에 에이전트 툴을 이용해서 일정 시간에 자동으로 Pinecone에 업데으트 해주는 에이전트를 만들어서 자동화를 하려고 하는데 이런 전략을 구성할 경우 문제가 될 부분이 있을까요?질문.2 모델을 만들고 회사가 가지고 있는 특허 문서 파일을 RAG로 구성을 완료한 후 외부 사이트 >> 각 국가의 특허청에 파일을 검색해서 유사도를 분석하거나 하려고 할 때 전략은 어떻게 가져가면 좋을지? 입니다.
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
26강 Code에서 Python 문의
안녕하세요 선생님... 연휴는 잘 보내셨는지요?다름아니라 26강에서 code node에 입력하는 Python 전체 문장 받아볼 수 있을까요? 처음 파이션을 접하다보니 몇차례 작성해 보았는데 자꾸 오류가 나서요.이메일로 보내 주셔서 좋고요...부탁드립니다.
-
해결됨코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
8강 이메일트리거가 계속 리스닝상태입니다
8강에서 이메일 트리거가 계속 리스닝 상태입니다.지메일 앱 비밀번호도 입력했고 몇번을 실행해봐도 리스닝상태에서 벗어나질 못합니다비슷한 질문이 있어 답변을 읽어봤는데 구글 앱 비밀번호가 문제일 가능성이 있다고 하는데 앱 비밀번호는 여러번 입력해봤습니다어느 부분을 수정해야 할까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
커널 시작 에러
주피터 노트북에서 %pip install langchain-openai python-dotenv이 코드를 실행 하면 아래 에러가 자꾸 뜹니다.커널을 시작하지 못했습니다. 커널 'venv (3.11.9) (Python 3.11.9)'을(를) 시작하지 못했습니다. 자세한 내용은 Jupyter 로그을 참조하세요. listen EFAULT: bad address in system call argument 192.168.30.146:9001 참고로 저는 윈도우 유저고 가상환경은 venv를 사용하고 있습니다.