묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
해설강의 쿠폰 발행 문의
안녕하세요? 밑바닥부터 만들면서 배우는 LLM 완독 챌린지 수강생입니다.해설강의 쿠폰이 발행된 줄 모르고 이제야 메일을 확인했는데쿠폰기간이 만료가 되었는지 다운받아지질 않습니다.죄송하지만 다시 한번 발송해 주실 수 있을까요?번거로우시겠지만 부탁드리겠습니다~!!
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
id(actor) 와 관련한 질문입니다
이 명령은 actor.id 를 생성하는 명령인지. 아니면 gactor.get("id") 인지 궁금합니다.
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
쿼리문 질문 드립니다.
"graphRAG 구현 (랭체인 LCEL 활용)" 부분입니다.WHERE ANY(title IN $movie_titles WHERE movie.title CONTAINS title) 부분을 아래와 같이 수정 WHERE movie.title IN $movie_titles수정한 이후에 건수가 제대로 나오질 않았습니다. ( 참고 $movie_titles 는 4건인데최총 추출되는 것은 2건입니다.) 단순히 생각하면 title 이 추출된 title 에 포함되어 있는 movie 만 추출하면 될 거 같은데..제대로 동작하지 않네요...왜 그런지 설명 부탁드립니다.WHERE 절 안에 다시 WHERE 절이 있는 것도 잘 모르겠습니다.감사합니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
해설 쿠폰 관련 문의
안녕하세요.밑바닥부터 만들면서 배우는 LLM 완독 챌린지 수강생입니다. 메일이 스팸함으로 분류되어 쿠폰을 확인하지 못해 현재 등록이 어려운 상황입니다.혹시 쿠폰 재발급이 가능할지 확인 부탁드립니다. 감사합니다.
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
ACP(Agent communication protocol)
안녕하세요!강사님이 올려주신 강의 전부 다 보면서 아주 유익하게 학습했습니다.혹시 가능하시다면 ACP에 관한 강의도 제작 하시면 어떨까요!
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
쿠폰 관련 문의
안녕하세요. 이전 공지사항을 확인하다보니 강의 쿠폰이 발송되었는데, 스팸함으로 들어가면서 삭제가 된것으로 보입니다.번거로우시겠지만 확인해주시면 감사하겠습니다.
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
내 문서를 챗봇으로 만들기 강의 중 가지고 있는 pdf 문서 활용법
문제 / 오류 / 질문에 대해 설명해 주세요 내 문서를 챗봇으로 만들기 강의 중에, 온라인에 pdf로 올라가 있는 apple 문서 말고 제가 pdf로 가진 문서를 활용하려면 1) 어떤 url을 HTTP Request에다가 넣어줘야하는 걸까요? - 구글 드라이브 업로드 > 모두가 볼 수 있도록 접근 권한 허용 했는데 잘 안되더라고요.2) (강의에서 설정한 것대로 하면) 문서의 양이 많을 경우, 앞에 몇 페이지만 색인(?)이 되는 것인지도 궁금합니다. 3) 가지고 있는 문서에 대해 질문한 후 정확한 정보를 얻고 싶다면, 이렇게 n8n으로 만드는게 가장 정확도 높고 많은 양을 처리할 수 있을까요? 아니면 https://notebooklm.google/이 더 나을지 궁금합니다. 오류 메시지가 있다면 작성해 주세요 사용 중인 워크플로우를 공유해 주세요 n8n 설치 정보 안내 n8n 버전:데이터베이스 종류 (기본값: SQLite):n8n 실행 프로세스 설정 (기본값: own, main):n8n 실행 방식 (예: Docker, npm, n8n cloud, 데스크탑 앱 등):운영 체제:
-
해결됨한시간으로 끝내는 LangChain 기본기
JsonOutputParser 질문입니다
4강에서 JsonOutputParser 예제를 따라하는 중입니다.json_ai_message=llm.invoke(country_detail_prompt.invoke({"country": "France"}))json_ai_message.content이렇게 찍어보면 '{"Capital": "Seoul", "Population": 51966111, "Language": "Korean", "Currency": "South Korean Won (KRW)"}'결과가 이렇게 나옵니다. 궁금한 것은 강의에서 ```json\ 이게 있을 수도 있고 없을 수도 있다고 하셨는데,저의 결과처럼 저렇게 나올 수도 있고 강의에서 처럼 ```json\ 이게 붙은 형식으로 나올 수도 있다는 말인가요?
-
미해결LLM Finetuning : RunPod와 Multi-GPU 실습
gemma 2 2b runpod 로컬 PC 사양
gemma 2b 모델 runpod 클라우드 사용하지 않고도 로컬 runpod 을 띄워서 구동이 가능할거 같은데 가능할까요?클라우드 비용을 지불 하고 찾아보니 16GB 정도면 넉넉하다고 하네요ㅠ https://merlio.app/blog/run-google-gemma-2b-locallyrunpod 기본 크레딧 충전이 10달러인데 간단한 처음 입문하는 분들 입장에서는 실습으로 쓰기에 부담이 좀 될거 같습니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
docs 파일 못찾음
국정자원 화재로 인해... docs 파일을 내려받을수가 없네요 ㅠ 어떻게 해야할까요?
-
미해결코딩 없이 AI 앱 만들기: Dify 노코드 완전 정복
dify앱 배포 방식에 대해서 궁금합니다.
2가지 질문이 있는데요.과정 중에는 dify 내에서의 앱 실행 만을 해봤는데 다른 도메인의 웹 페이지 내에 만든 dify앱을 embed 하는 것도 가능할까요? 예를 들어 26강의 투자분석 보고서 같은 앱을 만들어서 웹 페이지 내에서 사용자에게 입력을 받고 결과를 화면에 배치해서 보여주는 것이요.2. 제가 구축한 RAG나 TAG 데이터베이스를 노출시키지 않고도 똑같은 dify앱을 만들어주는 것도 가능한지도 궁금합니다. 제가 만약 어떤 분야에서 꼭 필요한 dify 앱을 만들었다면 제가 앱을 만들기 위해 구축해놓은 지식들은 외부에 노출을 하지 않고 앱만 배포를 해서 사용하게 한다던지 하는게 가능한지요
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
쿠폰 관련하여 문의드립니다.
안녕하세요. 밑바닥부터 만들면서 배우는 LLM 수강생입니다.두 번이나 코드 해설 강의 쿠폰을 발행해주셨는데직장인인데다가 최근에 바빠서 제대로 확인하지 못했습니다.마침 등록되어 있는 메일도 자주 이용하는 메일이 아니다보니 제때 확인하지 못했네요.여러모로 실례지만 혹시 추가로 쿠폰을 발행받을 수 있는 방법이 없을까요?번거롭게 해서 죄송합니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
해설 쿠폰 관련...
안녕하세요 저도 따로 이메일이나 기타 연락을 받지 못해여 쿠폰을 못챙겼습니다. 사실 오늘 알게 된것도 우연히 알게되었습니다. 조금 번거로우시겠지만 아래 다른분 처럼 등록을 부탁 드려도 될까요
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
코드 해설 강의 쿠폰 관련 문의
안녕하세요. 본 완독 챌린지에서 제공하는 코드 해설 강의 쿠폰을 받지 못해, 지금이라도 이걸 받을 수 있는 방법이 있을지 문의드립니다. 새 소식에 있는 공지들을 보면 1차 때나 2차 때나 쿠폰이 일괄 발송되었다고 적혀있는데, 메일 수신함 전체를 확인해봐도 아무 것도 온 게 없습니다.(아마 발송 내역을 확인해보시면 될 듯 합니다)챌린지 신청 기간 당시 챌린지 소개에는 추가 강의 제공 형태(쿠폰으로 제공 후 직접 등록 필요 + 기간 만료형), 강의 제공 시기(추후 제공) 등의 내용이 고지되지 않아 추석 기간 때 놓쳤다가, 공지사항을 나중에 보고서 재발급을 기다리고 있었는데 주중에 다시 진행되었을 줄 몰랐네요... 주간에는 업무로 인해 인프런 사이트에 매번 들어와서 직접 확인하기가 어려워서요. 혹시 이를 받을 수 있는 다른 방법이 있다면 알려주시면 고맙겠습니다. p.s) 책은 내용이 좋아서 재미있게 보고 있습니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
tax_with_markdown.docx 에 테이블 값 오타
연봉 1억4천만원 소득세가 다르게 나와서 문서 확인하니테이블에 있는 값이 오타네요...ㅜㅜ1536만원인데 3706만원으로 된부분과 42퍼센트도 오타...제가 발견한건 두군데임
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
mac으로 hugging face 양자화 공유합니다.(질문도 있습니다)
안녕하세요.강의에서 나오는 BitsAndBytesConfig를 통한 양자화 예시에서 CUDA가 필수로 요구되어 macbook에서 진행할 수 있는 방안을 찾다가 mlx_lm을 통해서 MPS(mac의 gpu)를 활용하여 양자화가 가능하단 사실을 알게되어 공유드리고자 합니다. 아마 맥북 사용자도 꽤 많을 것으로 예상됩니다. langchain에서 MLXPipeline을 제공하지만 이를 사용했을 때 현재 invoke시 호출되는 _call 메서드 내부에서 generate_step이 mlx_lm에서 제공은 하지만 MLXPipeline에서 제대로 불러올 수 없어 RunnableLambda를 통해서 에러를 우회해봤습니다.(Q? 강사님은 혹시 해결 방법을 알고 계실까요? 공홈 코드가 다 안 되네요 ㅜㅜ 오류 코드는 맨 아래 첨부하겠습니다.) 먼저 양자화 진행하는 방식입니다. cli를 통한 command 또는 python-api를 활용하는 방법 두 가지가 있습니다. 자세한건 링크 첨부하겠습니다. 양자화 개념에 대해서 자세히 나오니 참고하면 좋으실 듯 합니다.링크: [quantization with xlm_lm](https://developer.apple.com/kr/videos/play/wwdc2025/298/?time=187) mlx_lm을 통한 양자화먼저 양자화한 model을 local path에 저장합니다. 그 전에 apple의 gpu를 확인할 수 있는 코드 부분은 처음 부분에서 확인하실 수 있습니다.사실 python코드를 싸는 것보다 command로 양자화 진행하는게 편한 것 같습니다. 전 projection layer와 embedding layer는 다른 layer보다 높은 bit로 해주는게 좋다고 하여 python으로 진행했습니다. dequantize on-the-fly(게산 추론)시 더 좋다고 합니다. # mac에서 mps를 사용한 예제 import torch from mlx_lm.convert import convert print("MPS available on this device =>", torch.backends.mps.is_available()) # projection layer & embedding layer는 6bit, 양자화 가능한 layer는 4bit, 양자화 불가능은 False return def mixed_quantization(layer_path, layer): if "lm_head" in layer_path or 'embed_tokens' in layer_path: return {"bits": 6, "group_size": 64} elif hasattr(layer, "to_quantized"): return {"bits": 4, "group_size": 64} else: return False # quantization 진행 convert( hf_path="microsoft/Phi-3-mini-4k-instruct", mlx_path="./models/microsoft-Phi-3-mini-4k-instruct-mixed-4-6-bit", dtype="float16", quantize=True, q_bits=4, q_group_size=64, quant_predicate=mixed_quantization )$) mlx_lm.convert --hf-path "mistralai/Mistral-7B-Instruct-v0.3" \ --mlx-path "./mistral-7b-v0.3-4bit" \ --dtype float16 \ --quantize --q-bits 4 --q-group-size 64 --upload-repo "my-name/mistral-7b-v0.3-4bit" Langchain과 연계하기 from functools import wraps from langchain_core.runnables import RunnableLambda from langchain_core.output_parsers import StrOutputParser from mlx_lm import generate, load quantized_model_path = "./models/microsoft-Phi-3-mini-4k-instruct-mixed-4-6-bit" model, tokenizer = load(quantized_model_path) def runnable_wrapper(func): """RunnableLambda wrapper function""" @wraps(func) def wrapper(*args, **kwargs): return RunnableLambda(func) return wrapper @runnable_wrapper def create_chat_prompt(question): messages = [ { "role": "system", "content": """ You are an expert in information retrieval and summarization. Your job is to read the provided text and produce a precise, faithful, and concise summary. Prioritize the author’s main claim, key evidence, and conclusions. Use plain English and avoid filler. Do not invent facts that aren’t present in the input. """ }, { "role": "user", "content": f""" Question: {question} """ } ] prompt_without_tokenized = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False) prompt_with_tokenized = tokenizer.apply_chat_template(messages, add_generation_prompt=True) print("생성된 prompt👇\n", prompt_without_tokenized) return prompt_with_tokenized @runnable_wrapper def run_llm_with_mlx(prompt): return generate(model=model, tokenizer=tokenizer, prompt=prompt) @runnable_wrapper def output_parser(answer): return answer.replace("<|end|>", "") chain = create_chat_prompt() | run_llm_with_mlx() | output_parser()오류 코드llm.invoke에서 에러가 발생하며 TypeError: generate_step() got an unexpected keyword argument 'formatter'라는 에러가 발생합니다.from langchain_community.llms.mlx_pipeline import MLXPipeline from mlx_lm import load model_path = "./models/microsoft-Phi-3-mini-4k-instruct-mixed-4-6-bit" model, tokenizer = load(model_path) llm = MLXPipeline( model=model, tokenizer=tokenizer ) llm.invoke("what's my name?")
-
해결됨Cursor AI로 만들면서 배우는 Web & Javascript
질문드립니다.
정보처리기사 실기를 선생님과 함께 하고, 시험 합격에 이어서이제 본격적으로 취업을 위한 저만의 프로젝트를 만들어 보겠다는 생각이 들었습니다.마침 Cusor AI의 첫 개강 때 할인 이벤트가 있어서저만의 첫 프로젝트를 시작하기 전에이번 기회에 다시 한번 더 선생님과 함께 나아가고자현재 선생님의 새로운 강의를 수강하고 있습니다. 그리고 어제 새벽에 처음 시작해서 정신을 차려 보니지금 벌써 4강을 진입하는 상황이 되어버렸습니다..결론은 또 엄청난 강의를 만들어 주신 것 같습니다....! 이제 정말 질문인데요.프론트 엔드의 영역이라 생각하고 지금 재미있게 공부 중에 있습니다만백엔드나 전체적으로 다뤄서 풀스택 관련 강의 제작도 목표가 있으실지 해서질문 남겨드립니다. 현재 독학으로 Spring을 공부 중에 있습니다만, 선생님의 자바 백엔드수업도 있다면 재미있게 제가 원하는 개발을 이어나갈 수 있을 것 같아조심스럽게 이 자리에 질문을 남겨드립니다. 아무쪼록 이번에도 놀랍고 대단한 몰입력을 유도하는 강의를 만들어 주셔서정말 감사합니다. 정보처리기사 합격에 이어서 이번에는 선생님 강의를 듣고 취업 성공까지 힘내 보겠습니다!ㅎ(ps 시험 때문에 듣던 선생님의 ppt 자료가 이제는 시험이 아니라 재밌는 창작 같은 공부에 쓰이니까 모든 게 감회가 새롭네요ㅋㅋㅋ)
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
강의 쿠폰 관련 문의드립니다.
안녕하세요 강사님, 공지를 늦게 확인하고 쿠폰을 확인하지 못해 문의 남깁니다.이전 문의 글들을 보니 가입한 이메일로 지난주 및 이번주에 쿠폰이 지급될 것이라 안내 해 주셨더라구요.하지만 저 같은 경우 지난주에도 메일이 오지 않았고 현재도 수신된 메일이 없기에 확인할 수 있는 방법이 있을지 문의 드립니다.감사합니다!
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
강병진 강사님 반갑습니다. RAG 추가 전략에 아이디어에 대해서 질문드립니다.
강병진 강사님 안녕하세요 우선 저와 같은시기쯤? 울산에 있으셨다고 하니 반갑습니다. 저는 병진강사님과 인연이 많은것 같습니다. 강사님 전 회사? 정유회사 바로 옆에 제련회사에서 딥러닝 이미지 처리 프로젝트를 개발하고 있었습니다.병진강사님 덕분에 생성형 AI도 따로 학습을 하고 있고 개별적인 프로젝트도 하고 있습니다. 감사합니다. 질문.1RAG를 구성하고 문서를 벡터DB에 지속하여 업데이트를 위해서 PDF 텍스트·이미지 분석 → RAG용 JSON/JSONL 생성 → Pinecone 적재가능하도록 PyQt GUI 프로그램 만들었는데 여기서 추가적으로 생성되는 문서를 지속적으로 업데이트를 해야할 경우 25년 10월 초에 새로나온 Open AI에 에이전트 툴을 이용해서 일정 시간에 자동으로 Pinecone에 업데으트 해주는 에이전트를 만들어서 자동화를 하려고 하는데 이런 전략을 구성할 경우 문제가 될 부분이 있을까요?질문.2 모델을 만들고 회사가 가지고 있는 특허 문서 파일을 RAG로 구성을 완료한 후 외부 사이트 >> 각 국가의 특허청에 파일을 검색해서 유사도를 분석하거나 하려고 할 때 전략은 어떻게 가져가면 좋을지? 입니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 완독 챌린지
p63 질문
안녕하세요.교재 63페이지에 “다음으로 조금 더 흥미로운 텍스트 구절을 만들기 위해 데이터셋에 있는 처음 50개 토큰을 삭제합니다.”라는 문장이 있습니다.이때 ‘흥미로운’이라는 표현이 어떤 의미를 가지는지, 그리고 텍스트를 더 흥미롭게 만들기 위해 앞의 50개 토큰을 삭제하는 이유가 무엇인지 궁금합니다.또한 다른 LLM 모델에서도 이와 같은 전처리 과정을 수행하는지, 만약 수행한다면 그 이유가 궁금합니다.감사합니다.