묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결맞춤형 LLM 만들기 : 처음 시작하는 분을 위한 RAG 기초 개념부터 멀티모달·Agent 실습까지
langchain 함수확인 요청
공유해주신 수업자료 중실습8 벡터데이터베이스 기반 RAG어플리케이션.ipynb에서3번 째 셀의 # LangChain과 BeautifulSoup 관련 라이브러리 불러오기에서from langchain.text_splitter import RecursiveCharacterTextSplitter에서 from langchain.text_splitter -> from langchain_text_splitters가 되어야 하지 않을런지요??
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
강의와 책 관련 질문
안녕하세요! 강의 수강과 책을 병행해서 보고 싶은데요,강의가 예전에 촬영된것 같아서, 책을 참고해서 보는게 훨씬 수월하고 학습하는데 좋을것 같아서요. 각 강의 회차별로 "혼자서도 척척 해내는 AI 에이전트 만들기" 책에서 어떤 챕터랑 같이 보면 도움이 될지 알 수 있을까요??
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
여기 수업자료 .env sample만 있는게 맞을까요? 수업화면에 보이는 pdf가 없습니다.
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
프로젝트 설정 (uv 설치, ..) -> 해당 영상 자료 없음
학습 관련 질문이 있으시면, 상세하게 남겨주세요.문제가 발생한 부분의 코드를 함께 올려주세요.수업 영상 몇 분/초 구간인지 알려주세요.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
문서 전처리 고민
안녕하세요, 개인 프로젝트로 rag 기반 챗봇을 구현하고 있습니다. ollama, gemma3:1b를 사용중입니다. txt 파일을 어느정도 전처리를 하고 임베딩을 시키려고 하는데 전처리 중 고민이 있습니다. 구조가 잡혀있는 txt 파일인데, 문서 구조는 대략 아래와 같은 형태입니다.1.2 화면 설명 1.2.1 개요 - 이 화면은 사용자가 업무를 처리하기 위한 화면입니다. 1.2.2 화면 위치 상단 메뉴 > 업무 관리 > 처리 화면 1.2.3 처리 절차 1) 항목 선택 2) 저장 버튼 클릭 현재 고민되는 부분은 다음과 같습니다.이런 번호 기반 구조를 그대로 유지한 채로 chunking 하는 것이 좋은지,아니면 번호는 제거하고 의미 단위로만 분할하는 것이 나은지-, •, 숫자 목록 같은 불릿/목록 기호를 임베딩 전에 제거하거나 정규화하는 게 좋은지“개요 / 처리 절차 / 화면 위치” 같은 섹션 제목을 chunk 본문에 포함시키는 것이 검색 품질에 도움이 되는지감사합니다.
-
미해결회사에서 바로 쓰는 업무자동화 AI 에이전트 (w. n8n, LangGraph)
Notion 강의 자료가 보이지 않습니다.
안녕하세요!Notion 강의자료 링크 클릭 시 이렇게 보이는데 저만 이렇게 보이는건지 잘 모르겠어서 문의드립니다 🙂
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
RAG 배포 질문드립니다
프론트엔드 개발자 입장에서 RAG를 처음 접하다 보니 구조가 잘 이해되지 않아 질문드립니다. 강의를 보다 보니 Streamlit과 LangChain으로 한 곳에서 개발이 이루어지는데, 이게 실무 구조를 단순화한 예제인지, 실제 서비스에서도 이런 형태로 운영되는지 궁금했습니다. 제가 이해한 바로는 일반적인 웹 서비스는 프론트엔드, 백엔드, 일반 DB(MySQL 등)가 분리되어 있고, 여기에 RAG를 구성하기 위한 Vector DB(Qdrant, Chroma, Pinecone 등)와 LLM 호출 로직이 추가되는 구조로 보이는데, 이때 RAG와 AI 에이전트는 보통 백엔드 서버 내부의 로직으로 구현되는지, 아니면 별도의 서비스로 분리해서 운영하는지도 알고 싶습니다. 실무에서 배포 관점에서는 백엔드 서버 하나에 RAG까지 포함해 배포하는 것이 일반적인지, 아니면 RAG나 Vector DB를 별도로 운영하는 경우가 많은지도 궁금합니다. Qdrant를 가장 추천주셔서 이걸사용할까 생각중입니다. 그리고 혹시 그래프 RAG에 대한 강의도 찍으실 예정이 있으실까요?크게 아래와같이 보고있고(이해한 대로 플로우 그려봤습니다),백엔드 서버는 FastAPI로 통일할수도 있을것 같습니다.┌─────────────────────────────────────────┐ │ Frontend (React.js) │ └─────────────────────────────────────────┘ │ ┌───────────┴───────────┐ │ │ ┌───────▼────────┐ ┌─────────▼────────┐ │ Spring Boot │ │ FastAPI AI │ │ (Main API) │ │ Service │ │ │ │ │ │ - CRUD │ │ - RAG Pipeline │ │ - 비즈니스 로직 │ │ - LLM Agent │ │ - 인증/권한 │ │ - Embedding 생성 │ └───────┬────────┘ └─────────┬────────┘ │ │ │ │ ┌───────▼────────┐ ┌─────────▼────────┐ │ PostgreSQL │ │ Vector DB │ │ (비즈니스 데이터) │ │ (임베딩/벡터) │ │ │ │ │ │ - hospitals │ │ - content_embeddings│ │ - contents │ │ - query_cache │ │ - bundles │ │ - document_chunks │ │ - contracts │ │ │ │ - users │ │ (Pinecone/ │ │ - ... │ │ Weaviate/ │ │ │ │ Qdrant/ │ │ │ │ pgvector) │ └────────────────┘ └──────────────────┘
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
강의 내용과는 별개로 궁금한 점이 있습니다
안녕하세요, 좋은 강의 감사합니다 ! 강의 내용과는 별개로, 개인 프로젝트 겸 하나 실험해보고 싶은 주제가 있어 간단히 의견 여쭤보고 싶습니다.유튜브 라이브 채팅 로그를 분석하기 위해, 각 채팅을 의도 기반으로 7~10개 정도의 라벨로 분류해보려 합니다. (채팅은 약 5만~10만개 정도)다만 라이브 채팅 특성상 다국어가 섞여 있고, 이모지 사용이 많으며, 문장이 매우 짧은 경우가 대부분이라 과연 잘 될지 고민이 됩니다...이와 관련해 LLM을 활용해 채팅 데이터를 라벨링하는 방식에 대해 어떻게 생각하시는지 궁금합니다. 실제로 비슷한 케이스를 다뤄보신 경험이 있거나, 주의해야 할 점이 있다면 공유해주시면 감사하겠습니다.또한 LLM을 활용한 라벨링 관점에서, 7~10개 라벨이 모델이 분류하기 적절한 수준인지 아니면 라벨 수를 줄이는 것이 성능 향상에 도움이 될지도 의견을 듣고 싶습니다.감사합니다!
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
test.py 파일이 어딨나요?
.env.sample 만 보여서 test.py 를 올려준다고 말씀하셨는데. 자료에 없습니다 ㅠ
-
미해결LLM 데이터 분석 - 웹 크롤링부터 추천 시스템까지
requirements.txt. 업데이트 해주세요.
requirements.txt 설치하는 파일 다시 좀 업데이트 해주셨으면 좋겠습니다.
-
미해결한시간으로 끝내는 LangChain 기본기
ollama 같은 모델 상이 답변
안녕하세요 강사님같은 모델 쓰는데 답변이 서울이 아니라 광주로도 잘못 나올 수 있나요??
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
EasyOcr 관련
강의 내용에 uv add easyocr관련 내용이 빠져 있는거 같습니다md 파일로 변환 할 때 에러가 나서확인 해보니 pip install easyocr 을 하라는 메세지를보고 설치를 했습니다
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
폐쇄망 챗봇 모델
안녕하세요, 폐쇄망에 챗봇을 구축하려 합니다. 하지만, GPU가 안 되는 환경입니다. 폐쇄망 환경에서 CPU 위주로 운용한다는 제약까지 고려했을 때, 강의에서 소개된 것처럼LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct를 생성 모델로 사용하고,intfloat/multilingual-e5-large-instruct를 임베딩 모델로 사용하는 조합이한국어 중심 RAG 환경에서도 여전히 합리적인 선택이라고 보시는지 궁금합니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
AI agent 쿠폰
22강 듣고나니 agent 수업을 들어보라고 쿠폰을 쏘셨는데 할인이 적용되는건가요? 아니면 안되는 건가요?
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
Rerank에 대해 질문드립니다.
안녕하세요 선생님 🙂먼저 양질의 강의를 제공해주셔 정말 감사합니다. cross_encoder_retriever = ContextualCompressionRetriever( base_compressor=re_ranker, base_retriever=multi_query_custom_retriever, )위와 같이 re-ranker를 적용시킬때 retriever를 멀티쿼리로 적용을 해보았습니다.랭스미스로 로깅을 해보니, 멀티 쿼리는 정상적으로 작동한것 같은데요, 각각의 쿼리에 대해 Runnable로 리랭킹을 하는게 아닌, 원본 쿼리를 기반으로 리랭킹을 한다는 느낌을 받았습니다.아무래도 데이터셋이 테스트용이라 확답이 안서는데, 이 부분은 사용자의 "원본" 쿼리로만 리랭킹을 하는건지 궁금합니다. 만약 그렇다면 랭그래프로 해결을 할 수 있을듯 한데요,State에 멀티 쿼리의 문서 검색 결과를 저장한 뒤, 각 쿼리에 대한 리랭킹 노드를 하는 방법이 생각이 났는데 피드백 부탁드려도 될까요? (사실 오버 엔지니어링이라는 생각이 들지만 ㅎㅎ 실제 프로덕션에 적용시킨다면 어떤 아키텍쳐가 좋은지 궁금합니다!) 감사합니다 :)
-
미해결회사에서 바로 쓰는 업무자동화 AI 에이전트 (w. n8n, LangGraph)
24강 코드리뷰 에이전트 질문
선생님 안녕하세요좋은 강의 감사드립니다. 24강 강의를 들으면서 14:07 부분에 질문이 있습니다. 해당부분을 보시면 prompt에 PR URL을 직접 하드코딩 해주셨는데요. 물론 예시로 빨리 보여주기 위해서 그렇게 하신 것 같은데, 만약 실제로 제가 구동되는 에이전트를 만든다고 했을때, 조금 다르게 만들어져야 할 것 같아서요 예를 들어, PR URL은 하드코딩이 아니라, PR이 올라가면 langgraph 에이전트가 그것을 자동으로 인식해서 PR url을 가져오는 방식으로요. n8n에서는 드래그 앤 드롭으로 이게 가능할것 같은데.. langgraph에서도 이런 기능을 구현할 수 있는 것인가요?
-
해결됨회사에서 바로 쓰는 업무자동화 AI 에이전트 (w. n8n, LangGraph)
10강 google sheet 관련 질문
선생님 안녕하세요좋은 강의 감사합니다. 10강(Brave API를 활용해서 n8n으로 작성하는 뉴스 감정 분석 (n8n -> gspread))를 듣는 과정에서 질문이 생겨서 문의드립니다.강의 14:23 부분에서 loop over items에서 항목들이 안넘어와서 선생님은 llm이 output을 주도록 하셨는데요, 저는 해보니 되더라고요..?이러면 굳이 llm output을 안받아와도 되는것이죠?
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
neo4j 사용에 질문 드립니다.
만약, 만든 랭체인과 그래프rag를 서비스로 만든다면, neo4j를 호출할 때, pooling은 고려하지 않아도 되는지요? 일반적으로 db 연결에 timeout이나 pooling 등의 설정을 해줘야 하는 것으로 아는데,api를 호출하는 것이라 서버에서 자체적으로 처리하는 것으로 생각하면 될런지요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
저는 왜 그대로 했는데 답변이 틀리게 나오는지 모르겠네요
소득세법 제55조(세율) 및 제47조(근로소득공제)에 따르면,거주자 기준으로 연봉 5천만원(근로소득)의 소득세는 다음과 같이 계산됩니다.근로소득공제 적용총급여액 5천만원 기준 공제액: 1,475만원(5천만원 × 15% + 75만원, 단 최고 한도 2천만원 미만)과세표준 산정5천만원 - 1,475만원 = 3,525만원종합소득세율 적용3,525만원 구간: 1,400만원 이하 6% + 초과분 15%산출세액: 84만원(1,400만원 × 6%) + (3,525만원 - 1,400만원) × 15% = 474.75만원최종 납부세액474.75만원에서 근로소득세액공제(산출세액의 55% 한도) 등 추가 공제 적용 가능※ 정확한 세액은 의료비·교육비·보험료 등 추가 공제항목에 따라 달라질 수 있습니다.(추가 설명: "거주자"는 직장·자영업 등 소득 유형과 무관하게 국적에 관계없이 국내 주소를 둔 개인을 의미하며, 직장인은 그 하위 범주에 포함됩니다.)답변이 전혀 다르고 이상하게 근거없는 숫자도 나오는데 왜그런걸까유 fewshot하는것까지 작성했습니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
langchain howto/sequence는 지금 doc 공식 사이트 어디서 확인할 수 있나요?
| 이런 파이프라인 문법 수업중에 보이는 how-to-guides의 링크가 어디인가요? 공식문서가 많이 업데이트 되었는지 수업 전반으로 일치하는 부분 찾기가 너무 힘드네요...