묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
2.2 PDF 전처리 > PDF Loader
안녕하세요.강의에선 zeorx로 PDF -> Markdown 변환 후 UnstructuredMarkdownLoader로 split해서 document chunk를 얻는데요 혹시 UnstructuredPDFLoader를 통해서 한번에 load_and_split 하는것과는 어떤 차이가 있을까요? UnstructuredLoader에서 요구하는 것이 패키지 외에도 pdf2image 모듈등이 있는것 같아서 실제로 시도해보지는 못했습니다.
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
LlamaIndex
혹시 LlamaIndex 관련한 강의는 없는지 또는 계획은 없으신지 궁금합니다
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
250601_Youtube_공식_API_자막_추출_워크플로우에서 v3/captions - Get Caption 에러가 발생합니다
문제 / 오류 / 질문에 대해 설명해 주세요 오류 메시지가 있다면 작성해 주세요 사용 중인 워크플로우를 공유해 주세요 강사님,YouTube 공식 API를 이용한 자막 추출 과정에서 문의드립니다.3단계에서 "Forbidden - perhaps check your credentials?" 오류가 발생하고 있습니다. 2단계에서 item을 성공적으로 추출한 것으로 보아 Google 설정 자체는 문제가 없는 것 같은데, 3단계에서만 이러한 오류가 발생하여 원인을 파악하기 어렵습니다.혹시 스크린샷에 보이는 5번 scope 설정 부분이 문제일까요? 이 에러 상황을 해결할 수 있는 방법이 있을지 여쭙니다.감사합니다.n8n 설치 정보 안내 n8n 버전:데이터베이스 종류 (기본값: SQLite):n8n 실행 프로세스 설정 (기본값: own, main):n8n 실행 방식 (예: Docker, npm, n8n cloud, 데스크탑 앱 등): cloud운영 체제:
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
n8n 워크플로우 구축 관련 문의 (ArXiv RSS 피드 논문 요약 및 알림 자동화)
강사님, 안녕하세요. 강의를 통해 n8n의 기본 개념과 활용 가능성에 대해 잘 이해할 수 있었지만, 개인적인 자동화 워크플로우를 직접 구축하는 과정에서 몇 가지 조언을 얻고자 질문드립니다.특히, ArXiv RSS 피드를 활용하여 제가 설정한 분야(예: cs.ai, cs.cv ) 및 키워드(예: 멀티모달 LLM, 비디오 VLM 등 )에 해당하는 논문들을 매일 아침 자동으로 요약하고, 그 내용을 메일 또는 슬랙으로 받아보는 워크플로우를 구현하고 싶습니다.강의에서 제공된 워크플로우들은 완성된 형태로 구성되어 있어 전체적인 흐름을 이해하는 데는 큰 도움이 되었으나, 실제로 제가 원하는 기능을 처음부터 하나씩 구현해나가려니 노드 구성과 각 단계별 설정에 대한 감을 잡기 어려운 부분이 있습니다.이러한 목표를 달성하기 위해, 다음과 같은 부분에 대해 강사님의 구체적인 조언을 얻고 싶습니다.바쁘시겠지만, 위 질문들에 대해 조언을 해주시면 워크플로우 구축에 큰 도움이 될 것 같습니다. 감사합니다
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
llm의 응답에 대해서 언어 설정도 가능한가요??
llm의 응답에 대해서 언어 설정도 가능한가요??어떤 질문을 했을 때 한국어로 나오게 한다거나, 일본어로 나오게 한다거나, 영어로 나오게도 가능한가요??
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
35강 유튜브 트랜스크립트 서브워크플로우 실행 오류
문제 / 오류 / 질문에 대해 설명해 주세요 오류 메시지가 있다면 작성해 주세요 이렇게 나오는데 이유가 뭔지 알고 싶습니다사용 중인 워크플로우를 공유해 주세요 n8n 설치 정보 안내 n8n 버전:데이터베이스 종류 (기본값: SQLite):n8n 실행 프로세스 설정 (기본값: own, main):n8n 실행 방식 (예: Docker, npm, n8n cloud, 데스크탑 앱 등):운영 체제:
-
해결됨Spring AI 실전 가이드: RAG 챗봇 만들기
해당 내용을 공부하며 블로그에 포스팅 해도 될까요?
해당 내용을 공부하며 출처를 남기고 블로그에 포스팅 해도 될까요?그리고, 지금 날짜로는 무료 크레딧이 18달러 제공 되는 걸로 보이는데 적용이 안되는지 0달러로 떠서 429 반환으로 막혔다가, 5달러 결제를 하니 진행이 되네요 ㅠㅠ무료 크레딧은 자동으로 등록되는건데 에러였던건지, 어떤 과정을 거쳐서 무료 크레딧을 등록해야하는건지에 대한 내용도 있었으면 좋겠습니다.
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
9. Expression (표현식) 워크플로우 파일 어디 있나요.
문제 / 오류 / 질문에 대해 설명해 주세요 오류 메시지가 있다면 작성해 주세요 사용 중인 워크플로우를 공유해 주세요강의에 사용한 워크플로우 파일 어디 있나요.그리고 강의파일 어케 업로드 하고 사용하는지 사전에 알려줘야 하지 않나요.강사님 본인은 다 아니깐 그냥 할 수 있다고 하지만 수강생은 모르는데 그렇게 강의 진도만 나가면 어떻게 하시는 건지 이해가 좀 안되네요.파일을 보니 json으로 되어 있는데 그러면 n8n에서 어떻게 적용하는지도 알려주세요.그리고 화면 글씨가 너무 작게 보여 불편해요 ㅠㅠ 앞으로 동영상 강의 제작하실 때 참고하세요. n8n 설치 정보 안내 n8n 버전:데이터베이스 종류 (기본값: SQLite):n8n 실행 프로세스 설정 (기본값: own, main):n8n 실행 방식 (예: Docker, npm, n8n cloud, 데스크탑 앱 등):운영 체제:
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
35강 유튜브 트랜스크립트 관련해서 질문
문제 / 오류 / 질문에 대해 설명해 주세요 35강 유튜브 트랜스크립트 관련해서 질문이 있습니다. 지금 클라우드에서 강의 자료 json을 넣으면 노드가 없다고 나오는데 이거 어떻게 대처하면 될까요? 초보입니다 ! 오류 메시지가 있다면 작성해 주세요 사용 중인 워크플로우를 공유해 주세요 n8n 설치 정보 안내 n8n 버전:데이터베이스 종류 (기본값: SQLite):n8n 실행 프로세스 설정 (기본값: own, main):n8n 실행 방식 (예: Docker, npm, n8n cloud, 데스크탑 앱 등): n8n cloud운영 체제:
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
PDF 청킹 문의
안녕하세요. 강의 잘 수강하고 있습니다.자체적으로 텍스트, 표, 시계열꺽은선그래프로 주로 구성된 pdf를 임베딩해서 RAG 기반의 LLM 서비스를 만들어 보고 싶은데요표의 경우는 md 파일을 txt로 변환해서 저장하는 방법을 잘 알려주셨습니다만, 혹시 꺾은선그래프를 이미지처럼 저장해서 서비스에 활용할 수 있는 방법이 있을까요? 참고할만한 기술이나 좋은 아이디어 있으면 공유 혹은 조언해주시면 감사하겠습니다.
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
안녕하세요 후속강의 듣고 싶은데, 비용이 부담되어서..
혹시 할인계획이 있으신지요?
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
34강에서 진행시 fetch transcript에서 결과값이 자료가없습니다.
공유해주신것을 사용해보았는데요 format에서 정의되지 않는다 이렇게 나오길래 워크플로우 실행을 제외해봤스니다 그결과 fetch transcrip에서 자료가 없는걸로 확인되는데요 이경우 어떻게 하면 좋을까요?
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
AuraDB 연동 안되는 현상 질문
vscode에서 uv로 가상환경 생성후 .env 파일에서# Neo4J 설정 - AuraDB NEO4J_URI=neo4j+s://{id}.databases.neo4j.io NEO4J_USERNAME=neo4j NEO4J_PASSWORD={PASSWORD} NEO4J_DATABASE=neo4j해당 방식 적용 후, AuraDB 연동을 해도 적용이 안되고 아래와 같이 에러가 뜹니다. ValueError: Could not connect to Neo4j database. Please ensure that the url is correct 해결책 문의 드립니다. P.S colab에서는 올려주신 KG_P1_01_neo4j_Introduction.ipynb 실행하니 동작하네요. 왜 저의 로컬에서는 이런 현상이 일어나는 걸까요?
-
미해결Spring AI 실전 가이드: RAG 챗봇 만들기
1
1
-
미해결노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
재생오류
재생에 문제가 생겼어요새로고침 후에도 문제가 지속될 경우 고객센터로 문의해주세요. (code: 7001) 이렇게 나옵니다.
-
해결됨Spring WebFlux + LLM 실전 구현
다음 강의는 언제 나올까요?
안녕하세요강의 잘 듣고있습니다. 혹시 다음 강의 일정 계획이 나온게 있을까요 ?
-
해결됨노코드 자동화 입문부터 실전까지: n8n 완전정복 (한국 최초 n8n 앰버서더 직강)
섹션 4번은 실습 시작파일이 따로 존재하나요?
문제 / 오류 / 질문에 대해 설명해 주세요 오류 메시지가 있다면 작성해 주세요 사용 중인 워크플로우를 공유해 주세요 궁금합니다! n8n 설치 정보 안내 n8n 버전:데이터베이스 종류 (기본값: SQLite):n8n 실행 프로세스 설정 (기본값: own, main):n8n 실행 방식 (예: Docker, npm, n8n cloud, 데스크탑 앱 등):운영 체제:
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
챗봇 생성시 에러
안녕하세요, gemini를 이용해서 챗봇 생성중에 있습니다.그런데 하기와 같이 챗봇을 llm과 연동하는 중에 에러가 계속 발생합니다.gpt한테 계속 물어가면서 에러잡고있는데 계속 동일한 에러만 나오네요. ㅠ어떻게 개선할 수 있을까요? 조언부탁드립니다. 감사합니다.코드)import streamlit as st from langchain import hub from dotenv import load_dotenv from langchain_google_genai import GoogleGenerativeAIEmbeddings from langchain_pinecone import PineconeVectorStore from langchain_google_genai import ChatGoogleGenerativeAI from langchain.chains import RetrievalQA from langchain.prompts import ChatPromptTemplate st.set_page_config(page_title="영향분석 챗봇", page_icon="★") st.title("영향분석 챗봇") st.caption("System 변경 영향 분석") load_dotenv() # 세션 상태에 메시지 리스트가 없으면 초기화 if 'message_list' not in st.session_state: st.session_state.message_list = [] # 이전 메시지 출력 for message in st.session_state.message_list: with st.chat_message(message["role"]): st.write(message["content"]) def get_ai_message(user_message): try: # 입력 메시지 확인 if not isinstance(user_message, str) or not user_message.strip(): return "질문이 비어 있습니다. 유효한 질문을 입력해 주세요." print(f"user_message: {user_message}") # user_message의 내용 출력 print(f"user_message length: {len(user_message)}") # 문자열 길이 출력 print(f"user_message type: {type(user_message)}") # 타입 출력 # Google Generative AI Embeddings 모델 초기화 embedding = GoogleGenerativeAIEmbeddings(model='models/gemini-embedding-exp-03-07') index_name = 'uml-index' database = PineconeVectorStore.from_existing_index(index_name=index_name, embedding=embedding) llm = ChatGoogleGenerativeAI(model="gemini-2.0-flash") prompt_template = hub.pull("rlm/rag-prompt") retriever = database.as_retriever(search_kwargs={'k': 4}) # RetrievalQA 인스턴스 생성 qa_chain = RetrievalQA.from_chain_type(llm, retriever=retriever, chain_type_kwargs={"prompt": prompt_template}) dictionary = ["External Entity -> actor"] prompt = ChatPromptTemplate.from_template(f""" 사용자의 질문을 보고, 우리의 사전을 참고해서 사용자의 질문을 변경해주세요. 만약 변경할 필요가 없다고 판단된다면, 사용자의 질문을 변경하지 않아도 됩니다. 그런 경우에는 질문만 리턴해주세요. 사전 : {dictionary} 질문 : {{question}} """) dictionary_chain = prompt | llm uml_chain = {"query": dictionary_chain} | qa_chain ai_message = uml_chain.invoke({"question": user_message}) return ai_message except Exception as e: print(f"오류 발생: {repr(e)}") # 오류 메시지 출력 print(f"입력된 user_message: {user_message}") # 오류 발생 시 입력된 메시지 출력 return f"오류가 발생했습니다: {repr(e)}" # 사용자 입력 처리 if user_question := st.chat_input(placeholder="CR 내용을 첨부해주세요"): with st.chat_message("user"): st.write(f"사용자 질문: {user_question}") st.session_state.message_list.append({"role": "user", "content": user_question}) ai_message = get_ai_message(user_question) with st.chat_message("AI"): st.write(ai_message) st.session_state.message_list.append({"role": "AI", "content": ai_message}) 에러)user_message: 시스템에 연결된 External Entity를 알려주세요user_message length: 31user_message type: <class 'str'>오류 발생: GoogleGenerativeAIError('Error embedding content: bad argument type for built-in operation')입력된 user_message: 시스템에 연결된 External Entity를 알려주세요
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
pinecone 임포트 부분이 에러가발생합니다
파이썬 버전 3.10.11입니다윈도우 vscode에서 테스트해보고 있어요
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
PineconeApiException 어떻게 해결하나요?
13번째 동영상 들으면서 따라하는 중이고 OpenAI API 사용 중인데, 아래 코드만 돌리면,PineconeApiException HTTP response body: {"code":11,"message":"Error, message length too large: found 15431073 bytes, the limit is: 4194304 bytes","details":[]} 이러한 에러가 뜹니다.이를 해결하기 위해서, chunk_size = 10, chunk_overlap=0 으로 줄였는데도 계속 에러가 떠요.어떻게 하면 해결할 수 있나요? database = PineconeVectorStore.from_documents( document_list, embedding, index_name=index_name )