묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
21장. status를 별도 http 없이 가져와도 되는건가요?
어떤 강의에 대한 질문인지 자세하게 알려주시면 답변을 드리는데 도움이 됩니다. 스크린샷윈도우키 + 쉬프트키 + S(윈도우)을 자세히 첨부하시면 답변 드리는데 많은 도움이 됩니다. 동영상 재생 관련 같은 인프런 서비스 관련 문의는 1:1 문의하기를 이용해 주세요 첫번째 http노드에서도 status가 보이는것 같습니다. 생성하는 첫번째 http 노드에서 바로 분기를 태우는 것도 가능한건가요?
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
도커에서 n8n접속오류
잘되다가 갑작이 접속이 안되는데 어떻해 해결해야 하나요?
-
미해결[Season 2] Spring AI 실전: Multi AI 에이전트 시스템 개발
소스 다운로드 문의 드립니다.
안녕하세요.아직 강의 초반을 듣고 있는 중인데 소스를 다운 받고 싶습니다. 어디서 다운 받아야 하나요? 감사합니다.수고하세요.
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
http request만들때 Description메뉴가 없네요
처음에 만들땐 Description메뉴가 나왔는데 하나 더 만들려고 할때부터는 Description이 안보여요?
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
htt리퀘스트 설정인 안되는거같아
저는 value provided값을 선택하는게 안보이네요
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
neo4j 사용에 질문 드립니다.
만약, 만든 랭체인과 그래프rag를 서비스로 만든다면, neo4j를 호출할 때, pooling은 고려하지 않아도 되는지요? 일반적으로 db 연결에 timeout이나 pooling 등의 설정을 해줘야 하는 것으로 아는데,api를 호출하는 것이라 서버에서 자체적으로 처리하는 것으로 생각하면 될런지요?
-
미해결[Season 2] Spring AI 실전: Multi AI 에이전트 시스템 개발
강의 자료 질문
안녕하세요. 혹시 1탄처럼 pdf 파일로 전체 코드랑 설명하는 자료는 없나요?
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
7강 내용의 커뮤니티 n8n 사용이 안됩니다.
어떤 강의에 대한 질문인지 자세하게 알려주시면 답변을 드리는데 도움이 됩니다. 스크린샷윈도우키 + 쉬프트키 + S(윈도우)을 자세히 첨부하시면 답변 드리는데 많은 도움이 됩니다. 동영상 재생 관련 같은 인프런 서비스 관련 문의는 1:1 문의하기를 이용해 주세요.7강 강의를 보면 switch 노드에 community에서 검색한 imap노드를 사용하시던데요. 지금은 n8n 정책이 바뀌어서 사용이 안된다고 합니다. AI를 찾아보니 정책 바뀐건 맞더라구요. 혹시 해당 기능을 쓸 수 있는 방법이나 대체 방법 알려주시면 감사하겠습니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
저는 왜 그대로 했는데 답변이 틀리게 나오는지 모르겠네요
소득세법 제55조(세율) 및 제47조(근로소득공제)에 따르면,거주자 기준으로 연봉 5천만원(근로소득)의 소득세는 다음과 같이 계산됩니다.근로소득공제 적용총급여액 5천만원 기준 공제액: 1,475만원(5천만원 × 15% + 75만원, 단 최고 한도 2천만원 미만)과세표준 산정5천만원 - 1,475만원 = 3,525만원종합소득세율 적용3,525만원 구간: 1,400만원 이하 6% + 초과분 15%산출세액: 84만원(1,400만원 × 6%) + (3,525만원 - 1,400만원) × 15% = 474.75만원최종 납부세액474.75만원에서 근로소득세액공제(산출세액의 55% 한도) 등 추가 공제 적용 가능※ 정확한 세액은 의료비·교육비·보험료 등 추가 공제항목에 따라 달라질 수 있습니다.(추가 설명: "거주자"는 직장·자영업 등 소득 유형과 무관하게 국적에 관계없이 국내 주소를 둔 개인을 의미하며, 직장인은 그 하위 범주에 포함됩니다.)답변이 전혀 다르고 이상하게 근거없는 숫자도 나오는데 왜그런걸까유 fewshot하는것까지 작성했습니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
langchain howto/sequence는 지금 doc 공식 사이트 어디서 확인할 수 있나요?
| 이런 파이프라인 문법 수업중에 보이는 how-to-guides의 링크가 어디인가요? 공식문서가 많이 업데이트 되었는지 수업 전반으로 일치하는 부분 찾기가 너무 힘드네요...
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
new_question에 대한 답 출력
new_question 이 ''연봉 5천만원인 거주자의 소득세는 얼마인가요?'' 이라는 질문만 내놓고, 답은 내놓지 않습니다%pip install python-dotenv langchain langchain-upstage langchain-community langchain-text-splitters langchain-pinecone docx2txtfrom langchain_community.document_loaders import Docx2txtLoader from langchain_text_splitters import RecursiveCharacterTextSplitter text_splitter = RecursiveCharacterTextSplitter( chunk_size=1500, chunk_overlap=200, ) loader = Docx2txtLoader('./tax.docx') document_list = loader.load_and_split(text_splitter=text_splitter)from dotenv import load_dotenv from langchain_upstage import UpstageEmbeddings # 환경변수를 불러옴 load_dotenv() # OpenAI에서 제공하는 Embedding Model을 활용해서 `chunk`를 vector화 embedding = UpstageEmbeddings(model="embedding-query")from langchain_pinecone import PineconeVectorStore # 데이터를 처음 저장할 때 index_name = 'tax-upstage-index' database = PineconeVectorStore.from_documents(document_list, embeddin g, index_name=index_name)query = '연봉 5천만원인 직장인의 소득세는 얼마인가요?' # `k` 값을 조절해서 얼마나 많은 데이터를 불러올지 결정 retrieved_docs = database.similarity_search(query, k=3)retrieved_docsfrom langchain_upstage import ChatUpstage llm = ChatUpstage()from langchain_core.prompts import PromptTemplate prompt_with_template = '아래 질문에 답변해주세요:\n\n {query}' prompt_template = PromptTemplate(template=prompt_with_template, input_variables={"query"})from langchain_core.output_parsers import StrOutputParser from langchain_core.prompts import ChatPromptTemplate dictionary = ["사람을 나타내는 표현 -> 거주자"] prompt = ChatPromptTemplate.from_template(f""" 사용자의 질문을 보고, 우리의 사전을 참고해서 사용자의 질문을 변경해주세요. 만약 변경할 필요가 없다고 판단된다면, 사용자의 질문을 변경하지 않아도 됩니다. 그런 경우에는 질문만 리턴해주세요 사전: {dictionary} 질문: {{question}} """) dictionary_chain = prompt | llm | StrOutputParser() tax_chain = {"query": dictionary_chain} | prompt_templatenew_question = dictionary_chain.invoke({"question": query})new_questionRetrievalQA 가 사라져서 PromptTemplate 랑 Pinecorn으로 어떻게든 대체하려고 했는데 엉망이 된거 같습니다. ㅠㅠ어떻게 하면 답까지 내놓게 할 수 있을까요?
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
(2. 완전 초보를 위한 N8N 설치부터 셀프호스팅까지 – Docker 실습편)
docker compose 할때 docker hub에 접속하지 못해서 실패했습니다. 그래서 chat gpt 답변대로 mirror도 설정해봤는데, 마찬가지로 불가합니다. 확인 한번 부탁드립니다ㅁ docker compose 불가 현상C:\n8n\self-hosted-ai-starter-kit>docker compose up[+] Running 4/4 ✘ n8n Error failed to resolve reference "docker.io/n8nio/n8n:latest": fail... 60.4s ! qdrant Interrupted 60.4s ! postgres Interrupted 60.4s ! n8n-import Interrupted 60.4sError response from daemon: failed to resolve reference "docker.io/n8nio/n8n:latest": failed to do request: Head "https://registry-1.docker.io/v2/n8nio/n8n/manifests/latest": context deadline exceededㅁ mirror 정보{ "builder": { "gc": { "defaultKeepStorage": "20GB", "enabled": true } }, "experimental": false, "registry-mirrors": [ "https://docker.mirrors.ustc.edu.cn", "https://hub-mirror.c.163.com", "https://registry.docker-cn.com" ]}
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
fulltext index 생성이 안됩니다
지식그래프(KG) 검색 - 전문 검색에서 fulltext index 생성이 안됩니다. 여러번 실행해도 동일합니다.아래 3개 중 movie_title_tagline_fulltext만 생성되고 movie_title_fulltext와 person_name_fulltext는 실행해도 반응이 없습니다.SHOW FULLTEXT INDEXES를 실행하면 movie_title_tagline_fulltext만 표시됩니다. Neo4j 버전: 버전 2.1.1(2.1.1)Neo4j는 Desktop 버전으로 실행했습니다. [참고]실행 파일: KG_P1_03_neo4j_movie_03_full-text_search.ipynb [스크립트]CREATE FULLTEXT INDEX movie_title_fulltext IF NOT EXISTSFOR (m:Movie) ON EACH [m.title] CREATE FULLTEXT INDEX movie_title_tagline_fulltext IF NOT EXISTS FOR (m:Movie) ON EACH [m.title, m.tagline] CREATE FULLTEXT INDEX person_name_fulltext IF NOT EXISTSFOR (p:Person) ON EACH [p.name]
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
docker compose --profile gpu-nvidia up
안되네요? 저는 명령어가 하나더있는데 왜 다른건지 어떻게 해야하나요? 설치가안되서 아직 강의도못듣고있네요
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
docker설치가안되요
n8n유료결제로 하면 강의수강 할 수있나요?화면이랑 방법이 다른가요? api로 할려면 어떻게 하면되나요? 요금제는?
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
7강 Email Trigger test 진행이 안 되요ㅠ
7강 강의 6분 28초 쯤에 이메일 트리거 설정 후 test를 하면 네이버 메일함 속 메일이 '읽음' 상태로 바뀐다고 알려주셨는데요. 저는 일단 Test step 버튼 대신 Execute step이 뜹니다.Execute step 버튼을 누르면Executing node만 계속 뜹니다.5분 넘게 기다려도 반응이 없습니다 ㅜㅜ뭘 잘못 설정했나 싶어서 아예 처음부터 해보고, 메일함에 메일이 너무 많아서 그런가 싶어 일부 삭제도 해봤는데 똑같습니다. 뭐가 문제인 것일까요,,,ㅜㅜ
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
youtube-transcript `/extract_subtitles` post요청 관련해서 질문입니다~
어떤 강의에 대한 질문인지 자세하게 알려주시면 답변을 드리는데 도움이 됩니다. 스크린샷윈도우키 + 쉬프트키 + S(윈도우)을 자세히 첨부하시면 답변 드리는데 많은 도움이 됩니다. 동영상 재생 관련 같은 인프런 서비스 관련 문의는 1:1 문의하기를 이용해 주세요. <추가> youtube-transcript 오류를 위한 무료 API 분석부터 직접 서버 구축까지! 보고 있는데, n8n의 http request에서 post요청 보냈을때 timeout 오류가 떠서요.. 클로드로 테스트 해보고있긴한데, 혹시 강의자료 제공해주신 소스 변경사항 없이 제대로 작동하나요?? 다른 수강생분들은 잘 되는지도 궁굼하네요~
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
6강 call n8n workflow 호출이 안돼서 문의드립니다.
강의대로 진행중인데요 call n8n workflow 실행이 안됩니다.검색을 하면 output에 이런 오류가 발생이 됩니다.서브워크플로우에서는 accept all data으로 되어 있습니다.그리고 서브워크플로의 http request node에서 query의 value expression 작성 시 $json.query 가 undefined로 되어 있는데 이것도 영상과 달라서요.이렇게 간단한것도 못따라가 가네요 ㅠㅠ
-
해결됨[인프런어워드 베스트셀러] 코딩 없이 AI 자동화 전문가가 되는 법, n8n 완벽 가이드
8강에서 Getmail이 DeleteMail에게 output을 주지 않습니다.
8강에서 모두 설정을 마치고 실행을 하면 스팸분류가 되어 switch를 통해 들어온 값을 getmail이 deleteMail로 전달하지를 않는데요. 이유가 무엇일까요?json 파일 입니다! https://naver.me/xhl3HI7C
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
Cross Encoder Reranker 임포트 에러 관련 내용입니다.
랭채인 버전 관련 정보 입니다.langchain 1.2.0langchain-classic 1.0.1langchain-community 0.4.1langchain-core 1.2.5langchain-huggingface 1.2.0langchain-text-splitters 1.1.0langgraph 1.0.5langgraph-checkpoint 3.0.1langgraph-prebuilt 1.0.5langgraph-sdk 0.3.1langsmith 0.5.2 이전 답변 내용에서from langchain_classic.retrievers.document_compressors import CrossEncoderReranker이 부분도 역시 에러가 발생합니다원래 코드 였던from langchain.retrievers.document_compressors import CrossEncoderReranker이 코드에서는 에러가 발생하지 않지만여전히from langchain_community.cross_encoders import HuggingFaceCrossEncoder 이코드에서 에러가 발생합니다 PROBLEMS[{ "resource": "/c:/study/conda_rag/LangChain_005_Advanced_Retrieval.ipynb", "owner": "workbench.notebook.cellDiagnostics", "severity": 8, "message": "ImportError: cannot import name 'create_model' from 'langchain_core.utils.pydantic' (c:\\D\\miniconda3\\envs\\langchain_env\\Lib\\site-packages\\langchain_core\\utils\\pydantic.py)", "source": "Cell Execution Error", "startLineNumber": 4, "startColumn": 1, "endLineNumber": 4, "endColumn": 71}] 전체 에러 콜백 은 아래와 같습니다 ---------------------------------------------------------------------------ImportError Traceback (most recent call last)Cell In[31], line 31 from langchain.retrievers import ContextualCompressionRetriever2 from langchain.retrievers.document_compressors import CrossEncoderReranker----> 3 from langchain_community.cross_encoders import HuggingFaceCrossEncoder5 #from langchain_classic.retrievers.document_compressors import CrossEncoderReranker6 #from langchain_community.cross_encoders.huggingface import HuggingFaceCrossEncoder12 model = HuggingFaceCrossEncoder(model_name="BAAI/bge-reranker-v2-m3")File c:\D\miniconda3\envs\langchain_env\Lib\site-packages\langchain_community\cross_encoders\__init__.py:47, in getattr(name)45 def getattr(name: str) -> Any:46 if name in modulelookup:---> 47 module = importlib.import_module(_module_lookup[name])48 return getattr(module, name)49 raise AttributeError(f"module {__name__} has no attribute {name}")File c:\D\miniconda3\envs\langchain_env\Lib\importlib\__init__.py:126, in import_module(name, package)124 break125 level += 1--> 126 return bootstrap.gcd_import(name[level:], package, level)File c:\D\miniconda3\envs\langchain_env\Lib\site-packages\langchain_community\cross_encoders\huggingface.py:51 from typing import Any, Dict, List, Tuple3 from pydantic import BaseModel, ConfigDict, Field...(...) 36 model_validator,37 )38 from typing_extensions import overrideImportError: cannot import name 'create_model' from 'langchain_core.utils.pydantic' (c:\D\miniconda3\envs\langchain_env\Lib\site-packages\langchain_core\utils\pydantic.py)