묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
RAG 배포 질문드립니다
프론트엔드 개발자 입장에서 RAG를 처음 접하다 보니 구조가 잘 이해되지 않아 질문드립니다. 강의를 보다 보니 Streamlit과 LangChain으로 한 곳에서 개발이 이루어지는데, 이게 실무 구조를 단순화한 예제인지, 실제 서비스에서도 이런 형태로 운영되는지 궁금했습니다. 제가 이해한 바로는 일반적인 웹 서비스는 프론트엔드, 백엔드, 일반 DB(MySQL 등)가 분리되어 있고, 여기에 RAG를 구성하기 위한 Vector DB(Qdrant, Chroma, Pinecone 등)와 LLM 호출 로직이 추가되는 구조로 보이는데, 이때 RAG와 AI 에이전트는 보통 백엔드 서버 내부의 로직으로 구현되는지, 아니면 별도의 서비스로 분리해서 운영하는지도 알고 싶습니다. 실무에서 배포 관점에서는 백엔드 서버 하나에 RAG까지 포함해 배포하는 것이 일반적인지, 아니면 RAG나 Vector DB를 별도로 운영하는 경우가 많은지도 궁금합니다. Qdrant를 가장 추천주셔서 이걸사용할까 생각중입니다. 그리고 혹시 그래프 RAG에 대한 강의도 찍으실 예정이 있으실까요?크게 아래와같이 보고있고(이해한 대로 플로우 그려봤습니다),백엔드 서버는 FastAPI로 통일할수도 있을것 같습니다.┌─────────────────────────────────────────┐ │ Frontend (React.js) │ └─────────────────────────────────────────┘ │ ┌───────────┴───────────┐ │ │ ┌───────▼────────┐ ┌─────────▼────────┐ │ Spring Boot │ │ FastAPI AI │ │ (Main API) │ │ Service │ │ │ │ │ │ - CRUD │ │ - RAG Pipeline │ │ - 비즈니스 로직 │ │ - LLM Agent │ │ - 인증/권한 │ │ - Embedding 생성 │ └───────┬────────┘ └─────────┬────────┘ │ │ │ │ ┌───────▼────────┐ ┌─────────▼────────┐ │ PostgreSQL │ │ Vector DB │ │ (비즈니스 데이터) │ │ (임베딩/벡터) │ │ │ │ │ │ - hospitals │ │ - content_embeddings│ │ - contents │ │ - query_cache │ │ - bundles │ │ - document_chunks │ │ - contracts │ │ │ │ - users │ │ (Pinecone/ │ │ - ... │ │ Weaviate/ │ │ │ │ Qdrant/ │ │ │ │ pgvector) │ └────────────────┘ └──────────────────┘
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
강의 내용과는 별개로 궁금한 점이 있습니다
안녕하세요, 좋은 강의 감사합니다 ! 강의 내용과는 별개로, 개인 프로젝트 겸 하나 실험해보고 싶은 주제가 있어 간단히 의견 여쭤보고 싶습니다.유튜브 라이브 채팅 로그를 분석하기 위해, 각 채팅을 의도 기반으로 7~10개 정도의 라벨로 분류해보려 합니다. (채팅은 약 5만~10만개 정도)다만 라이브 채팅 특성상 다국어가 섞여 있고, 이모지 사용이 많으며, 문장이 매우 짧은 경우가 대부분이라 과연 잘 될지 고민이 됩니다...이와 관련해 LLM을 활용해 채팅 데이터를 라벨링하는 방식에 대해 어떻게 생각하시는지 궁금합니다. 실제로 비슷한 케이스를 다뤄보신 경험이 있거나, 주의해야 할 점이 있다면 공유해주시면 감사하겠습니다.또한 LLM을 활용한 라벨링 관점에서, 7~10개 라벨이 모델이 분류하기 적절한 수준인지 아니면 라벨 수를 줄이는 것이 성능 향상에 도움이 될지도 의견을 듣고 싶습니다.감사합니다!
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
summary 를. 시스템메세지에 추가하는 부분에 관하여
agent(state:AgentState) ->AgentState: messages =state['messages'] summary = state.get('summary',None) if summary: messages =[SystemMessage(content='Here is the summary of the earil er conversation : {summary}')]+messages response = llm_with_tools.invoke(messages) return {'messages':[response]}안녕하세요 강사님, 강의 재밌게 듣고 있습니다.수강중 궁금한 사항이 있어 질문 남깁니다.위와 같이 코드를 알려주셨는데요,이런 흐름이라면, messages 에 동일한 내용의 SystemMessage가 여러번 들어가게되는 걸까요?예를 들어 사용자 질의 한개를 처리하는데,agent <-> tool 간의 반복 작업이 3번 있었다면agent 가 3번 호출될 때마다 messages 리스트 앞에 동일한 SystemMessage 객체가 중복되어 붙을거 같아서요.
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
test.py 파일이 어딨나요?
.env.sample 만 보여서 test.py 를 올려준다고 말씀하셨는데. 자료에 없습니다 ㅠ
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
병렬 처리 중 retrieve 관련 궁금한 사항
안녕하세요~ 강의 정말 재밌게 잘 듣고 있습니다!!2.7 병렬 처리를 통한 효율 개선강의의tax_rate_calculation_prompt = ChatPromptTemplate.from_messages([ ('system', '''당신은 종합부동산세 계산 전문가입니다. 아래 문서를 참고해서 사용자의 질문에 대한 종합부동산세를 계산해주세요 종합부동산세 세율:{context}'''), ('human', '''과세표준과 사용자가 소지한 주택의 수가 아래와 같을 때 종합부동산세를 계산해주세요 과세표준: {tax_base} 주택 수:{query}''') ]) def calculate_tax_rate(state: AgentState): """ 주어진 state에서 세율을 계산합니다. Args: state (AgentState): 현재 에이전트의 state를 나타내는 객체입니다. Returns: dict: 'answer' 키를 포함하는 새로운 state를 반환합니다. """ # state에서 필요한 정보를 추출합니다. query = state['query'] tax_base = state['tax_base'] # retriever를 사용하여 쿼리를 실행하고 컨텍스트를 얻습니다. context = retriever.invoke(query) # tax_rate_chain을 구성하여 세율을 계산합니다. tax_rate_chain = ( tax_rate_calculation_prompt | llm | StrOutputParser() ) # tax_rate_chain을 사용하여 세율을 계산합니다. tax_rate = tax_rate_chain.invoke({ 'context': context, 'tax_base': tax_base, 'query': query }) # state에서 'answer' 키에 대한 값을 반환합니다. return {'answer': tax_rate}이 부분에서 들은 궁금증인데요,context 는 과세표준별 세율 구간에 관한 정보를 가져오는 변수인데 왜 query에는 과세표준이 아닌 사용자의 주택 정보를 넣어서 invoke하는 형태인가요?
-
미해결LLM 데이터 분석 - 웹 크롤링부터 추천 시스템까지
requirements.txt. 업데이트 해주세요.
requirements.txt 설치하는 파일 다시 좀 업데이트 해주셨으면 좋겠습니다.
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
query 에 대한 answer 결과값이 나오지 않습니다.
강의 모두 코드 똑같이 돌리고 db만 pinecone 을 사용하였습니다 ! 결과에 강의처럼 answer이 나오지 않는데 원인을 잘 모르겠습니다 ㅜgpt 에 검색해보면전체 코드를 꼼꼼히 검토해본 결과, 질문하신 "결과(answer)가 나오지 않는 이유"는 크게 두 가지입니다. 하나는 데이터가 유실되는 방식의 반환(return) 때문이고, 다른 하나는 무한 루프(Infinite Loop) 가능성 때문입니다.1. 가장 큰 원인: State 데이터 유실LangGraph의 각 노드 함수(retrieve, generate, rewrite 등)는 AgentState를 반환할 때, 기존의 데이터를 포함해서 돌려주어야 합니다.현재 작성하신 코드를 보면:retrieve 함수: return {'context': docs} (이때 query가 사라짐)generate 함수: return {'answer': response.content} (이때 query, context가 모두 사라짐)이렇게 나오는데 제가 봤을땐 이게 원인은 아닌것같습니다...!
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
사람과 관련된 표현이 없는데 rewrite 로 이동하지 않는경우
from langchain_core.prompts import PromptTemplate from langchain_core.output_parsers import StrOutputParser dictionary = ['사람과 관련된 표현 -> 거주자'] rewrite_propmt = PromptTemplate.from_template(f"""사용자의 질문을 보고, 우리의 사전을 참고해서 사용자의 질문을 변경해주세요 사전:{dictionary} 질문: {{query}}""") def rewrite(state: AgentState)->AgentState: query = state['query'] rewrite_chain = rewrite_propmt | llm | StrOutputParser() response = rewrite_chain.invoke({'query': query}) return {'query' : response} # Create a LangSmith API in Settings > API Keys # Make sure API key env var is set: # import os; os.environ["LANGSMITH_API_KEY"] = "<your-api-key>" from langsmith import Client from typing import Literal client = Client() relevance_prompt = client.pull_prompt("langchain-ai/rag-document-relevance") def check_doc_relevance(state: AgentState)-> Literal['generateAnswer','rewrite']: query= state['query'] context= state['context'] relevance_chain = relevance_prompt | llm response = relevance_chain.invoke({'question':query, 'documents': context}) if response['Score'] ==1: return 'generateAnswer' return 'rewrite'graph_builer.add_node('retrieveDoc', retrieveDoc) graph_builer.add_node('generateAnswer', generateAnswer) graph_builer.add_node('rewrite', rewrite) from langgraph.graph import START, END graph_builer.add_edge(START,'retrieveDoc') graph_builer.add_conditional_edges('retrieveDoc', check_doc_relevance) graph_builer.add_edge('rewrite','retrieveDoc') graph_builer.add_edge('generateAnswer', END) graph =graph_builer.compile()from IPython.display import Image, display display(Image(graph.get_graph().draw_mermaid_png()))initial_State = {'query' : '연봉 5천만원 세금'} graph.invoke(initial_State)강사님! 강의랑 똑같이 코드를 작성했는데도 'query: 연봉 5천만원 세금 ' 질문에 대한 답 score가 계속 1이 나와서 rewrite 노드로 이동하지 않습니다. 쿼리자체에 거주자나 사람을 나타내는 표현이 없는데도 문서에서 관련성을 키워드로 찾다보니 키워드가 있기만 해도 결과가 1이 나오네요ㅜㅜㅜ강사님은 결과가 0이 나와 rewrite를 하고 제가 해볼때는 1이 나오는 이유가 무엇인지 모르겠습니다.{'query': '연봉 5천만원 세금', 'context': [Document(id='15f6746f-4e63-4775-a47e-c72298375620', metadata={'source': './tax_combined_final.txt'}, page_content='소득세법'), Document(id='a6c9015f-092f-4aa3-819b-e23588bb0a0f', metadata={'source': './tax_combined_final.txt'}, page_content='소득세법\n하는 자(제119조제9호에 따른 국내원천 부동산등양도소득을 지급하는 거주자 및 비거주자는 제외한다)는 제127조\n에도 불구하고 그 소득을 지급할 때에 다음 각 호의 금액을 그 비거주자의 국내원천소득에 대한 소득세로서 원천징\n수하여 그 원천징수한 날이 속하는 달의 다음 달 10일까지 대통령령으로 정하는 바에 따라 원천징수 관할 세무서,\n한국은행 또는 체신관서에 납부하여야 한다. <개정 2013. 1. 1., 2016. 12. 20., 2018. 12. 31., 2019. 12. 31., 2020. 12.\n29.>\n1. 제119조제1호에 따른 국내원천 이자소득: 다음 각 목의 구분에 따른 금액\n가. 국가·지방자치단체 및 내국법인이 발행하는 채권에서 발생하는 이자소득: 지급금액의 100분의 14\n나. 가목 외의 이자소득: 지급금액의 100분의 20\n2. 제119조제2호에 따른 국내원천 배당소득: 지급금액의 100분의 20\n3. 제119조제4호에 따른 국내원천 선박등임대소득 및 같은 조 제5호(조세조약에 따라 국내원천 사업소득으로 과세\n할 수 있는 소득은 제외한다)에 따른 국내원천 사업소득: 지급금액의 100분의 2\n4. 제119조제6호에 따른 국내원천 인적용역소득: 지급금액의 100분의 20. 다만, 국외에서 제공하는 인적용역 중대\n통령령으로 정하는 용역을 제공함으로써 발생하는 소득이 조세조약에 따라 국내에서 발생하는 것으로 보는 소득\n에 대해서는 그 지급금액의 100분의 3으로 한다.\n5. 제119조제9호에 따른 국내원천 부동산등양도소득: 지급금액의 100분의 10. 다만, 양도한 자산의 취득가액 및 양\n도비용이 확인되는 경우에는 그 지급금액의 100분의 10에 해당하는 금액과 그 자산의 양도차익의 100분의 20에\n해당하는 금액 중 적은 금액으로 한다.\n6. 제119조제10호에 따른 국내원천 사용료소득: 지급금액의 100분의 20\n7. 제119조제11호에 따른 국내원천 유가증권양도소득: 지급금액(제126조제6항에 해당하는 경우에는 같은 항의 정\n상가격을 말한다. 이하 이 호에서 같다)의 100분의 10. 다만, 제126조제1항제1호에 따라 해당 유가증권의 취득가\n액 및 양도비용이 확인되는 경우에는 그 지급금액의 100분의 10에 해당하는 금액과 같은 호에 따라 계산한 금액\n의 100분의 20에 해당하는 금액 중 적은 금액으로 한다.\n8. 제119조제12호에 따른 국내원천 기타소득: 다음 각 목의 구분에 따른 금액\n가. 제119조제12호카목의 소득: 지급금액의 100분의 15\n나. 제119조제12호타목의 소득: 다음의 구분에 따른 금액. 다만, 가상자산을 교환하거나 인출하는 경우에는 다음\n의 구분에 상당하는 금액으로서 가상자산 단위로 표시한 대통령령으로 정하는 금액으로 한다.\n1) 제126조제1항제3호에 따라 가상자산의 필요경비가 확인되는 경우: 지급금액의 100분의 10에 해당하는 금\n액과 같은 호에 따라 계산한 금액의 100분의 20에 해당하는 금액 중 적은 금액'), Document(id='5a211886-c6db-4fd5-9e77-a4375dd2ee6d', metadata={'source': './tax_combined_final.txt'}, page_content='5. 공적연금소득에 대해서는 기본세율\n5의2.제20조의3제1항제2호나목 및 다목에 따른 연금계좌 납입액이나 운용실적에 따라 증가된 금액을 연금수령한\n연금소득에 대해서는 다음 각 목의 구분에 따른 세율. 이 경우 각 목의 요건을 동시에 충족하는 때에는 낮은 세율\n을 적용한다.\n가. 연금소득자의 나이에 따른 다음의 세율\n|나이(연금수령일 현재)| 세율 |\n| ----------- | ----------- |\n| 70세 미만 | 100분의 5 |\n| 70세 이상 80세 미만 | 100분의 4 |\n| 80세 이상 | 100분의 3 |\n나. 삭제 <2014. 12. 23.>')], 'answer': AIMessage(content='연봉 5천만원에 대한 세금은 다양한 소득세 항목에 따라 달라질 수 있습니다. 일반적으로 소득세율은 소득금액에 따라 차등 적용되며, 기본 세율은 5%에서 시작합니다. 정확한 세금액을 계산하기 위해서는 총소득, 공제 항목 등을 고려해야 합니다.', additional_kwargs={'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 78, 'prompt_tokens': 1352, 'total_tokens': 1430, 'completion_tokens_details': {'accepted_prediction_tokens': 0, 'audio_tokens': 0, 'reasoning_tokens': 0, 'rejected_prediction_tokens': 0}, 'prompt_tokens_details': {'audio_tokens': 0, 'cached_tokens': 0}}, 'model_provider': 'openai', 'model_name': 'gpt-4o-mini-2024-07-18', 'system_fingerprint': 'fp_3683ee3deb', 'id': 'chatcmpl-D2psPuRb1GQcktIDJfUhfjTjYL2CO', 'service_tier': 'default', 'finish_reason': 'stop', 'logprobs': None}, id='lc_run--019c027f-916f-7c82-9b4a-00ba35551ea7-0', tool_calls=[], invalid_tool_calls=[], usage_metadata={'input_tokens': 1352, 'output_tokens': 78, 'total_tokens': 1430, 'input_token_details': {'audio': 0, 'cache_read': 0}, 'output_token_details': {'audio': 0, 'reasoning': 0}})}도와주시면 감사하겠습니다.
-
미해결한시간으로 끝내는 LangChain 기본기
ollama 같은 모델 상이 답변
안녕하세요 강사님같은 모델 쓰는데 답변이 서울이 아니라 광주로도 잘못 나올 수 있나요??
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
EasyOcr 관련
강의 내용에 uv add easyocr관련 내용이 빠져 있는거 같습니다md 파일로 변환 할 때 에러가 나서확인 해보니 pip install easyocr 을 하라는 메세지를보고 설치를 했습니다
-
해결됨[1시간 완성] AI로 4.5점(A+) 만드는 공부법
PDF 자료만 가지고 공부할때는 어떤식으로 하면 좋나요?
강의 없이 PDF 자료만 보고 학습을 해야하는 경우자료가 많아서 3강 + 4강처럼 나만의 요약본을 만들고 싶을때는 이런경우 3강의 PDF 교안만 가지고 프롬프트사용만 해도 충분히 요약본으로 봐도될까요?아니면 추가로 어떤 방법이 있는지 궁금합니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
폐쇄망 챗봇 모델
안녕하세요, 폐쇄망에 챗봇을 구축하려 합니다. 하지만, GPU가 안 되는 환경입니다. 폐쇄망 환경에서 CPU 위주로 운용한다는 제약까지 고려했을 때, 강의에서 소개된 것처럼LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct를 생성 모델로 사용하고,intfloat/multilingual-e5-large-instruct를 임베딩 모델로 사용하는 조합이한국어 중심 RAG 환경에서도 여전히 합리적인 선택이라고 보시는지 궁금합니다.
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
retriever 관련 질문
안녕하세요, 강사님! 강의 잘 듣고 있습니다. RAG 및 LangChain을 공부하는 도중에 기존 리트리버 방식인(dense based)에 더 자세히 공부하기 위해 Hybrid Retriever(e.g. RRF, CC)등을 더 찾아보고 있는데 이부분은 강의에서 따로 안다뤄주는 부분일까요?? 또한 현업에서는 어떤 Retriving 방식을 선호하는지 또한 궁금합니다!
-
미해결Spring AI 실전 가이드: RAG 챗봇 만들기
SPRING AI 실행을위한 환경설정이 궁금합니다.
환경설정좀 자세히좀 부탁드립니다.
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
22강 빌드할때 에러가 뜨고 있습니다.
2026-01-24T18:01:27.860119Z Cloning repository...2026-01-24T18:01:28.415748Z From https://github.com/ssmktr/openai-chatkit-starter-app2026-01-24T18:01:28.416363Z * branch d8abdc1e7810bbe5fdb3c809e65c2b07141d1450 -> FETCH_HEAD2026-01-24T18:01:28.41648Z 2026-01-24T18:01:28.451163Z HEAD is now at d8abdc1 Simplify ChatKit backend (#104)2026-01-24T18:01:28.451626Z 2026-01-24T18:01:28.523349Z 2026-01-24T18:01:28.523863Z Using v2 root directory strategy2026-01-24T18:01:28.544435Z Success: Finished cloning repository files2026-01-24T18:01:30.338662Z Checking for configuration in a Wrangler configuration file (BETA)2026-01-24T18:01:30.339458Z 2026-01-24T18:01:31.455516Z No wrangler.toml file found. Continuing.2026-01-24T18:01:31.532601Z Detected the following tools from environment: nodejs@22.21.12026-01-24T18:01:31.533343Z Installing nodejs 22.21.12026-01-24T18:01:32.491348Z Trying to update node-build... ok2026-01-24T18:01:32.581604Z To follow progress, use 'tail -f /tmp/node-build.20260124180132.491.log' or pass --verbose2026-01-24T18:01:32.676902Z Downloading node-v22.21.1-linux-x64.tar.gz...2026-01-24T18:01:32.916706Z -> https://nodejs.org/dist/v22.21.1/node-v22.21.1-linux-x64.tar.gz2026-01-24T18:01:35.061658Z 2026-01-24T18:01:35.061984Z WARNING: node-v22.21.1-linux-x64 is in LTS Maintenance mode and nearing its end of life.2026-01-24T18:01:35.062214Z It only receives critical security updates, critical bug fixes and documentation updates.2026-01-24T18:01:35.0625Z 2026-01-24T18:01:35.062624Z Installing node-v22.21.1-linux-x64...2026-01-24T18:01:35.494128Z Installed node-v22.21.1-linux-x64 to /opt/buildhome/.asdf/installs/nodejs/22.21.12026-01-24T18:01:35.49449Z 2026-01-24T18:01:36.434863Z Executing user command: npx @cloudflare/next-on-pages@12026-01-24T18:01:37.460162Z npm warn exec The following package was not found and will be installed: @cloudflare/next-on-pages@1.13.162026-01-24T18:01:49.78096Z npm warn deprecated path-match@1.2.4: This package is archived and no longer maintained. For support, visit https://github.com/expressjs/express/discussions2026-01-24T18:01:50.799789Z npm warn deprecated tar@6.2.1: Old versions of tar are not supported, and contain widely publicized security vulnerabilities, which have been fixed in the current version. Please update. Support for old versions may be purchased (at exhorbitant rates) by contacting i@izs.me2026-01-24T18:01:51.18784Z npm warn deprecated @cloudflare/next-on-pages@1.13.16: Please use the OpenNext adapter instead: https://opennext.js.org/cloudflare2026-01-24T18:01:59.323249Z ⚡️ @cloudflare/next-on-pages CLI v.1.13.162026-01-24T18:01:59.510375Z ⚡️ Detected Package Manager: npm (10.9.4)2026-01-24T18:01:59.510832Z ⚡️ Preparing project...2026-01-24T18:01:59.513738Z ⚡️ Project is ready2026-01-24T18:01:59.514039Z ⚡️ Building project...2026-01-24T18:02:00.366087Z ▲ npm warn exec The following package was not found and will be installed: vercel@50.5.02026-01-24T18:02:05.898447Z ▲ npm warn deprecated tar@6.2.1: Old versions of tar are not supported, and contain widely publicized security vulnerabilities, which have been fixed in the current version. Please update. Support for old versions may be purchased (at exhorbitant rates) by contacting i@izs.me2026-01-24T18:02:08.620603Z ▲ Vercel CLI 50.5.02026-01-24T18:02:08.625834Z ▲ > NOTE: The Vercel CLI now collects telemetry regarding usage of the CLI.2026-01-24T18:02:08.626058Z ▲ > This information is used to shape the CLI roadmap and prioritize features.2026-01-24T18:02:08.626552Z ▲ > You can learn more, including how to opt-out if you'd not like to participate in this program, by visiting the following URL:2026-01-24T18:02:08.626709Z ▲ > https://vercel.com/docs/cli/about-telemetry2026-01-24T18:02:08.713183Z ▲ WARN! Build not running on Vercel. System environment variables will not be available.2026-01-24T18:02:08.844345Z ▲ Your application is being built using next build. If you need to define a different build step, please create a vercel-build script in your package.json (e.g. { "scripts": { "vercel-build": "npm run prepare && next build" } }).2026-01-24T18:02:08.847668Z ▲ Installing dependencies...2026-01-24T18:02:09.443264Z ▲ up to date in 464ms2026-01-24T18:02:09.460617Z ▲ Warning: Could not identify Next.js version, ensure it is defined as a project dependency.2026-01-24T18:02:09.481655Z ▲ Error: No Next.js version detected. Make sure your package.json has "next" in either "dependencies" or "devDependencies". Also check your Root Directory setting matches the directory of your package.json file.2026-01-24T18:02:09.554599Z 2026-01-24T18:02:09.554859Z ⚡️ The Vercel build npx vercel build) command failed. For more details see the Vercel logs above.2026-01-24T18:02:09.554978Z ⚡️ If you need help solving the issue, refer to the Vercel or Next.js documentation or their repositories.2026-01-24T18:02:09.555101Z 2026-01-24T18:02:09.599906Z Failed: Error while executing user command. Exited with error code: 12026-01-24T18:02:09.609667Z Failed: build command exited with code: 12026-01-24T18:02:11.150853Z Failed: error occurred while running build command 빌드시 위에처럼 에러가 뜨면서 응용 프로그램 빌드 중 에서 멈추고 있습니다. 해결방법이 어떻게 될까요?
-
미해결LLM 핵심 이론, 구조로 이해하기 -ChatGPT·RAG·Agent의 작동 원리를 한 번에-
강의자료를 받을 수 있게 해주시면 좋을 것 같아요
강의를 통해서 대략적인 LLM에 대해서 알게 되었는데요. 복습을 위해서 강의 자료를 공유 해주셨으면 좋겠어요
-
미해결LLM 핵심 이론, 구조로 이해하기 -ChatGPT·RAG·Agent의 작동 원리를 한 번에-
강의자료를 받을 수 있나요?
복습을 할 수가 없네요...
-
미해결<밑바닥부터 만들면서 배우는 LLM> 해설 강의
바흐다나우 어텐션을 시작하게 된 이유가 궁금해요!
바흐다나우 어텐션에서 모든 입력 토큰을 참조하는 이유와 그로인한 바흐다나우 어텐션 장점이 무엇인지 궁금해요! 찍어주신 강의에서는 아래와 같이 정리해볼 수 있었는데요, 어떤 장점이 있는지 궁금해서 질문드립니다! - 방법 : 출력 토큰을 생성할 때, 모든 입력 토큰을 참조하고, 입력 토큰별로 중요도를 기록한다.- 단점 : 토큰양이 많아질 수록 저장공간 문제가 발생한다.- 단점으로 인한 제약 : 입력 텍스트 길이에 제한이 발생한다. 좋은 강의 감사합니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
AI agent 쿠폰
22강 듣고나니 agent 수업을 들어보라고 쿠폰을 쏘셨는데 할인이 적용되는건가요? 아니면 안되는 건가요?
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
인터룹 관련 질문
from typing import Literal from langgraph.types import interrupt, Command def human_review(state: AgentState) -> Command[Literal['tools', 'agent']]: """ human_review node는 LLM의 도구 호출에 대해 사람의 검토를 요청합니다. Args: state (AgentState): 메시지 기록을 포함하는 state. Returns: Command: 다음 node로 이동하기 위한 Command를 반환합니다. """ messages = state['messages'] last_message = messages[-1] tool_call = last_message.tool_calls[-1] human_review = interrupt({ 'question': '이렇게 진행하면 될까요?', 'tool_call': tool_call }) review_action = human_review['action'] review_data = human_review.get('data', None)혹시 왜 왜 last_message.tool_calls[-1]를 쓰는지 여쭤봐도 될까요? 가장 최근에 호출한 도구를 검토시킨다는 것 같은데 이전 호출을 제외한 왜 가장 최근 도구 호출에 대한 검토인지 궁금합니다. 또한 이부분에 대해서는 마지막 하나의 메세지에 대한 도구 호출이 리스트 안 여러개라는 가정 전제 하가 맞을까요?