묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결graphRAG - Neo4J로 구현하는 지식 그래프 기반 RAG 시스템 (feat. LangChain)
neo4j 데스크탑 config파일설정변경
강사님 안녕하세요강의에서는 setting을 누르라고 하는데 , 제가 설치한것에서는 setting버튼이 없습니다 ㅎ
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
쿠폰관련 문의
첼린지를 처음하다보니 쿠폰기간을 놓쳤습니다. 메일로 다시 보내주실수 없는지 문의드립니다. 번거롭게해서 죄송합니다. 머신러닝과 대규모 언어모델 둘다 신청했습니다.
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
3.3 강의 에러 질문
안녕하세요 좋은 강의 감사드립니다.3.3 강의를 듣고 있는데 코드에 오류가 발생해서 질문드립니다. chatgpt에도 물어봤는데 오류가 해결되지 않네요 tool_node.invoke({'messages': [ai_message]})부분에서 아래와 같은 오류가 발생합니다. ---------------------------------------------------------------------------ValueError Traceback (most recent call last) Cell In[10], line 4 1 # tool_node를 직접 invoke 하는 경우 이런 형식으로 해야 하고, ai message가 가장 마지막에 들어가야 한다. 2 # ai message는 반드시 tool_calls 값을 가지고 있어야 한다. ----> 4 tool_node.invoke({'messages': [ai_message], 'tools' : tool_list}) File c:\Users\user\miniconda3\envs\langgraph-agent-inf\Lib\site-packages\langgraph\_internal\_runnable.py:368, in RunnableCallable.invoke(self, input, config, **kwargs)366 if kw_value is MISSING: 367 if default is inspect.Parameter.empty: --> 368 raise ValueError( 369f"Missing required config key '{runtime_key}' for '{self.name}'."370 ) 371 kw_value = default 372 kwargs[kw] = kw_value ValueError: Missing required config key 'N/A' for 'tools'.혹시 몰라서 아래와 같이 해봤는데도 같은 오류가 발생합니다. tool_node.invoke({'messages': [ai_message], 'tools' : tool_list}) 기존 코드에서 바꾼것은 없고, 다만 azurechatopenai 대신 chatopenai를 직접 사용해서 llm, small_llm을 이렇게 정의했습니다.llm = ChatOpenAI(model='gpt-4o') small_llm = ChatOpenAI(model='gpt-4o-mini') 어디가 오류의 원인인걸까요 ㅠ?
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
섹션 10에 수업 자료 링크가 없네요
섹션 10에 수업 자료 링크가 없어서 수업 자료 부분이 패스가 안되어서 섹션 10에 해당하는 퀴즈를 풀 수가 없네요...회사에서 지원받고 유료로 듣는거라 강의를 100% 완강해야해서 해당 링크가 필요합니다...다시 링크 게시해 주실 수 있나요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다
안녕하세요.LLM 관련 강의 잘 듣고 있습니다. 실무 적용에 많은 도움이 되고 있어 감사드립니다.강의 내용과 직접적인 연계는 아니지만, 강의를 듣는 중 궁금한 점이 생겨 문의드립니다.현재 문서 분류 강의를 들으며 생각해본 부분인데, LLM을 이용해 문서 분류가 가능한 것처럼, 퍼지 해시(Fuzzy Hashing)처럼 문서 간 유사도를 하나의 점수 형태(예: 0~100, 혹은 정규화된 점수 등)로 산출하는 것이 가능한지 궁금합니다.점수가 의미론적 유사도이든, 어떤 방식이든 상관없이, LLM이 두 문서를 입력받아 정량적 점수(Scoring Output)를 생성할 수 있는지 알고 싶습니다.만약 가능하다면, 어떤 방식으로 접근하는 것이 적절한지(예: 모델 형태, 프롬프트 전략, 파인튜닝 여부, 평가 기준 등), 방향성을 조언해주시면 도움이 될 것 같습니다.참고로 제가 언급한 퍼지 해시(Fuzzy Hashing)는 다음 개념을 의미합니다.퍼지 해시는 일반적인 해시 함수와 달리, 입력 데이터가 일부 변형되더라도 서로 유사한 해시 값을 생성하여 문서 또는 파일 유사도를 비교하기 위한 기술입니다.조언 주시면 감사하겠습니다.좋은 강의 계속 기대하겠습니다.감사합니다.
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
쿠폰등록 관련입니다.
<대규모 언어 모델, 핵심만 빠르게!> 강의의 무료 쿠폰 발급 링크와 <밑바닥부터 만들면서 배우는 LLM> 강의의 50% 할인 쿠폰 발급 링크가 인프런에 등록된 이메일로 전달됩니다.이메일로 링크가 없어서 문의드립니다.woong2241@naver.com 입니다. 확인부탁드립니다. 감사합니다^^!항상좋은강의감사합니다
-
미해결LLM Finetuning : RunPod와 Multi-GPU 실습
fine tuning에 대한 개념적 이해
안녕하세요 강사님강의 잘 듣고 있습니다.강의 내용중 좀 더 이해하고 싶은 부분이 생겨 질문드립니다. #질문 18분53초의 화면상의 ppt 슬라이드를 보면행렬의 shape를 (a,m ), (m *n ), (a, n) 적어주셨는데 각각의 의미가 궁금합니다. (a,m) 은 무엇을 의미하는 행렬이며이때 a,m각각은 무엇을 나타내는지,(m*n) 행렬은 무엇을 의미하는 행렬이며m,n은 무엇을 나타내는지(a,n) 행렬은 무엇을 의미하는 행렬이며a,n은 무엇을 나타내는지. ( 제 추측으론, m은 모델의 vocabulary 사전의 개수. 또는 토큰id의 max값 같기도하고...n은 벡터의 길이 같기도하고....) #질문 2그리고 파인 튜닝을 위해 qlora n*n 행렬이 그림상에 추가되었는데, 개념적으로 데이터가 추가되었다고는 이해되는데 실제 물리적으로는 데이터가 어떻게 추가된것인지 궁금합니다.단순히 m*n 행렬에 n행이 추가되어m+n, n 행렬이 되었다든지...
-
미해결Spring WebFlux + LLM 실전 구현
다음 강의 질문
안녕하세요? 강의 정말 재밌게 잘 들었습니다. 다음 강의역시 기대가 되는데요, 혹시 예상하시는 강의 오픈일정같은 게 있을까요?추가로 어떤 내용일지도 궁금합니다! (다른 질문에서 커리큘럼이 다 준비되었다고 말씀주셔서 같이 여쭈어봅니다)
-
해결됨Cursor AI로 만들면서 배우는 Web & Javascript
개발 환경 관련 질문입니다.
안녕하세요, 강사님. 이제 강의를 신청하고 본격적으로 수업을 들으려고 합니다제가 현재 리눅스(페도라) 버전 노트북과 Window 버전 데스크탑을 이용 중인데, 혹시 리눅스로도 해당 강의를 따라갈 수 있을까요? (첫 개발이라 좀 더 쉬운 환경에서 작업하고 싶기는 합니다!)제가 주로 카페나 외부에서 혼자 노트북으로 작업하는 일이 많아서 리눅스로도 해당 강의 내용을 충실히 이행할 수 있는지 여쭤보고 싶어서 문의 남겼습니다. 답변 부탁드리겠습니다:> 아, 그리고 좋은 강의 만들어주셔서 감사합니다!
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
강의 완료 오류
3. 2.1 Retrieval Augmented Generation(RAG)란?이 강의가 강의 끝에서 모래시계만 돌고 완료가 계속해서 안됩니다.나중에 수강증을 회사에 제출해야 하는데 방법이 없을까요?저만 그런건지요
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
쿠폰등록관련 문의드립니다
안녕하세요메일 확인이 늦어서 쿠폰 적용을 못했습니다. 수동 등록으로 해주신다고 하여 Q&A로 남깁니다.등록 부탁드립니다
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
강의 쿠폰 관련 질문
안녕하세요. 챌린지 수강자입니다. 오픈채팅방에서 문의 드렸었는데...메일확인이 늦어 쿠폰등록기간이 만료되었습니다.챌린지 둘다(대규모 언어모델, 머신러닝)문의 드립니다. 감사합니다.
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
전자책 인증 관련문의
구매내역 인증캡처 올리면 될까요?
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
데이터 전처리 조언 부탁드립니다!!
안녕하십니까 훌륭하신 강병진님! 질문이 있어서 글 남깁니다!저는 현재 교내 학교 문서를 RAG를 만들어서 정보를 얻는 것을 구현하던 중입니다.우선 개인 학생 성적, 수강 데이터들로 교내 졸업 요건을 파악하는 그래프를 구현 하던 중에 정확도 향상을 고민하던 중 조언을 듣고 싶습니다!현재 '21학번 컴퓨터공학과 졸업요건 알려줘' 라고 임베딩 검색을 할때 k값을 3으로 할때는 다른 학과 정보까지 같이 나옵니다. 그래서 k값을 1로 하면 딱 컴퓨터 공학과에 맞는 정보들만 주지만 공통 졸업 요건 부분들을 파악하지 못합니다. 결국 학교 문서상으로 llm이 판단하려면 공용 졸업요건 + 개별 학과 졸업요건 정보가 같이 주어져야지 잘 판단하는 거 같습니다.그래서 생각한 방법이 쿼리가 오면 그걸 기반으로 공통 졸업 요건 파악하는 노드, 개별 학과 졸업 요건 파악하는 노드를 만들어서 그걸 generate노드로 줌데이터 전처리 과정에서 임베딩 할 때 청크를 학과 별로 나눈다음에 메타데이터로 학과 이름을 넣어주고 하나의 retrieve로 k값의 갯수를 늘림이 정도 방법이 생각나는데 이러한 접근이 올바른지 혹은 더 적절한 방법이 있는지 궁금합니다. 참고 사항입니다!)현재 구현 그래프 동작은 다음과 같습니다엔트포인트 호출시 해당 학생 id값으로 db쿼리로 학생 성적 받아와서 성적 리스트와 쿼리를 상태로 가짐.유저 쿼리로 벡터db invoke값을 context로 담고 generate에서 쿼리, 성적 리스트, 컨텍스트 정보로 llm이 판단 (model: gpt-5-mini)글 읽어주셔서 감사합니다!!
-
해결됨[완독 챌린지] 『AI 엔지니어링』 5주만에 함께 읽기!
진도율 업데이트
진도율이 업데이트되지 않습니다. 어떻게 해야 진도율 업데이트가 될까요?
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
휴..
근데 도대체 제주_코스별_여행지 이 pdf 파일은 어디있나요..?기본으로 줘야되는거 아닌가요?
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
open AI 플랫폼에서 MCP Server선택시 무한로딩표시만.
https://platform.openai.com/chat/edit?models=gpt-5-nano여기에서tools > add 선택, MCP Server를 선택하면, Add Connector 팝업이 뜨는데, 계속 무한로딩되면서 화면에 아무것도 뜨지가 않습니다. 검색해보니 맥os는 시스템설정 > 보안에 가면 MCP관련해서 설정을 열어줘야 한다는데 관련 내용도 보이질 않네요. 혹시 무엇이 문제일까요? ==> 다음날 어떤 작업도 하지 않았는데 저절로 해결이 되었습니다. 어떤 이유로 해결되었는지 모르겠습니다.
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
rag 와 랭체인
강의를 들었을때 , 랭체인 사용하게 되면 , 약간 프레임워크의 형태였고,간단하고 구조화를 제법 잘 할수있을것 같은데,필요하다면 파인튜닝만 해도 제법 괜찮겠는데 생각이 들었습니다그럼에도 불구하고 rag 로 구현하는 이유가 현실적으로 어떤경우가 있을까요 ??
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
hub.pull 이슈
아래 코드, hub.pull 안되실 경우from langchain import hub prompt = hub.pull("rlm/rag-prompt") 아래와 같이 변경해 보세요.저는 LANGSMITH_API_KEY 를 직접 넣었지만,환경변수에 등록해서 사용하시는게 나을것 같네요.from langsmith import Client LANGSMITH_API_KEY = "ls...." client = Client(api_key=LANGSMITH_API_KEY) prompt = client.pull_prompt("rlm/rag-prompt", include_model=True)
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
2.2 강의 질문(markdown 생성관련)
선생님 안녕하세요좋은 강의 감사합니다. 바로 아래 질문 올린 수강생입니다. 강의에 나온대로 openai api를 사용해서 pdf 파일을 markdown으로 변환하는데, 아래와 같은 오류(?) 메시지가 뜨다가, 맨 마지막에는 결과물이 나오긴 합니다.import nest_asyncio nest_asyncio.apply() from pyzerox import zerox import os import json import asyncio kwargs = {} ## Vision 모델에 사용할 시스템 프롬프트 custom_system_prompt = None model = "gpt-4o-mini" # os.environ["OPENAI_API_KEY"] = os.getenv("OPENAI_API_KEY") # 메인 비동기 진입점을 정의합니다 async def main(): file_path = "./documents/income_tax.pdf" ## 로컬 파일 경로 및 파일 URL 지원 ## 일부 페이지 또는 전체 페이지를 처리 select_pages = None ## 전체는 None, 특정 페이지는 int 또는 list(int) 페이지 번호 (1부터 시작) output_dir = "./documents" ## 통합된 마크다운 파일을 저장할 디렉토리 result = await zerox(file_path=file_path, model=model, output_dir=output_dir, custom_system_prompt=custom_system_prompt, select_pages=select_pages, **kwargs) return result # 메인 함수를 실행합니다: result = asyncio.run(main()) # 마크다운 결과를 출력합니다 print(result)에러 메시지(실제는 이런게 여러번 반복이 됨)Give Feedback / Get Help: https://github.com/BerriAI/litellm/issues/newLiteLLM.Info: If you need to debug this error, use `litellm._turn_on_debug()'.ERROR:root:Failed to process image Error: Error in Completion Response. Error: litellm.RateLimitError: RateLimitError: OpenAIException - Rate limit reached for gpt-4o-mini in organization org-ZlBA2iz8ZXx6PbxDnPFaTYOK on tokens per min (TPM): Limit 200000, Used 200000, Requested 807. Please try again in 242ms. Visit https://platform.openai.com/account/rate-limits to learn more. Please check the status of your model provider API status. ERROR:root:Failed to process image Error: Error in Completion Response. Error: litellm.RateLimitError: RateLimitError: OpenAIException - Rate limit reached for gpt-4o-mini in organization org-ZlBA2iz8ZXx6PbxDnPFaTYOK on tokens per min (TPM): Limit 200000, Used 200000, Requested 807. Please try again in 242ms. Visit https://platform.openai.com/account/rate-limits to learn more. Please check the status of your model provider API status. ERROR:root:Failed to process image Error: Error in Completion Response. Error: litellm.RateLimitError: RateLimitError: OpenAIException - Rate limit reached for gpt-4o-mini in organization org-ZlBA2iz8ZXx6PbxDnPFaTYOK on tokens per min (TPM): Limit 200000, Used 200000, Requested 807. Please try again in 242ms. Visit https://platform.openai.com/account/rate-limits to learn more. Please check the status of your model provider API status.Give Feedback / Get Help: https://github.com/BerriAI/litellm/issues/newLiteLLM.Info: If you need to debug this error, use litellm._turn_on_debug()'. Give Feedback / Get Help: https://github.com/BerriAI/litellm/issues/new LiteLLM.Info: If you need to debug this error, use litellm._turn_on_debug()'. Give Feedback / Get Help: https://github.com/BerriAI/litellm/issues/newLiteLLM.Info: If you need to debug this error, use `litellm._turn_on_debug()'.ERROR:root:Failed to process image Error: Error in Completion Response. Error: litellm.RateLimitError: RateLimitError: OpenAIException - Rate limit reached for gpt-4o-mini in organization org-ZlBA2iz8ZXx6PbxDnPFaTYOK on tokens per min (TPM): Limit 200000, Used 200000, Requested 807. Please try again in 242ms. Visit https://platform.openai.com/account/rate-limits to learn more. Please check the status of your model provider API status.Give Feedback / Get Help: https://github.com/BerriAI/litellm/issues/newLiteLLM.Info: If you need to debug this error, use `litellm._turn_on_debug()'.ERROR:root:Failed to process image Error: Error in Completion Response. Error: litellm.RateLimitError: RateLimitError: OpenAIException - Rate limit reached for gpt-4o-mini in organization org-ZlBA2iz8ZXx6PbxDnPFaTYOK on tokens per min (TPM): Limit 200000, Used 200000, Requested 807. Please try again in 242ms. Visit https://platform.openai.com/account/rate-limits to learn more. Please check the status of your model provider API status.- 결과물 : ZeroxOutput(completion_time=69952.953, file_name='income_tax', input_tokens=626909, output_tokens=17668, pages=[Page(content='# 소득세법\n[시행 2025. 1. 1.] [법률 제20615호, 2024. 12. 31., 일부개정]\ (이후 생략)--> 근데 생성된 markdown 파일을 보니 18조 정도밖에 생성이 안되어있고, 그 이후 내용은 모두 없더라고요. 이건 그냥 token의 문제 때문에 openai api가 너무 큰 pdf파일을 처리하지 못하면서 발생하는 문제인가요?강의에서는 아무런 문제 없이 변환이 되는데, 갑자기 안되는 이유가 있을까요? 강의 소스코드에 제공된 파일의 markdown 파일에는 소득세법의 전 내용이 들어가있던데, 그걸 사용하면 강의 따라가는데는 문제가 없어보입니다. 맞나요?