묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결LLM 기초부터 최신 RAG·LangChain까지: 단 5시간 만에 LLM 기초과정 마스터!
sLLM관련 강의 내용 문의
sLLM을 설명을 주었는데, 내용은 SLM으로 보입니다. 다른 강의 자료를 보면 SLM과 sLLM를 구분하여 설명하고 있는데, 강의 내용은 sLLM 이 아닌 SLM으로 보입니다. 어떤 내용이 맞는지 확인 부탁드립니다.
-
미해결한시간으로 끝내는 LangChain 기본기
RAG와 MCP의 차이가 조금 헷갈립니다
강사님 RAG와 MCP의 차이가 조금 헷갈립니다!
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
postgresql의 pgvector 벡터는 어떤가요?
안녕하세요.이번에 회사 내부에서 AI Agent를 도입 예정인데요.회사 DB는 대부분 postgresql로 구성되어 있는데, postgresql에서 pgvector 벡터 데이터베이스를 제공하더라고요?사용해도 성능이 괜찮을지.. 혹시 경험이 있을지 궁금해서요. 혹시 주위분들에게 들은 거라도 있으신지 ㅠ
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
doc관련
소득세법 을 최신파일로 다운받고 똑같이 했는데(물론 다른 결과가 나오는게 정상이지만), 좀 다르게 나오네요. 실습파일을 올려주시면 좋을 거 같아요.(1년저니라 다를수도) " 결과"연봉 5천만원인 직장인의 소득세 계산은 복잡하며, 여러 단계에 걸쳐 이루어집니다. 기본적으로 근로소득공제, 인적공제, 추가공제 등을 통해 과세표준을 구하고, 이에 소득세율을 적용하여 산출세액을 계산합니다. 이후 다양한 세액공제를 적용하여 최종 납부할 세액을 산출하게 됩니다. 구체적인 계산은 다음과 같습니다. 1. 근로소득공제: - 연봉 5천만원에 대한 근로소득공제를 적용합니다. 공제액이 2천만원을 초과하는 경우에는 2천만원을 공제합니다. 따라서 근로소득공제액은 2천만원입니다. 2. 과세표준 계산: - 과세표준 = 총급여 - 근로소득공제 - 기타 필요경비(기본공제, 추가공제 등) - 기본공제는 연 150만원입니다. (단일 거주자로 가정) - 과세표준 = 5천만원 - 2천만원 - 150만원 = 2,850만원 3. 세율 적용: - 과세표준 구간별로 소득세율이 다르게 적용됩니다. (예: 2,850만원일 경우 소득세율은 일반적으로 \[단순한 설명을 위해 특정 세율로 계산\]) - 실제 세율 적용 과정은 복잡하며, 과세표준 구간에 따른 누진세율을 반영하여 정확하게 계산해야 합니다. 4. 세액공제 등: - 연금보험료공제 등 다른 공제항목들이 있으면 추가로 반영합니다. 이외에도 세금 계산 시 다양하고 복잡한 규정들이 많으므로, 정확한 세금 계산을 위해 세무사 등 전문가의 도움을 받는 것이 좋습니다. 개인의 소득구조, 부양가족, 제출 가능한 증빙자료 등에 따라 최종 세액은 크게 달라질 수 있습니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
load_dotenv() 실행 False
from dotenv import load_dotenvload_dotenv() 전단계 모두 설치 다되었는데요위 코드 실행하면 False가 나옵니다. ㅠㅠ
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
RAG 답변 개선을 위한 정답지 활용 구조 검토 요청
강사님 안녕하세요! 지난번 알려주신 구글 시트 로그 적재 팁 덕분에 챗봇 로그가 잘 쌓이고 있습니다. 감사합니다.이렇게 수집된 [피드백 데이터]*를 활용해 챗봇 성능을 높이려 하는데, 아래 방식으로 구현해도 괜찮을지 의견 여쭙니다! (*데이터 내용: 사용자질문/챗봇답변/평가(좋아요, 싫어요)/답변개선방향)[현재 고민] 피드백 받은 답변개선방향(ex. 챗봇 답변이 ~~식으로 되어야 합니다)을 실시간 프롬프트에 반영하자니 케이스도 많고, 답변 속도도 저하될 것 같아서, 아예 [피드백 데이터]에서 답변을 잘하지 못한 질문에 대한 [정답 답변]을 만들어서 우선 검색하는 방식을 고려 중입니다.[고려 중인 로직]QA데이터셋(정답지): 사용자 질문과 정답 답변(담당팀 검수 답변) 간 유사도 비교분기 처리(Threshold):유사도 0.9 이상: QA 데이터의 답변을 즉시 반환 (LLM 생성 X)유사도 0.9 미만: 기존 RAG 프로세스 (문서 검색 -> LLM 답변 생성) [문의 사항]방법론 검증: 위와 같이 임계값(Threshold 0.9)을 임의로 정하고 정답지 검색을 앞단에 배치하는 방식이 실무적으로 괜찮은 접근일까요?대안 문의: 일반적으로 현업에서 피드백(Human Feedback) 데이터를 RAG에 반영하여 정확도를 높일 때 사용하는 더 나은 방법이 있을까요?바쁘시겠지만 짧게라도 조언 주시면 큰 도움이 될 것 같습니다! 참고로 저는 비개발자입니다!
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
단순 도구 사용과 도구를 가진 에이전트를 사용하는 것의 차이가 궁금합니다.
안녕하세요 강사님.3.7 강의에서 도구를 가진 에이전트들을 사용해 Supervisor로 멀티 에이전트를 구현하셨는데, stock price를 가져오는 것과 같은 부분은 꼭 에이전트가 아니여도 될 것 같은데 Supervisor로 멀티 에이전트를 만들 때 단순 도구로 사용하는 것 보다 도구를 가진 에이전트로 사용하는 것이 더 좋아서 이렇게 구현하신건지 궁금합니다!
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
노션URL 이동문제
교재에 작성된 노션URL로 이동이 안됩니다
-
해결됨[1시간 완성] AI로 4.5점(A+) 만드는 공부법
인강으로 공부할때는 어떻게 하나요?
인강 같은 경우에는 녹음하기가 불편한데 저같은 경우 Y잭을 연결해서 하는 듣고 하나는 스마트폰에 가까이 대서 녹음하는데 이러면 소리를 크게해야해서 조용히 인강을 듣는 것을 선호하는 저에게는 귀만아프고 불편하기만하는데 다른 방법이 있나요?
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
아나콘다랑 pytry없이. 단순 파이참에서 venv 설정해서 설치하는건 불가능하나요?
학습 관련 질문이 있으시면, 상세하게 남겨주세요.문제가 발생한 부분의 코드를 함께 올려주세요.수업 영상 몇 분/초 구간인지 알려주세요.
-
미해결Spring WebFlux + LLM 실전 구현
gemini-flash 기본 모델 업데이트 후 변경사항이 생겼네요
강의 제작해주셨을 때는 gemini flash 기본 모델 버전이 2.0 이었던거 같은데 2.5로 최근에 업데이트가 된 거 같네요. webClient 요청 uri에서도 버전을 2.5로 명시를 해줘야 정상적으로 요청 응답이 오는데 다른 분들 참고하시면 좋을 거 같아 올려봅니다.
-
미해결입문자를 위한 LangChain 기초
LLM 응답속도
안녕하세요! LangChain 관련 강의를 수강하고 있습니다.다름이 아니라 응답 속도에 관해서 질문드리고싶은데요.LLM(e.g., OpenAI)에 입력(질문)한다.OpenAI의 API Call이 수행된다.OpenAI에서 응답이 BE로 전달된다.이 순서가 될텐데. 이 때, 강의를 보면 AIMessage가 금방 도출이 되는데. 질문의 길이가 길고, 전문적이게 된다면 응답의 속도가 느려지는건지 궁금합니다.
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
2.4 강의 관련 질문(답변을 검증하는 self rag)
안녕하세요좋은 강의 감사드립니다. 강의에서 이해가 안되는 부분이 생겨 질문드립니다. 2.4 답변을 검증하는 self rag 에서, hallucination을 판단하는 부분에 대한 질문입니다. node가 hallucination을 잘 판단하지 못하자, 강의에서는 크게 3가지 조치를 취하셨는데요hallucination prompt 직접 작성hallucination_llm의 temperature = 0 으로 설정generate_llm의 max_completion_tokens를 100, 50 으로 감소근데 저는 강의대로 따라해도, 계속 hallucinated, not hallucinated가 번갈아가면서 나오더라고요. max_completion_tokens을 100 --> 70, 50으로 감소시켜도, test하는 셀을 여러번 돌리면 hallucinated, not hallucinated가 번갈아가면서 나옵니다. 답변 내용을 보면, 저의 answer는 5천만원에 대한 소득세를 624만원으로 잘 계산을 하는데 check_hallucination만 판단을 잘 못하는것 같았습니다. 답변을 "소득세는 624만원입니다." 이런 식으로만 짧게 대답을 하다보니, hallucination에 대한 판단을 잘 못하는것 같다는 느낌을 받았습니다. 그래서 chatgpt의 도움을 받아서 아래와 같이 수정을 하니 hallucination에 대한 판단은 일관되게 not hallucinated로 판단하더라고요. generate_llm의 max_completion_tokens를 200, 300 정도로 증가generate_prompt를 직접 작성하면서, 작성할때 답변에 대한 근거도 같이 제시하라고 지시아마도 답변에 대한 근거가 같이 제시되면서 hallucination에 대한 판단에 도움을 준 것 같습니다. 그런데 문제가 있습니다 ㅠ 소득세 계산을 잘 못합니다. 수업 코드로 하면 소득세 계산은 624만원으로 매번 잘 계산을 하지만, 이렇게 바꾸는 경우 소득세 계산이 맞을때도 있고 틀릴때도 있습니다. 그럼 현실에서는 max_completion_tokens 을 150, 100 이렇게 조절해가면서 중간의 타협점?을 찾는 것이 방법인지요? 아니면 제 방법이 틀린 것인지, 다른 방법이 있는 것인지 코멘트 해주시면 감사하겠습니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
누적입력에서 겹치는 방식으로 넘어간 이유
앞 텍스트들로 다음 단어 하나를 예측한다고 했는데, 왜 슬라이딩 윈도에서는 입력과 타깃이 겹쳐져있는건가요?또한 앞 텍스트부터 누적한 다음, 타깃 한 단어만 예측하는 것으로 이해했습니다. 왜 4개씩 나누는 것인지 궁금합니다.왜 갑자기 슬라이딩 윈도우로 넘어간것인지 그 중간단계가 이해되지 않습니다.
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
후속강의 문의
선생님 안녕하세요좋은 강의 감사드립니다. llm, agent 등을 처음 접하는데, 선생님 강의 덕분에 수월하게? 진입할 수 있었습니다. 복습은 정말 많이 해야할 것 같지만요 ㅎㅎ 수업 후반부에 eval 관련 후속강의 언급을 하셨는데, 혹시 언제쯤 출시 예정이신가요?
-
미해결RAG 마스터: 기초부터 고급기법까지 (feat. LangChain)
2.7 전체 RAG파이프라인 구성에서 4번째 줄 오류
from langchain.chains.combine_documents import create_stuff_documents_chain이 부분에서 에러가 납니다TypeError: Fields of type "<class 'langchain_core.runnables.base.Runnable'>" are not supported.,
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
쿠폰 관련 질문입니다.
안녕하세요. LLM 챌린지만 신경쓰다가 <대규모 언어 모델, 핵심만 빠르게!>와 <머신러닝, 핵심만 빠르게!>의 쿠폰 등록을 놓치고 말았습니다. 바보같은 실수네요. 다시 등록을 해주실 수 있으실까요? 감사합니다.
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
3.6 강의 관련 질문(interrupt 관련)
선생님 안녕하세요좋은 강의 감사합니다. 강의를 보며 소스코드를 실행하고 있는데, 3.6 강의에서 수업에 나온 영상과 다르게 코드가 작동하는 부분이 있어서 질문드립니다. agent가 제시한 도구는 그대로 사용하되, args를 바꾸는 경우수업에서는 아래 코드를 쓰면 바로 요약된 AIMessage가 작성되도록 진행이 되는데, for chunk in graph.stream( Command(resume={"action": "update_args", 'data' : {'query' : "Large Language Model : A Survey 논문의 내용을 검색해서 요약해주세요"}},), config, stream_mode="updates", # values가 아니다. 수정할때는 updates ): print(f'chunk == {chunk}') 저는 아래와 같이 나옵니다. 여기에서 continue를 해도 계속 같은 메시지가 무한반복이 되어버리는 현상이 나옵니다; agent가 제시한 도구를 바꾸는 경우이 경우에도 위에 처럼 continue를 했음에도 불구하고 계속 "이렇게 진행하면 될까요?" 를 물어보는 현상이 나옵니다. 계속 continue를 해도 같은 현상이 반복되고요 혹시 선생님도 같은 오류가 발생하는지 확인이 가능하실까요? 혹시 이런 오류는 어떤 이유때문에 발생하는 것인지도 답변이 가능하시면 정말 감사하겠습니다. llm 모델을 small_llm이 아니라 일반 llm으로 하니 정상적으로 나오네요. small_llm의 한계 때문에 다음 단계로 못넘어가는 것일까요?다음 단계로 넘어가는건 비교적 쉬운 task 같은데 small llm의 어떤 부분? 때문에 이런 무한 loop 오류가 발생하는 것인지도 궁금합니다. 답변이 가능하신 선에서 말씀해주시면 감사하겠습니다.
-
해결됨메이드 인 RAG(로컬 LLM Q&A시스템) With Docker + ollama + R2R
파일 업로드 에러
강의 내용대로 설정하여 http://localhost:7273/documents 페이지에서 문서를 업로드하였는데, 아래와 같은 메시지가 표시되면서 업로드가 실패하였습니다.Upload FailedStatus 500: An error "500: Error during ingestion:OpenAl credentials not configured but openai/ model prefix used' occurred during create_document내용 확인 부탁드립니다.감사합니다.
-
미해결LangGraph를 활용한 AI Agent 개발 (feat. MCP)
그래프 구현 조언 부탁드립니다!
안녕하십니까! 강사님! 항상 질문에 대한 답변을 잘 해주심에 감사드립니다!목표는 학교 정보 챗봇이고 강사님의 강의 수강을 바탕으로 그래프 구현해보고 있습니다.현재 에이전트로는1) 웹 크롤링 하고 임베딩 시킨 정보를 바탕으로답변해주는 에이전트(학사일정, 장학금, 휴학 등)2) 의도와 다른 질문이 왔을 때 답변해주는 기본 llm현재 이렇게 있습니다 여기다가 에이전트를 하나 더 추가해서 멀티 에이전트로 라우팅해서 사용하거나 툴콜링 기법을 연습해보려 하는데 추가 계획중인 에이전트는 다음과 같습니다.3) 웹 사이트 공지사항에 대한 정보를 기반으로 답변해주는 에이전트공지사항은 실시간성과 특정 기간에 대한 정보가 강하기 때문에 에이전트를 분리해야한다고 생각했습니다.위의 해당 내용을 구현하기 위해서는 공지사항 크롤링 자동화 파이프라인을 구축한 후 이를 실시간으로 계속 임베딩을 시켜야할지 아니면 임베딩 기법이 아닌 다른 방법으로 구현하는게 좋을지에 대한 의문이 있습니다. 경험이 많으신 강사님께서의 노하우가 궁금합니다!또한 위처럼 구현하게 될 경우 1번 에이전트와 3번 에이전트를 라우터 할때 시스템 프롬포트가 애매하다고 생각됩니다. 강사님이라면 어떻게 하실지 노하우에 대한 조언을 듣고 싶습니다!!지식이 부족해서 깔끔하게 질문을 드리지 못함에 죄송합니다..! 감사합니다