묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
파인튜닝 모델 사용과 결과 검증 시스템 최적 설계 방법 문의드립니다!
안녕하세요, 선생님.번역 시스템 구조에 대해 여쭙고 싶습니다. 제가 구현하고자 하는 시스템은 다음과 같습니다특정 문장에 대해 파인튜닝 된 번역 모델로 1차 번역을 수행합니다. (이 단계는 필수입니다.)번역된 결과에 대해 더 큰 모델을 사용하여, 특정 조건 하에 문맥에 맞게 번역이 잘 되었는지를 검증하려고 합니다.이 시스템에서 최적의 구조와 전략에 대해 조언을 구하고 싶습니다. 조언 주시면 감사하겠습니다!감사합니다. 😊
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
안녕하세요 모델 관련해서 질문드립니다.
외부에 오픈할 토이프로젝트를 진행하려고 무료 API를 찾다보니,Amazon Lex 모델이 1년간 매일 일정량을 무료로 제공하고 있더라구요. AI를 처음 사용해보는거라 OPEN AI 처럼 강의 예시인 소득세법 챗봇을 구현하는게 가능한 모델인지 모르겠어서 강사님 의견을 여쭤보고싶습니다!
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
'NoneType' object is not subscriptable 에러 해결법 공유
안녕하세요. 강의 내용 따라하다가 아래 에러가 발생해서 공유드립니다.전체 소스코드는 글 맨 아래에 링크로 첨부했습니다. 위 코드를 실행했을 때, 결과가 잘 나올때도 있지만 종종 에러가 발생합니다. 에러 내용에 따르면 check_doc_relevance 함수에서 response에 아무것도 안담겨있어서 발생했다고 나오네요. 왜인지는 모르겠지만, 문서 관련성 판단 LLM이 작동하지 않은걸로 보입니다.그래서 저는 아래와 같이 response 에 아무것도 안담겨있다면 rewrite를 반환해서 노드를 다시 실행시키도록 했습니다.def check_doc_relevance(state: AgentState) -> Literal['generate', 'rewrite']: """ 주어진 state를 기반으로 문서의 관련성을 판단합니다. Args: state (AgentState): 사용자의 질문과 문맥을 포함한 에이전트의 현재 state. Returns: Literal['generate', 'rewrite']: 문서가 관련성이 높으면 'generate', 그렇지 않으면 'rewrite'를 반환합니다. """ query = state['query'] # state에서 사용자의 질문을 추출합니다. context = state['context'] # state에서 문맥을 추출합니다. # 문서 관련성 판단 체인을 구성합니다. doc_relevance_chain = doc_relevance_prompt | llm # 질문과 문맥을 사용하여 문서의 관련성을 판단합니다. response = doc_relevance_chain.invoke({'question': query, 'documents': context}) # ==================================== # 응답이 없는 경우에는 로그를 출력하고 'rewrite'를 반환합니다. if not response: print("No Response!!!") return 'rewrite' # ==================================== # 관련성이 높으면 'generate'를 반환하고, 그렇지 않으면 'rewrite'를 반환합니다. if response['Score'] == 1: return 'generate' return 'rewrite'위 코드 수행 결과:check_doc_relevance 가 두 번 다시 실행되어서 원하는 결과가 나왔습니다. 참고로 저는 강의에 쓰인 OpenAI 대신 UpstageAI 모델을 사용하고 있습니다.from langchain_upstage import ChatUpstage llm = ChatUpstage()저처럼 OpenAI 모델을 사용하지 않고 개발하다가 같은 문제를 겪는다면 도움이 되길 바랍니다. 전체 소스코드 링크: https://drive.google.com/file/d/1_WP4DM1OWFiP226WksXvjG5Em9dOaqPp/view?usp=sharing
-
미해결Prompt Engineering: 완벽 가이드
음성 누락
19분에서 21분 음성이 안나와요
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
2.2강 8:33 강사님 설명 하신 에러 외 poppler 설치 요구 에러.
c:\miniforge3\envs\inflearn-langgraph-lecture\Lib\site-packages\pydantic\_internal\_config.py:345: UserWarning: Valid config keys have changed in V2:* 'fields' has been removed warnings.warn(message, UserWarning)ERROR:root:Error converting PDF to images: Unable to get page count. Is poppler installed and in PATH?--> ## 추가 설치 해야 할 패키지(강사님은 안함: 애플은 필요 없는 패키지 같음)# Poppler 설치: Poppler(https://github.com/oschwartz10612/poppler-windows/releases/download/v24.08.0-0/Release-24.08.0-0.zip)를 다운로드하여 설치합니다. 운영체제에 맞는 Poppler 바이너리를 다운로드하여 압축을 풀고 적절한 위치에 저장합니다. - (Windows의 경우, bin 폴더의 경로를 기억해두세요.)# 환경 변수 설정 (Windows): (1) 시스템 환경 변수 편집기(검색창에 "환경 변수" 검색)를 엽니다.# (2) "시스템 속성" 창에서 "환경 변수" 버튼을 클릭합니다.# (3) "시스템 변수" 섹션에서 "Path" 변수를 선택하고 "편집" 버튼을 클릭합니다.# (4) "새로 만들기" 버튼을 클릭하고 Poppler bin 폴더의 경로를 추가합니다. (예: C:\path\to\poppler-x.xx.x\bin)# (5) 모든 창을 닫고 변경 사항을 저장합니다.# (6) 터미널 또는 IDE 재시작: 환경 변수 변경 사항이 적용되도록 터미널 또는 IDE를 재시작합니다.
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
2.2 강의에 income_tax.pdf 파일이 git 에서 누락된것 같아요
안녕하세요~!중요한건 아니지만 ㅎㅎ documents 폴더 밑에 income_tax.pdf 파일이 누락된것 같습니다.https://www.law.go.kr/%EB%B2%95%EB%A0%B9/%EC%86%8C%EB%93%9D%EC%84%B8%EB%B2%95%EC%8B%9C%ED%96%89%EB%A0%B9저는 위 링크로 가서 직접 받아서 코드 실행에는 문제 없었습니다~
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[섹션3, PyTorch로 구현해보는 Loss Function] 분류task loss함수 질문입니다.
좋은 강의 정말 잘 듣고있습니다. 항상 감사합니다.다름이 아니라 nn.BCEloss 나 nn.BCEWithLogitsLoss에서 이름에 B(Binary)가 들어가 이진분류 문제에 사용하는 함수인가 싶었는데, 실습 강의때 처럼 다중 분류 문제의 loss 함수로 사용해도 괜찮은 것인지 여쭙고 싶습니다.generate_onehot 함수는 클래스가 10개인 다중분류 데이터를 생성합니다.batch_size = 16 n_class=10 def generate_onehot(batch_size=16, n_class=10): pred = torch.nn.Softmax()(torch.rand(batch_size, n_class)) gt = torch.rand(batch_size, n_class) gt = torch.tensor(gt == torch.max(gt, dim=1, keepdim=True)[0]).float() # convert to onehot return pred, gt
-
해결됨LangGraph를 활용한 AI Agent 개발 (feat. MCP)
repository 클로닝 오류
git clone 하는 중에 error: inavalid path '2.6 SubGraph: LangGraph Agent를 Node로 활용하는 방법.ipynb'뜨면서 클론리포가 안되서요. 파일경로에 포함된 (:) 특수문자 때문이라고 gpt가 알려줬는데 원격저장소에서 파일 이름을 변경하기를 권장하네요..
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
채팅 히스토리 관련
안녕하세요Azure OpenAI 기반 챗봇 개발 중에, 사용자와 챗봇의 채팅 히스토리를 기록하려 합니다.ex) 챗봇의 문맥 파악, 채팅 로그 분석 등 이 때에 채팅 히스토리를 저장하는 합리적인 방법이 어떤게 있을까요?(현재 테스트 단계에서는 인메모리를 사용하고있습니다.) 감사합니다, 새해 복 많이 받으세요.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
추가 질문입니다. pinecone class
강의를 통해 개인정보배우미 챗봇을 만드는 중pinecone의 init 에 대한 이슈가 발생됩니다 ㅠㅠ서칭해보니 pinecone 자체 업데이트를 한것 같은데요.... 혹시 아래 장애 관련해서 이슈사항을 고칠 수 있는 방법이 있을까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
Usage Limit 관련해서 질문이 있습니다!
만약에 openai api를 사용해서 챗봇 서비스를 프로덕션 환경에서 배포해서 사용자들이 사용할 수 있도록 한 경우, 만약 많은 사용자로 인해 Usage Limit이 초과 되면 어떻게 해야할까요? Usage Tier 1 기준 gpt-4o-mini 모델의 한도:RPM(분당 요청): 500RPD(일당 요청): 10000TPM(분당 토큰): 200000gpt-4o-mini 모델을 사용한 챗봇을 배포했다고 가정했을 때 많은 사용자로 인해 요청 횟수를 넘어가게 되면 어떻게 해야할까요?사용자 별로 제한을 둬야하는 걸까요? 분당 몇 번, 하루에 몇 번 질문 가능 이런식으로..?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
embedding에 upstage를 사용하려 하는데 chroma 과정에서 에러가 납니다
openai말고 upstage를 사용하려고 하고 있는데 embedding쪽에서 에러가 발생합니다.RemoteProtocolError라고 뜨는데 왜 그런걸까요?3.1.2강의에서 알려주신 upstage를 이용한 chat은 정상적으로 동작하였습니다. from langchain_upstage import UpstageEmbeddings embedding = UpstageEmbeddings(api_key="oooooooo", model="embedding-passage") from langchain_chroma import Chroma database = Chroma.from_documents(documents=document_list, embedding=embedding, collection_name='chroma-tax', persist_directory='./chroma') --------------------------------------------------------------------------- RemoteProtocolError Traceback (most recent call last) .... APIConnectionError: Connection error.
-
미해결AI 에이전트로 구현하는 RAG 시스템(w. LangGraph)
homebrew로 poetry를 설치했는데 pyproject.toml 파일 내용이 다릅니다.
brew로 poetry를 설치했는데 생성된 pyproject.toml 파일 내용이 아래와 같이 강의와 다릅니다. [project]name = "langgraph-agent"version = "0.1.0"description = ""authors = [{name = "이름",email = "email 주소"}]readme = "README.md"requires-python = ">=3.13"dependencies = [] [build-system]requires = ["poetry-core>=2.0.0,<3.0.0"]build-backend = "poetry.core.masonry.api" requires-python = ">=3.13" 부분은 >=3.11로 변경해서 3.11 설치를 했는데요.의존성 목록을 어떻게 붙여넣어야하나요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
SSLCertVerificationError 오류 관련
안녕하세요 수강 중에 아래와 같이 관련된 오류가 계속 노출되어 진행이 되지 않아 질문 드립니다.from langchain import hub prompt = hub.pull('rlm/rag-prompt') 를 호출 시 아래와 같이 SSLCertVerificationError 가 나타나고 있습니다. Failed to get info from https://api.smith.langchain.com: LangSmithConnectionError('Connection error caused failure to GET /info in LangSmith API. Please confirm your internet connection. SSLError(MaxRetryError("HTTPSConnectionPool(host=\'api.smith.langchain.com\', port=443): Max retries exceeded with url: /info (Caused by SSLError(SSLCertVerificationError(1, \'[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certificate chain (_ssl.c:992)\')))"))\nContent-Length: None\nAPI Key: ')내용을 보면 api.smith.langchain.com 에 연결 시 인증서 문제로 접속이 불가하다라는 내용 같은데요, 해당 관련하여 비슷한 오류를 겪으신 분들 어떻게 해결하셨는지 궁금합니다. 답변 부탁 드리겠습니다. 감사합니다
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
소득세법 파일
처음에 어떤프로그램으로 열고 다시 세이브할때 어떻게 하나요?word 읽기기능만 있도록 해서 리드했는데 다시 세이브 기능은 비활성화 됩니다.
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
환경설정문제
poetry 설치후 실행시 오류가 발생합니다.환경변수도 설정하였는데 이유를 못찾겠습니다.poetry 설치된 폴더 가보면 exe 파일은 미존재하던데 그것때문인건지... 환경설정이 되질 않아서 실습을 하지 못해서 답답하네요..
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
단순히 LLM에 여러번 질문 하는데에도 Langchain이 도움이 될까요?
현재 대화를 분석하는 프로젝트를 진행하면서 LLM을 사용중인데 답변 퀄리티를 높이기 위한 방법을 모색하다 강의를 보게 되었습니다 ! 강의 내용이 대부분 제가 모르고 있던 것들이어서 많은 도움이 되었습니다. 그런데 제가 해결해야할 상황은 강의 내용과 다르게 참고할만한 특정 정보가 있는 것이 아닌 일상적인 여러 상황의 대화를 분석하는 프로젝트이다보니 Langchain이나 Chroma 또는 Pinecone 까지 사용해야 할지가 의문입니다. 지금 생각중인 흐름은답변 작성 규칙 과 대화 텍스트를 LLM 에 전달해서 답변을 전달 받고답변과 유저 질문을 함께 다시 LLM 에 전달해서 답변 내용을 토대로 유저 질문에 답변이 구조를 생각중인데, 이렇게 LLM에 질문, 답변받은 내용을 가지고 다시 질문 하는데에도 Langchain이나 embedding을 사용하는 것이 답변 퀄리티 향상에 도움을 주는지 궁금합니다 ! 강의 잘 들었습니다. 감사합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
pinecone 에 document 가 중복으로 저장이 되나요?
document list 를 pinecone 에 넣는 코드를 실행해서 콘솔에 변경된 것을 확인했습니다.그다음에 document 추가하는 코드를 주석하는 것을 까먹고, 한번 더 실행했는데, 이러면 동일 데이터가 추가로 저장 되는 건가요?감사합니다.
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
storm 아키텍쳐 구현하기
강사님 안녕하세요.langgraph_web_storm.ipynb 파일을순차적으로 실행하고 있는데IndexError: list index out of range와 같은 에러가 나는 이유를 알고 싶습니다.그 전에도 class editor: name 부분에서 pattern 적용에서 문제가 발생하는 것 같은데 한 번 더 검토해주시면 감사하겠습니다. 감사합니다!example_answer = await gen_answer( {"messages": [HumanMessage(content=question["messages"][0].content)]} ) example_answer["messages"][-1].content
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
RetrievalQA is Deprecated
RetrievalQA 가 0.1.17 버전 이후로 Deprecated 되었다고 마이그레이션 가이드를 보고 다음과 같이 바꿨습니다.from langchain import hub from langchain.chains import create_retrieval_chain from langchain.chains.combine_documents import create_stuff_documents_chain retrieval_qa_chat_prompt = hub.pull("langchain-ai/retrieval-qa-chat") combine_docs_chain = create_stuff_documents_chain(llm, retrieval_qa_chat_prompt) rag_chain = create_retrieval_chain(database.as_retriever(), combine_docs_chain) rag_chain.invoke({"input": query})위 예시는 잘 작동하는데, rml/rag-prompt 를 사용하면,KeyError: "Input to ChatPromptTemplate is missing variables {'question'}. Expected: ['context', 'question'] Received: ['input', 'context']\nNote: if you intended {question} to be part of the string and not a variable, please escape it with double curly braces like: '{{question}}'.\nFor troubleshooting, visit: https://python.langchain.com/docs/troubleshooting/errors/INVALID_PROMPT_INPUT "가 발생하는데, template 의 placeholder 의 형태가 달라서인것 같은데, 어떻게 키값을 설정해야 하나요?