묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
Usage Limit 관련해서 질문이 있습니다!
만약에 openai api를 사용해서 챗봇 서비스를 프로덕션 환경에서 배포해서 사용자들이 사용할 수 있도록 한 경우, 만약 많은 사용자로 인해 Usage Limit이 초과 되면 어떻게 해야할까요? Usage Tier 1 기준 gpt-4o-mini 모델의 한도:RPM(분당 요청): 500RPD(일당 요청): 10000TPM(분당 토큰): 200000gpt-4o-mini 모델을 사용한 챗봇을 배포했다고 가정했을 때 많은 사용자로 인해 요청 횟수를 넘어가게 되면 어떻게 해야할까요?사용자 별로 제한을 둬야하는 걸까요? 분당 몇 번, 하루에 몇 번 질문 가능 이런식으로..?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
embedding에 upstage를 사용하려 하는데 chroma 과정에서 에러가 납니다
openai말고 upstage를 사용하려고 하고 있는데 embedding쪽에서 에러가 발생합니다.RemoteProtocolError라고 뜨는데 왜 그런걸까요?3.1.2강의에서 알려주신 upstage를 이용한 chat은 정상적으로 동작하였습니다. from langchain_upstage import UpstageEmbeddings embedding = UpstageEmbeddings(api_key="oooooooo", model="embedding-passage") from langchain_chroma import Chroma database = Chroma.from_documents(documents=document_list, embedding=embedding, collection_name='chroma-tax', persist_directory='./chroma') --------------------------------------------------------------------------- RemoteProtocolError Traceback (most recent call last) .... APIConnectionError: Connection error.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
SSLCertVerificationError 오류 관련
안녕하세요 수강 중에 아래와 같이 관련된 오류가 계속 노출되어 진행이 되지 않아 질문 드립니다.from langchain import hub prompt = hub.pull('rlm/rag-prompt') 를 호출 시 아래와 같이 SSLCertVerificationError 가 나타나고 있습니다. Failed to get info from https://api.smith.langchain.com: LangSmithConnectionError('Connection error caused failure to GET /info in LangSmith API. Please confirm your internet connection. SSLError(MaxRetryError("HTTPSConnectionPool(host=\'api.smith.langchain.com\', port=443): Max retries exceeded with url: /info (Caused by SSLError(SSLCertVerificationError(1, \'[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certificate chain (_ssl.c:992)\')))"))\nContent-Length: None\nAPI Key: ')내용을 보면 api.smith.langchain.com 에 연결 시 인증서 문제로 접속이 불가하다라는 내용 같은데요, 해당 관련하여 비슷한 오류를 겪으신 분들 어떻게 해결하셨는지 궁금합니다. 답변 부탁 드리겠습니다. 감사합니다
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
소득세법 파일
처음에 어떤프로그램으로 열고 다시 세이브할때 어떻게 하나요?word 읽기기능만 있도록 해서 리드했는데 다시 세이브 기능은 비활성화 됩니다.
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
환경설정문제
poetry 설치후 실행시 오류가 발생합니다.환경변수도 설정하였는데 이유를 못찾겠습니다.poetry 설치된 폴더 가보면 exe 파일은 미존재하던데 그것때문인건지... 환경설정이 되질 않아서 실습을 하지 못해서 답답하네요..
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
단순히 LLM에 여러번 질문 하는데에도 Langchain이 도움이 될까요?
현재 대화를 분석하는 프로젝트를 진행하면서 LLM을 사용중인데 답변 퀄리티를 높이기 위한 방법을 모색하다 강의를 보게 되었습니다 ! 강의 내용이 대부분 제가 모르고 있던 것들이어서 많은 도움이 되었습니다. 그런데 제가 해결해야할 상황은 강의 내용과 다르게 참고할만한 특정 정보가 있는 것이 아닌 일상적인 여러 상황의 대화를 분석하는 프로젝트이다보니 Langchain이나 Chroma 또는 Pinecone 까지 사용해야 할지가 의문입니다. 지금 생각중인 흐름은답변 작성 규칙 과 대화 텍스트를 LLM 에 전달해서 답변을 전달 받고답변과 유저 질문을 함께 다시 LLM 에 전달해서 답변 내용을 토대로 유저 질문에 답변이 구조를 생각중인데, 이렇게 LLM에 질문, 답변받은 내용을 가지고 다시 질문 하는데에도 Langchain이나 embedding을 사용하는 것이 답변 퀄리티 향상에 도움을 주는지 궁금합니다 ! 강의 잘 들었습니다. 감사합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
pinecone 에 document 가 중복으로 저장이 되나요?
document list 를 pinecone 에 넣는 코드를 실행해서 콘솔에 변경된 것을 확인했습니다.그다음에 document 추가하는 코드를 주석하는 것을 까먹고, 한번 더 실행했는데, 이러면 동일 데이터가 추가로 저장 되는 건가요?감사합니다.
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
storm 아키텍쳐 구현하기
강사님 안녕하세요.langgraph_web_storm.ipynb 파일을순차적으로 실행하고 있는데IndexError: list index out of range와 같은 에러가 나는 이유를 알고 싶습니다.그 전에도 class editor: name 부분에서 pattern 적용에서 문제가 발생하는 것 같은데 한 번 더 검토해주시면 감사하겠습니다. 감사합니다!example_answer = await gen_answer( {"messages": [HumanMessage(content=question["messages"][0].content)]} ) example_answer["messages"][-1].content
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
RetrievalQA is Deprecated
RetrievalQA 가 0.1.17 버전 이후로 Deprecated 되었다고 마이그레이션 가이드를 보고 다음과 같이 바꿨습니다.from langchain import hub from langchain.chains import create_retrieval_chain from langchain.chains.combine_documents import create_stuff_documents_chain retrieval_qa_chat_prompt = hub.pull("langchain-ai/retrieval-qa-chat") combine_docs_chain = create_stuff_documents_chain(llm, retrieval_qa_chat_prompt) rag_chain = create_retrieval_chain(database.as_retriever(), combine_docs_chain) rag_chain.invoke({"input": query})위 예시는 잘 작동하는데, rml/rag-prompt 를 사용하면,KeyError: "Input to ChatPromptTemplate is missing variables {'question'}. Expected: ['context', 'question'] Received: ['input', 'context']\nNote: if you intended {question} to be part of the string and not a variable, please escape it with double curly braces like: '{{question}}'.\nFor troubleshooting, visit: https://python.langchain.com/docs/troubleshooting/errors/INVALID_PROMPT_INPUT "가 발생하는데, template 의 placeholder 의 형태가 달라서인것 같은데, 어떻게 키값을 설정해야 하나요?
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
[질문드립니다] poetry export -f requirements.txt --output requirements.txt
선생님께서 알려주신대로 txt 파일 뽑은 후(해시가 담겨있는) requirements.txt 업로드 시 서버에서 아래와 같은 에러가 났었습니다. 혹시 몰라서 pip freeze > requirements.txt로 생성한 뒤 업로드 해보니 제대로 실행이 되더라고요...! 이게 왜 그런걸까요? 선생님께서는 현재도 poetry export -f requirements.txt --output requirements.txt 로 만든 후 업로드 해도 실행이 잘 되시는 걸까요?'에러': ===== Application Startup at 2025-01-09 14:21:54 ===== Traceback (most recent call last): File "/home/user/app/app.py", line 2, in <module> from dotenv import load_dotenv ModuleNotFoundError: No module named 'dotenv'QnA 정리:poetry export -f requirements.txt --output requirements.txt 한 후에 업로드 했더니 서버에서 모듈을 다운로드 하지 못함pip freeze > requirements.txt 로 한 후에 업로드 했더니 서버에서 모듈을 정상적으로 다운로드 하고 app.py를 실행함
-
해결됨코딩없이 시작하는 엑셀 크롤링. WEB부터 ChatGPT API까지
나라장터 URL 수집
다비 강사님 안녕하세요.강의 너무 잘 듣고 있습니다. 감사합니다. 나라장터 조달청 입찰공고 강의 중 내용을 실습하고 있는데요.몇 일전 나라장터 사이트가 리뉴얼이 되더니 URL 수집이 잘 안됩니다. 개발자 페이지에서 URL을 눌렀을때 preview도 loading중이라고만 뜨고 결과가 안나오며, 검색창에 입력해봐도 마찬가지입니다. 제가 뭘 놓치고 있는걸까요?조언 부탁 드립니다.
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
[심화질문] Gradio ChatInterface로 PDF 챗봇 애플리케이션 구현
안녕하세요. 유익한 콘텐츠 만들어주셔서 흥미롭게 강의를 듣고 있습니다. 이번 강의에서 질문드릴게 있어요.'Gradio ChatInterface로 PDF 챗봇 애플리케이션 구현' 마지막에 논문의 저자(attention all you need 논문)는 몇 명이냐?는 질문에 대한 답이 10명으로 나옵니다. 저도 똑같이 구현하고 chunk size, chuck overlap, temperature를 조절하면서 물어봐도 제대로 된 답변(정답은 8명)을 못하더라고요.그런데 똑같은 모델(gpt-4o-mini)을 Chatgpt 웹상에서 pdf 파일을 업로드 하고 몇 명이냐고 물어보면 정확하게 답변을 합니다.어떤 부분에서 문제가 되길래 이번 프로젝트에서 논문의 저자가 몇 명이냐는 질문에 제대로 된 대답을 못하는 걸까요?
-
미해결LLM 기초부터 최신 RAG·LangChain까지: 단 5시간 만에 LLM 기초과정 마스터!
openAi api 실습에대해서
파이썬을 따로 설치해서 실습해야하나요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
chatbot에 이전 답변 내역이 나타나지 않을 때 어떻게 해야할까요?
강의를 따라서 만들어 봤는데요..ㅠㅠ이전 질문한 항목의 답변이 남질 않는데 어떻게 해야할까요?여러가지 시도해보다가 강사님 코드로 붙여넣기해서 다시 한번 돌려봤는데도 문제가 동일하게 발생합니다..
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
LangSmith Evaluator로 Ollama 모델 설정
강의 전반을 개인 데스크탑에 도커를 설치하여 Ollama에 한국어로 파인튜닝된 llama3.2 모델을 사용하였었습니다.streamlit으로 만든 프로젝트도 문제없이 돌아갔었는데,Langsmith에서 Evaluator로 해당 모델을 설정하니 아래와 같은 에러가 나옵니다.langsmith에서는 ollama 모델로 평가를 할 수 없는건가요?ollama._types.ResponseError: llama3.2-ko does not support tools Error running evaluator <DynamicRunEvaluator answer_hallucination_evaluator> on run 38c51823-def2-4eb1-8347-c019874622eb: KeyError('contexts') Traceback (most recent call last): File "E:\PythonProject\rag_streamlit\.venv\Lib\site-packages\langsmith\evaluation\_runner.py", line 1573, in _run_evaluators evaluator_response = evaluator.evaluate_run( ^^^^^^^^^^^^^^^^^^^^^^^ File "E:\PythonProject\rag_streamlit\.venv\Lib\site-packages\langsmith\evaluation\evaluator.py", line 331, in evaluate_run result = self.func( ^^^^^^^^^^ File "E:\PythonProject\rag_streamlit\.venv\Lib\site-packages\langsmith\run_helpers.py", line 617, in wrapper raise e File "E:\PythonProject\rag_streamlit\.venv\Lib\site-packages\langsmith\run_helpers.py", line 614, in wrapper function_result = run_container["context"].run(func, *args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Temp\ipykernel_10064\4107259675.py", line 12, in answer_hallucination_evaluator contexts = run.outputs["contexts"] ~~~~~~~~~~~^^^^^^^^^^^^ KeyError: 'contexts' Error running evaluator <DynamicRunEvaluator answer_evaluator> on run 4a5e6612-1a97-4efc-9da4-ee0b4f113b70: ResponseError('llama3.2-ko does not support tools') # Prompt # hallucination 판단을 위한 프롬프트 grade_prompt_hallucinations = prompt = hub.pull("langchain-ai/rag-answer-hallucination") def answer_hallucination_evaluator(run, example) -> dict: """ hallucination 판단을 위한 Evaluator """ # 데이터셋에 있는 질문과, LLM이 답변을 생성할 때 사용한 context를 활용 input_question = example.inputs["input_question"] contexts = run.outputs["contexts"] # LLM의 답변 prediction = run.outputs["answer"] # LLM Judge로 사용될 LLM llm = ChatOllama( model="llama3.2-ko", base_url=os.getenv("LLM_BASE_URL"), temperature=0 ) # LLM 응답을 위한 LCEL 활용 # 3.6 `dictionary_chain`의 `prompt | llm | StrOutputParser()`` 의 구조와 유사함 answer_grader = grade_prompt_hallucinations | llm # Evaluator 실행 score = answer_grader.invoke({"documents": contexts, "student_answer": prediction}) score = score["Score"] return {"key": "answer_hallucination", "score": score}코드는 llm 부분만 ChatOllama를 사용하고 나머지 부분은 모두 동일합니다
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
범위를 제한한 검색 방법
안녕하세요. 코랩에 뉴스 기사만 검색하려면 아래 코드를 실행하면 된다고 말씀 주셨는데요.뉴스 외에 backend 또는 source로 설정 가능한 인자 값에는 어떤 것이 있나요?독스를 찾아보아도 다른 값은 찾을 수 없어 질문 드립니다. 감사합니다.search = DuckDuckGoSearchResults(backend="news")
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
강의 4.2 에서 langchain 코드 붙여 넣을 때,
이전에 했던 langchain 코드를 chat.py에 붙여 넣는데, 조금 따라가기가 어려운것 같습니다.. 혹시 코드 공유가 가능하실까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
강의자료 재업로드 요청드립니다.
다른분 질문 답변에 링크로 올려주셨는데 오류가 나타나 다시 재 업로드 요청드립니다
-
미해결모두를 위한 대규모 언어 모델 LLM Part 5 - LangGraph로 나만의 AI 에이전트 만들기
Llama + Search Tool 연동
안녕하세요. Llama 관련 강의 듣는 중 궁금한 점이 있어 문의 드립니다. 우선 강의 내용과 같이 Llama 3.1-8B 모델과 DDG 혹은 Tavily와 연동하여 오징어 게임 출시일에 대한 답변을 확인하였는데요. LangSmith 상으로는 DDG에서 Search 내용은 잘 가져오지만 Llama에서 답변을 완성할 때 아래와 같은 문구가 나오더라고요. 해당 이유와 관련해서는 특별하게 취해야 하는 조치가 있는 것일까요? 그리고, 다른 Llama 모델을 사용하여 tool에 연동해보려고 했는데요. (EEVE-Korean-10.8B) invoke 시 에러가 나면서 tool에 연동할 수 없다고 나오더라고요. 혹시 tool에 연동은 llama 공식 모델만 가능한 것일까요? 감사합니다.
-
해결됨남박사의 파이썬으로 봇 만들기 with ChatGPT
네이버 지도 api 호출 문제
InlineQuery와 스마트폰 위치 정보를 활요(용)한 주변 맛집 검색 파트에 6분8초에서 네이버 지도를 통해 네트워크에 해당 구간을 가져오는건데 여기서 새 탭에서 열기를 해야 가져올 수 있는데 지금 403 Forbiddennginx으로 못받아서 해당 내용을 못하게 되는데 다른 방법을 이용한 방법이 어떤것인지 정확히 모르겠습니다