묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
안녕하세요 답변 길이에 관한 질문을 좀 드리고 싶은데
안녕하세요 답변 길이에 관한 질문을 좀 드리고 싶은데 llm에 넘긴건 문서 1,2장 정도 되는 길이로 보내는데 답변은 3,4 줄 밖에 안 나오는데 답변의 길이나 퀄리티를 좋게 해달라는 문구를 넣어도 그대로인 부분은 개선이 불가능한걸까요??
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
Elasticsearch 를 벡터 데이터베이슬 활용가능한가요
여러 벡터 데이터베이스가 나왔는데 혹시 Elasticsearch 를 docker로 설치하고 사용하는 경우도 있는지 궁금합니다. Elasticsearch 도 벡터 데이터베이스를 지원한다는 글을 읽은바가 있고, 검색엔진 분야에서는 Open 소스로 많이 활동되다는 점에서 활용성이 좋아보여서 질문 드립니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
엄....이거 java, kotlin 개발자는 어떻게 이해를 해야 할까 대게 고민에 빠지네요
그래도 눈치가 제법 빠른편인데 notebook 이나 파이썬...이거 모르겠는데 어떻하나 걱정되는데요? 일단 임베디드와 기존의 LLM의 차이는 뭔가요
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
llm의 응답에 대해서 언어 설정도 가능한가요??
llm의 응답에 대해서 언어 설정도 가능한가요??어떤 질문을 했을 때 한국어로 나오게 한다거나, 일본어로 나오게 한다거나, 영어로 나오게도 가능한가요??
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
챗봇 생성시 에러
안녕하세요, gemini를 이용해서 챗봇 생성중에 있습니다.그런데 하기와 같이 챗봇을 llm과 연동하는 중에 에러가 계속 발생합니다.gpt한테 계속 물어가면서 에러잡고있는데 계속 동일한 에러만 나오네요. ㅠ어떻게 개선할 수 있을까요? 조언부탁드립니다. 감사합니다.코드)import streamlit as st from langchain import hub from dotenv import load_dotenv from langchain_google_genai import GoogleGenerativeAIEmbeddings from langchain_pinecone import PineconeVectorStore from langchain_google_genai import ChatGoogleGenerativeAI from langchain.chains import RetrievalQA from langchain.prompts import ChatPromptTemplate st.set_page_config(page_title="영향분석 챗봇", page_icon="★") st.title("영향분석 챗봇") st.caption("System 변경 영향 분석") load_dotenv() # 세션 상태에 메시지 리스트가 없으면 초기화 if 'message_list' not in st.session_state: st.session_state.message_list = [] # 이전 메시지 출력 for message in st.session_state.message_list: with st.chat_message(message["role"]): st.write(message["content"]) def get_ai_message(user_message): try: # 입력 메시지 확인 if not isinstance(user_message, str) or not user_message.strip(): return "질문이 비어 있습니다. 유효한 질문을 입력해 주세요." print(f"user_message: {user_message}") # user_message의 내용 출력 print(f"user_message length: {len(user_message)}") # 문자열 길이 출력 print(f"user_message type: {type(user_message)}") # 타입 출력 # Google Generative AI Embeddings 모델 초기화 embedding = GoogleGenerativeAIEmbeddings(model='models/gemini-embedding-exp-03-07') index_name = 'uml-index' database = PineconeVectorStore.from_existing_index(index_name=index_name, embedding=embedding) llm = ChatGoogleGenerativeAI(model="gemini-2.0-flash") prompt_template = hub.pull("rlm/rag-prompt") retriever = database.as_retriever(search_kwargs={'k': 4}) # RetrievalQA 인스턴스 생성 qa_chain = RetrievalQA.from_chain_type(llm, retriever=retriever, chain_type_kwargs={"prompt": prompt_template}) dictionary = ["External Entity -> actor"] prompt = ChatPromptTemplate.from_template(f""" 사용자의 질문을 보고, 우리의 사전을 참고해서 사용자의 질문을 변경해주세요. 만약 변경할 필요가 없다고 판단된다면, 사용자의 질문을 변경하지 않아도 됩니다. 그런 경우에는 질문만 리턴해주세요. 사전 : {dictionary} 질문 : {{question}} """) dictionary_chain = prompt | llm uml_chain = {"query": dictionary_chain} | qa_chain ai_message = uml_chain.invoke({"question": user_message}) return ai_message except Exception as e: print(f"오류 발생: {repr(e)}") # 오류 메시지 출력 print(f"입력된 user_message: {user_message}") # 오류 발생 시 입력된 메시지 출력 return f"오류가 발생했습니다: {repr(e)}" # 사용자 입력 처리 if user_question := st.chat_input(placeholder="CR 내용을 첨부해주세요"): with st.chat_message("user"): st.write(f"사용자 질문: {user_question}") st.session_state.message_list.append({"role": "user", "content": user_question}) ai_message = get_ai_message(user_question) with st.chat_message("AI"): st.write(ai_message) st.session_state.message_list.append({"role": "AI", "content": ai_message}) 에러)user_message: 시스템에 연결된 External Entity를 알려주세요user_message length: 31user_message type: <class 'str'>오류 발생: GoogleGenerativeAIError('Error embedding content: bad argument type for built-in operation')입력된 user_message: 시스템에 연결된 External Entity를 알려주세요
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
pinecone 임포트 부분이 에러가발생합니다
파이썬 버전 3.10.11입니다윈도우 vscode에서 테스트해보고 있어요
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
PineconeApiException 어떻게 해결하나요?
13번째 동영상 들으면서 따라하는 중이고 OpenAI API 사용 중인데, 아래 코드만 돌리면,PineconeApiException HTTP response body: {"code":11,"message":"Error, message length too large: found 15431073 bytes, the limit is: 4194304 bytes","details":[]} 이러한 에러가 뜹니다.이를 해결하기 위해서, chunk_size = 10, chunk_overlap=0 으로 줄였는데도 계속 에러가 떠요.어떻게 하면 해결할 수 있나요? database = PineconeVectorStore.from_documents( document_list, embedding, index_name=index_name )
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
gemini 오류관련 질문드립니다.
안녕하세요, 강의 반복중에 있습니다.이번에는 gemini로 RAG를 구축해보려고 하는데,API Key를 활성화했음에도 계속 하기와 같은 에러가 뜹니다.ㅠ 제가 놓친 부분이 있을까요?from langchain_google_genai import ChatGoogleGenerativeAI llm = ChatGoogleGenerativeAI( model="gemini-2.0-flash", temperature=0, max_tokens=None, timeout=None, max_retries=2, # other params... ) llm.invoke("인프런에 어떤 강의가 있나요?") --------------------------------------------------------------------------- PermissionDenied Traceback (most recent call last) Cell In[2], line 1 ----> 1 llm.invoke("인프런에 어떤 강의가 있나요?") File c:\Users\yunjeong2.lee\Desktop\VenvWorkspace\myenv\Lib\site-packages\langchain_google_genai\chat_models.py:1255, in ChatGoogleGenerativeAI.invoke(self, input, config, code_execution, stop, **kwargs) 1250 else: 1251 raise ValueError( 1252 "Tools are already defined." "code_execution tool can't be defined" 1253 ) -> 1255 return super().invoke(input, config, stop=stop, **kwargs) File c:\Users\yunjeong2.lee\Desktop\VenvWorkspace\myenv\Lib\site-packages\langchain_core\language_models\chat_models.py:372, in BaseChatModel.invoke(self, input, config, stop, **kwargs) 360 @override 361 def invoke( 362 self, (...) 367 **kwargs: Any, 368 ) -> BaseMessage: 369 config = ensure_config(config) 370 return cast( 371 "ChatGeneration", --> 372 self.generate_prompt( 373 [self._convert_input(input)], 374 stop=stop, 375 callbacks=config.get("callbacks"), ... metadata { key: "method" value: "google.ai.generativelanguage.v1beta.GenerativeService.GenerateContent" } ] Output is truncated. View as a scrollable element or open in a text editor. Adjust cell output settings...
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
LLM 애플리케이션과 AI Agent 차이점이 뭐에요?
개념상 똑같은거 같아요.예를들어 세무 전용 Agent 서비스가 있다고하면 결국 그게 LLM 서비스이고, LLM 애플리케이션이자, RAG 솔루션 아니에요? AI Agent = LLM 서비스 = LLM 애플리케이션 = RAG 솔루션 다같은말이에요?? 너무헷갈려요
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
데이터 전처리 관련 질문드립니다
"3.5 Retrieval 효율 개선을 위한 데이터 전처리" 강의에서 세율 데이터를 표로 LLM에 전달하다가마크다운으로 변경했는데 데이터를 읽어오지 못합니다표로 데이터를 전달했을 때는 데이터를 잘 읽어갔는데 왜 그런 걸까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
langsmith 사용하지 않고 개발 가능한가요?
안녕하세요현재 유료 결제나 외부로 API를 연동하는 것이 사내 보안 규정 상 어려운 상황입니다.강의에 나온 대로 langchain-core 라이브러리를 활용하는 경우 core 내부에 langsmith를 쓰는 import 가 있어 langsmith를 반드시 사용 해야하는 상황입니다. langsmith가 유료로 변경되면 API 키가 필요한 상황이라 현재 사내에서는 사용이 어려울 것 같습니다.이런 경우 langsmith를 사용하지 않고 유사하게 기능을 구현하는 방법이 있는지 궁금합니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.6 질문
624만원이 안나와요 ㅠ
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.4.1 PineconeVectorStore.from_documents() 안됩니다.
Upstage를 사용해도, exceeded 되었다고 에러나서요. 뭔가 최근에 토큰 제한이 줄었나봐요. 아래와 같이 batch를 주어서 반복문으로 요청후 database.add_documents(batch)하는 방식으로 해야되네요 ㅠㅠ from langchain_pinecone import PineconeVectorStore # 데이터를 처음 저장할 때 index_name = 'tax-upstage-index' # Split documents into smaller chunks text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=100) chunked_documents = text_splitter.split_documents(document_list) print(f"Chunked documents length: {len(chunked_documents)}") # Initialize the PineconeVectorStore database = PineconeVectorStore.from_documents( documents=[], # Start with an empty list embedding=embedding, index_name=index_name ) # Upload documents in batches batch_size = 100 for i in range(0, len(chunked_documents), batch_size): print(f'index: {i}, batch size: {batch_size}') batch = chunked_documents[i:i + batch_size] database.add_documents(batch) # Add documents to the existing database
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.4강 Pinecone API 인식 못 하는 문제
안녕하세요, 강의들으면서 도움 많이 받고 있습니다.Pinecone API를 .env에 적었지만 인식을 못해서하기와 같이 직접적으로 입력해주었습니다.그런데 하기 부분에서 또 다시 정의가 안 되었다고 에러가 뜹니다.어디를 수정해야할까요?커널?을 껐다켰다하면 되는 분도 있다고 해서 따라해봤는데 잘 안 되는 것 같습니다.ㅠ
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.2 RAG구성_400 에러 문의드립니다.
안녕하세요, 3.2 RAG구성 강의 중 하기 부분에서 막혔습니다. 조언 요청드립니다. OpenAI 대신, Upstage를 쓰고 싶어하기와 같이 코드 수정을 하였습니다.그런데 두번째 캡쳐 그림 부터 에러가 발생합니다.Upstage가 유효하지 않다고 하는 것 같은데...무엇이 잘못된 것 일까요? 그리고 실습을 위해 OpenAI를 결제해야한다면 얼마정도 하면, 완강하는데 문제없을까요?! Error code: 400 - {'error': {'message': 'The requested model is invalid or no longer supported. You can find the list of available models on our models page (https://console.upstage.ai/docs/models)', 'type': 'invalid_request_error', 'param': '', 'code': 'invalid_request_body'}}
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.1 pyenv 설치관련
안녕하세요, 비개발자로서 하나씩 따라하려고 수강중에 있습니다.MAC이 아닌 PC인데 pyenv 말고 venv? 로 파이썬 가상환경 만들어도 되는 것인가요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
답변 정확성이 떨어지는 것 같습니다
Upstage의 모델을 사용하는데 답변의 정확성이 떨어지는 것 같습니다. 아래 캡처 화면을 보면 retriever가 페이지를 가져오는 것 까지는 괜찮아 보이는데, 가져온 문서의 내용을 적용하여 계산하는 것, 그리고 심지어 기본적인 수학적 계산도 종종 오류를 냅니다 ㅜㅜ 더 정확한 답변을 내도록 할 방법이 있을까요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
배포시 버전 에러가 생깁니다
streamlit에서 배포시 위와 같은 에러가 발생합니다 ㅜㅜ파이썬 버전은 3.10.2이고, requirements.txt는 아래와 같습니다. aiohappyeyeballs==2.6.1aiohttp==3.10.11aiosignal==1.3.2altair==5.5.0annotated-types==0.6.0anyio==4.3.0asgiref==3.8.1asttokens==3.0.0async-timeout==4.0.3attrs==25.3.0backoff==2.2.1bcrypt==4.3.0blinker==1.9.0build==1.2.2.post1cachetools==5.5.2certifi==2022.12.7charset-normalizer==3.1.0chroma-hnswlib==0.7.6chromadb==0.6.3click==8.1.8colorama==0.4.6coloredlogs==15.0.1comm==0.2.2contourpy==1.2.0cycler==0.12.1dataclasses-json==0.6.7debugpy==1.8.14decorator==5.2.1Deprecated==1.2.18distro==1.9.0docx2txt==0.9durationpy==0.9exceptiongroup==1.2.0executing==2.2.0fastapi==0.115.12filelock==3.18.0flatbuffers==25.2.10fonttools==4.47.2frozenlist==1.6.0fsspec==2025.3.2gitdb==4.0.12GitPython==3.1.44google-auth==2.39.0googleapis-common-protos==1.70.0greenlet==3.2.2grpcio==1.71.0h11==0.14.0httpcore==1.0.4httptools==0.6.4httpx==0.27.0httpx-sse==0.4.0huggingface-hub==0.30.2humanfriendly==10.0idna==3.4importlib_metadata==8.6.1importlib_resources==6.5.2iniconfig==2.1.0ipykernel==6.29.5ipython==8.36.0jedi==0.19.2Jinja2==3.1.6jiter==0.9.0joblib==1.4.2jsonpatch==1.33jsonpointer==3.0.0jsonschema==4.23.0jsonschema-specifications==2025.4.1jupyter_client==8.6.3jupyter_core==5.7.2kiwisolver==1.4.5kubernetes==32.0.1langchain==0.3.25langchain-chroma==0.2.3langchain-community==0.3.23langchain-core==0.3.58langchain-openai==0.3.16langchain-pinecone==0.2.6langchain-tests==0.3.19langchain-text-splitters==0.3.8langchain-upstage==0.6.0langsmith==0.3.42markdown-it-py==3.0.0MarkupSafe==3.0.2marshmallow==3.26.1matplotlib==3.8.2matplotlib-inline==0.1.7mdurl==0.1.2mmh3==5.1.0mpmath==1.3.0multidict==6.4.3mypy_extensions==1.1.0narwhals==1.38.2nest-asyncio==1.6.0numpy==1.26.4oauthlib==3.2.2onnxruntime==1.21.1openai==1.78.0opentelemetry-api==1.32.1opentelemetry-exporter-otlp-proto-common==1.32.1opentelemetry-exporter-otlp-proto-grpc==1.32.1opentelemetry-instrumentation==0.53b1opentelemetry-instrumentation-asgi==0.53b1opentelemetry-instrumentation-fastapi==0.53b1opentelemetry-proto==1.32.1opentelemetry-sdk==1.32.1opentelemetry-semantic-conventions==0.53b1opentelemetry-util-http==0.53b1orjson==3.10.18overrides==7.7.0packaging==23.2pandas==2.2.3parso==0.8.4pillow==10.2.0pinecone==6.0.2pinecone-plugin-interface==0.0.7platformdirs==4.3.8pluggy==1.5.0posthog==4.0.1prompt_toolkit==3.0.51propcache==0.3.1protobuf==5.29.4psutil==7.0.0pure_eval==0.2.3pyarrow==20.0.0pyasn1==0.6.1pyasn1_modules==0.4.2pydantic==2.11.4pydantic-settings==2.9.1pydantic_core==2.33.2pydeck==0.9.1Pygments==2.19.1pyparsing==3.1.1pypdf==4.3.1PyPika==0.48.9pyproject_hooks==1.2.0pyreadline3==3.5.4pytest==8.3.5pytest-asyncio==0.26.0pytest-socket==0.7.0python-dateutil==2.8.2python-dotenv==1.1.0pytz==2025.2pywin32==305PyYAML==6.0.2pyzmq==26.4.0referencing==0.36.2regex==2024.11.6requests==2.32.3requests-oauthlib==2.0.0requests-toolbelt==1.0.0rich==14.0.0rpds-py==0.24.0rsa==4.9.1scikit-learn==1.5.1scipy==1.14.0shellingham==1.5.4six==1.16.0smmap==5.0.2sniffio==1.3.1SQLAlchemy==2.0.40stack-data==0.6.3starlette==0.46.2streamlit==1.45.0sympy==1.14.0syrupy==4.9.1tenacity==9.1.2threadpoolctl==3.5.0tiktoken==0.9.0tokenizers==0.19.1toml==0.10.2tomli==2.2.1tornado==6.4.2tqdm==4.66.2traitlets==5.14.3typer==0.15.3typing-inspect==0.9.0typing-inspection==0.4.0typing_extensions==4.13.2tzdata==2025.2urllib3==1.26.15uvicorn==0.34.2watchdog==6.0.0watchfiles==1.0.5wcwidth==0.2.13websocket-client==1.8.0websockets==15.0.1wrapt==1.17.2yarl==1.20.0zipp==3.21.0zstandard==0.23.0
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
langChain 최신버전 문서
최신 버전 LangChain 문서의 <How to add chat history> 부분이 강의 영상이랑 대부분 다른 것 같은데 강의 영상 코드 기준으로 진행해도 문제가 없을까요?(https://python.langchain.com/docs/how_to/qa_chat_history_how_to/#chains)
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
배포 시 오류 (Chroma sqlite3 버전 오류)
안녕하세요 강사님.마지막 Streamlit Cloud 배포 후 버전 오류가 발생해서 질문 납깁니다!Python은 3.10.17 버전 사용하고 있습니다.retriever에 pinecone 사용하지 않고 Chroma 를 사용했고요, requirements.txt 에 버전은 langchain-chroma==0.2.3chromadb==0.6.3로 들어가 있습니다.오류는 unsupported version of sqlite3. Chroma requires sqlite3 >= 3.35.0.라고 뜨는 걸 보면 chromadb 에서 sqlite3 를 사용하고 그 버전 오류인 것 같은데요.. 어떻게 조치를 할지 검색해도 잘 모르겠어서 질문 남깁니다. 감사합니다.