묻고 답해요
160만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결GPT + Bitget API로 만드는 실전 자동매매: 나만의 선물거래 봇 완전히 구현
TP_DELTA랑 SL_DELTA에 들어가는 값
둘의 값을 200이라는 공통된 값으로 두는 이유가 혹시 궁금합니다. 비트코인의 가격이 달라질때마다 값을 변동시켜주어야할것같은데, 혹시 맞을까요 ?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
커널 시작 에러
주피터 노트북에서 %pip install langchain-openai python-dotenv이 코드를 실행 하면 아래 에러가 자꾸 뜹니다.커널을 시작하지 못했습니다. 커널 'venv (3.11.9) (Python 3.11.9)'을(를) 시작하지 못했습니다. 자세한 내용은 Jupyter 로그을 참조하세요. listen EFAULT: bad address in system call argument 192.168.30.146:9001 참고로 저는 윈도우 유저고 가상환경은 venv를 사용하고 있습니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
RAG와 파인튜닝 접근 전략
안녕하세요 너무 유익한 강의 잘 듣고 있습니다 :) 강의를 듣다보니 RAG와 파인튜닝은 LLM의 할루시네이션을 줄이고 특정 도메인에 대한 지식을 주입하면서 더 적절한 답변을 낼 수 있다는 측면에서 닮아 보인다는 느낌을 받았습니다.물론 두 방법의 차이나 적용 사례는 구글링하면서 쉽게 찾을 수 있지만 만약 강사님이 특정 도메인에 특화된 LLM을 개발하신다면 어떤 기준과 절차로 RAG와 파인튜닝을 선택하고 활용하시는지 강사님의 개인적인 생각이 궁금합니다 :)
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
RAG 및 AI Agent 개발을 위한 Python 학습
기존 자바 스프링 백엔드로 학습하고 있는데, 인공지능 분야 학습을 하려고하는데, Python을 어느정도로 학습해야할지 궁금합니다.기본적인 개념은 이해하겠는데, 문법 등이 낯선 부분들이 많이 있습니다.혹시 추천해주실만한 강의가 있으신지 궁금합니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
upstage 사용
4강 부터 upstage 관련해서 업데이트가 안된것 같네요 openai -> upstage로 바꾸는 방법이나 샘플 코드가 있으면 좋을것 같습니다. docs나 지피티 참고해가면서 바꾸고 있는데 굉장히 힘드네요
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
성능 측정 방식
강의를 듣다보면 임베딩 및 프롬프트의 성능에 대해서 "어떤것이 좋다" 라고 말씀십니다. 혹시 그런 성능들은 직접 모두 수행해봐야 하는건가요? 아니면 어떤 상황에서는 어떤것의 성능이 더 좋다라는 데이터가 존재할까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
pdf화일을 임베딩하고 싶어요
현재 국가전산망 화재로 소득세법을 '국가법령센터'가 장애중입니다. 대체사이트인 (사법정보공개포탈)에서는 PDF와 TXT만 다운로드가 가능합니다. 대부분 pdf화일 문서가 많은데, word말고 pdf문서를 임베딩하는 방법/강의가 있었으면 합니다. 추가로, 문서내 텍스트외에 도형이나 표같은경우는 어떻게 임베딩을 하면 좋을까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
RAG 구조에서 전체 맥락을 이해시키는 방법
안녕하세요, 강사님.강의 덕분에 RAG를 활용한 챗봇을 성공적으로 구현해서 잘 사용하고 있습니다!(질문1)다만, RAG 구조상 사용자의 질문과 가장 유사한 문서 조각(chunk)을 찾아서 그 안에서만 답변을 생성하다 보니, 전체 문서를 이해해서 답변을 해주지는 못하는 점이 아쉽습니다.RAG로 학습시킨 매뉴얼이 약 47페이지 정도이고 양이 많지 않은데,이 전체 매뉴얼의 내용 전체를 이해하고 종합적으로 답변할 수 있는 방법이 있을까요?출처를 알려줄 수 있는 RAG의 분명한 장점이 있어서, 현재의 RAG 기반 구조를 유지한 채 개선을 할 수 있는 방법이 있을지 궁금합니다. (질문2)47페이지 문서 외에 더 자세한 매뉴얼을 추가로 반영하려고 하는데요,이때 pinecone에 동일 DB(인덱스)로 그냥 추가하는게 좋을지 아니면 더 나은 구조가 있을지 조언 구하고 싶습니다.감사합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
ㅠ 업스테이지 임베딩을 못 쓰네요..
업스테이징 임베딩에서 오픈ai쪽 _AllReturnType를 사용하는건가요?ㅠ버전 문제 같은데, 해결 방법이 없을까요 ? --------------------------------------------------------------------------- ImportError Traceback (most recent call last) Cell In[12], line 2 1 from dotenv import load_dotenv ----> 2 from langchain_upstage import UpstageEmbeddings 4 load_dotenv() 5 embedding = UpstageEmbeddings( 6 model = "solar-embedding-1-large" 7 ) File ~/IdeaProjects/inflearn-llm-app/.venv/lib/python3.10/site-packages/langchain_upstage/__init__.py:1 ----> 1 from langchain_upstage.chat_models import ChatUpstage 2 from langchain_upstage.document_parse import UpstageDocumentParseLoader 3 from langchain_upstage.document_parse_parsers import UpstageDocumentParseParser File ~/IdeaProjects/inflearn-llm-app/.venv/lib/python3.10/site-packages/langchain_upstage/chat_models.py:43 41 from langchain_core.utils import from_env, secret_from_env 42 from langchain_core.utils.function_calling import convert_to_openai_tool ---> 43 from langchain_openai.chat_models.base import ( 44 BaseChatOpenAI, 45 _AllReturnType, 46 _convert_message_to_dict, 47 _DictOrPydantic, 48 _DictOrPydanticClass, 49 _is_pydantic_class, 50 ) 51 from pydantic import BaseModel, Field, SecretStr, model_validator 52 from tokenizers import Tokenizer ImportError: cannot import name '_AllReturnType' from 'langchain_openai.chat_models.base' (/Users/xeroman.k/IdeaProjects/inflearn-llm-app/.venv/lib/python3.10/site-packages/langchain_openai/chat_models/base.py)
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
upstate import 가 안됩니다.
---------------------------------------------------------------------------ImportError Traceback (most recent call last) Cell In[3], line 1 ----> 1 from langchain_upstage import ChatUpstage 2 llm = ChatUpstage() File ~/Documents/dev/Langchain/devInf/.venv311/lib/python3.11/site-packages/langchain_upstage/__init__.py:1----> 1 from langchain_upstage.chat_models import ChatUpstage 2 from langchain_upstage.document_parse import UpstageDocumentParseLoader 3 from langchain_upstage.document_parse_parsers import UpstageDocumentParseParser File ~/Documents/dev/Langchain/devInf/.venv311/lib/python3.11/site-packages/langchain_upstage/chat_models.py:4341 from langchain_core.utils import from_env, secret_from_env 42 from langchain_core.utils.function_calling import convert_to_openai_tool ---> 43 from langchain_openai.chat_models.base import ( 44 BaseChatOpenAI, 45AllReturnType, 46convert_message_to_dict, 47DictOrPydantic, 48DictOrPydanticClass, 49ispydantic_class, 50 ) 51 from pydantic import BaseModel, Field, SecretStr, model_validator 52 from tokenizers import Tokenizer ImportError: cannot import name '_AllReturnType' from 'langchain_openai.chat_models.base' (/Users/frair/Documents/dev/Langchain/devInf/.venv311/lib/python3.11/site-packages/langchain_openai/chat_models/base.py)이런 메세지이고요from langchain_upstage import ChatUpstage llm = ChatUpstage()해당부분 실행시 나타납니다.파이썬 3.11.9 버전 사용하고 있고 설치된 랭체인들을 보니 langchain_openai-0.3.34langchain)upstage-0.7.3버전으로 설치가 되어있기는 합니다.venv 사용하고 있고 맥os 실리콘 쓰고있습니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
3.3 코드 에러
3.3 LangChain 없이 구성하는 RAG의 불편함.ipynb의 8번째tax_collection = chroma_client.get_or_create_collection(collection_name, embedding_function=openai_embedding)에서 아래의 에러가 납니다.ValueError: An embedding function already exists in the collection configuration, and a new one is provided. If this is intentional, please embed documents separately. Embedding function conflict: new: openai vs persisted: default 어떻게 해야하나요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
현업에서 LangChain 사용에 대해 질문드립니다
안녕하세요 강사님 강의 듣고 이젠 스스로가 재밌어서 LangChain 문서들 혼자서 읽고 학습중입니다 ㅎㅎ강의를 들으면서 몇개 질문들이 있는데요현업에서 LangChain이 많이 쓰이나요?해외 reddit이나 개발자 커뮤니티에서도 랭체인이 오히려 불편하다고, 실제 서비스에서는 안쓴다고 하는 분들이 있어서 현업에서도 잘 쓰는지 궁급합니다LangChain 공식 문서를 보면 너무 자주 바뀌는데, 어떻게 해결하시나요?특히 API에서 말하는 예제랑 공식 문서에서 소개하는 예제가 너무 다릅니다 (retrieval chain 등)현재 2025년 10월 기준, 강의 내용은 0.2 기반이고 현재 랭체인 버전은 0.3, 그리고 10월 말에 1.0이 정식 출시된다고 해서 너무 혼란스럽네요바뀔 떄마다 코드를 수정하시는건가요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
출처를 좀 더 명확하게 표시해주고 싶습니다!
강의에서는 출처를 제공할 때, 프롬프트 설정을 통해 제공하는 형태로 되어있는데어떤 문서에서 몇 페이지에 있는 건지 표시해주기Pinecone기준 코사인 유사도를 숫자로 환산해 표시해주기좀 더 확실한 출처 제공을 위해 위에 적은 기능을 활용해보고 싶은데, 어떤 부분을 수정해줘야 할까요?지피티 대답이 너무 중구난방에 수정해도 오류가 계속 발생해서 여쭤봅니다!
-
미해결입문자를 위한 LangChain 기초
system 메세지는 정의가 되어 있는 건가요?
안녕하세요. 소스 내용중에 아래와 같은 것이 있습니다. ("system":"이 시스템은 여행 전문가 입니다."),("user":"{user_input}"), 사용자의 질문이 뭐가 들어올지 모르는 상황에서 여행 전문가라고 지정하는 것이 의미가 있는 것인지요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
split_text 문의
안녕하세요.코드를 보면 문서를 인코딩 후 청크 단위로 나눈 다음 다시 디코딩하여 임베딩 하는데요.언뜻 생각하기로는 다시 디코딩하는 것이 효율적이지 않은 것 같은데요. 바로 임베딩하지 않고 디코딩하여 임베딩하는 이유가 있을까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
hub.pull("rlm/rag-prompt") 실행 시 오류가 발생합니다.
위 이미지처럼 코드 실행 시 오류가 발생하는데, 원인 파악이 안돼서 여쭤보고자 합니다.이전에는 LangSmith API KEY 미존재 오류가 발생하여 .env 파일에 LANGCHAIN_API_KEY, LANGCHAIN_TRACING_V2 값 모두 등록해놓은 상태입니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
배포 시 requirement.txt 유무
배포 시 requirement.txt 가 존재하지 않을 때는 배포가 되지 않았는데, 추가하니까 배포가 정상적으로 됩니다. 해당 파일은 배포 시 필수 파일인가요 ?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
10강 궁금증
10강에서 OpenAIEmbeddings -> UpstageEmbeddings로 변경하는 과정을 따라하고 있었습니다. 궁금한 점은 query = "연봉 5천만원인 직장인의 소득세는 얼마인가요?" reviewed_docs = database.similarity_search(query, k=3) 이렇게 진행을 하시고, 또 아래와 같은 코드를 왜 실행시키는지 궁금합니다.# 이제 QA 체인 만들기 from langchain.chains import RetrievalQA qa_chain = RetrievalQA.from_chain_type(llm=llm, retriever=database.as_retriever(), chain_type_kwargs={"prompt" : prompt})QA 체인이 문서 검색 기능을 해주는 것으로 알고 있는데 왜 위에서 "reviewed_docs = database.similarity_search(query, k=3) " 을 넣으신건지 궁금합니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
문서 못 찾음
%pip install --upgrade --quiet docx2txt langchain-community from langchain_community.document_loaders import Docx2txtLoader from langchain_text_splitters import RecursiveCharacterTextSplitter text_splitter = RecursiveCharacterTextSplitter(chunk_size=1500, chunk_overlap=200) # 사이즈는 하나의 청크가 가지는 토큰 수, 오버랩을 통해 유사도 검색시 우리가 원하는 문서 가져오는 확률 높임(앞뒤 문맥 주기 가능) loader = Docx2txtLoader("./tax.docx") document_list = loader.load_and_split(text_splitter=text_splitter) %pip install -qU langchain-text-splitters document_list len(document_list) from langchain_openai import OpenAIEmbeddings from dotenv import load_dotenv load_dotenv() embedding = OpenAIEmbeddings(model="text-embedding-3-large") %pip install -qU langchain-chroma from langchain_chroma import Chroma # database = Chroma.from_documents(documents=document_list, embedding=embedding, collection_name="chroma-tax", persist_directory="./chroma") database = Chroma(collection_name="chroma-tax", persist_directory="./chroma", embedding_function=embedding) print(database._collection.count()) # 문서 개수 query = "연봉 5천만원인 직장인의 소득세는 얼마인가요?" # reviewed_docs = database.similarity_search(query, k=3) from langchain_openai import ChatOpenAI llm = ChatOpenAI(model="gpt-4o") %pip install -U langchain langchainhub --quiet from langchain import hub prompt = hub.pull("rlm/rag-prompt") prompt # 이제 QA 체인 만들기 from langchain.chains import RetrievalQA qa_chain = RetrievalQA.from_chain_type(llm=llm, retriever=database.as_retriever(), chain_type_kwargs={"prompt" : prompt}) ai_messgae = qa_chain.invoke({"query" : query}) ai_messgae인강을 들으며 코드를 동일하게 작성하였는데 관련 문서 내용을 찾지 못하여 답변이 저렇게 나오는데 어느 부분이 문제인지 모르겠습니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
Golden Dataset 관련 질문
안녕하세요. 강의 잘 듣고 있습니다. 강의에서 evaluation을 위한 golden dataset을 chatgpt로 생성하셨는데 실무에서는 보통 어떻게 처리하시는지 궁금합니다. 실무에서도 LLM이나 인공지능을 활용하여 dataset을 만드시나요? 아니면 사람이 개입해서 수집이나 조사 등을 통해 작성하시나요?