GS 그룹 AI Agent 플랫폼 개발/운영
GS 그룹 DX BootCamp 멘토/코칭
Stanford University Code in Place Python Instructor
(전) 시리즈 C 인공지능 스타트업 테크리드
네이버 부스트캠프 웹/모바일 멘토
네이버 클라우드 YouTube Channel presenter
원티드 프리온보딩 프론트엔드/백엔드 챌린지 진행 (누적 6000+)
항해 AI 플러스코스 1기 코치
강의
로드맵
전체 1수강평
- 한시간으로 끝내는 LangChain 기본기
- RAG를 활용한 LLM Application 개발 (feat. LangChain)
- RAG를 활용한 LLM Application 개발 (feat. LangChain)
- RAG를 활용한 LLM Application 개발 (feat. LangChain)
게시글
질문&답변
rag 데이터 가져오는 부분에서 질문드립니다!
안녕하세요! OpenAPI를 활용해서 가져온 데이터를 prompt에 넣어주시고 LLM을 호출하시면 됩니다. pseudo code로 가볍게 보여드리자면 system_prompt = """{open_api_response} 에 있는 내용을 참조해서 사용자 질문에 답변해주세요 """ chat_prompt = ChatPromptTemplate.from_messages([ ("system", system_prompt), ("human", '{question}') ]) llm_chain = ( chat_prompt # 프롬프트 템플릿에 정보 전달 | llm # LLM으로 계산 수행 | StrOutputParser() # 결과를 문자열로 변환 ) llm_chain.invoke({"open_api_response": , "question": "사용자 질문"})
- 0
- 3
- 38
질문&답변
선생님 질문 있습니다 한번 봐주세여~!
안녕하세요 좋은 질문 감사합니다데이터를 벡터DB에 저장할 때 조금 더 전처리를 세밀하게 하셔야 되는 상황인 것 같습니다. 단순히 글자수로만 자르면 문맥이 이상하게 엮여서 참조문서를 이상하게 가져오는 것 같아요. 아니면 예제들을 활용해서 어떤 인풋이 들어갔을 때 어떤식으로 답변을 생성해야 하는지 조금 더 구체적으로 작성해주는 것도 좋을 것 같습니다. 강의에서는 사용자 질문 LLM 답변의 few shots만 활용하는데, 참고되는 문서들도 같이 few shots로 활용하는 방법이 있을 것 같고. 그래도 안되면 reranking을 해서 가져온 문서들의 우선순위를 한번 다듬을 필요가 있을 것 같습니다
- 0
- 2
- 14
질문&답변
embedding 과정 중 Error, message length too large 발생
공식문서를 다시보니 데이터 추가할 때 2MB 제한이 또 있네요. 용량을 체크해서 보면 좋겠지만 일단은 batch 형식으로 나눠서 넣어봤습니다. 그리고 함수 인자랑 변수명을 맞추기 위해서 변수명이 살짝 다른걸 확인해주세요! import sys import json from typing import List, Any from langchain_core.documents import Document from langchain_core.embeddings import Embeddings from langchain_pinecone import PineconeVectorStore from langchain_community.document_loaders import Docx2txtLoader from langchain_text_splitters import RecursiveCharacterTextSplitter from langchain_ollama import OllamaEmbeddings from dotenv import load_dotenv load_dotenv() def batch_add_documents( pinecone_store: PineconeVectorStore, documents: List[Document], batch_size: int = 10 ) -> None: """ Add documents to an existing Pinecone index in fixed-size batches using a while loop. Args: pinecone_store: Existing PineconeVectorStore instance documents: List of Document objects to process batch_size: Size of each batch (default 10) """ idx = 0 total_docs = len(documents) while idx 저는 GPU가 없어서 시간이 엄청 오래걸리네요 (사진)검색도 잘 됩니다.(사진) 파인콘 설정도 같이 공유드려요~(사진)
- 0
- 3
- 84
질문&답변
embedding 과정 중 Error, message length too large 발생
안녕하세요!document_list 를 선언하신 부분도 같이 공유해주실 수 있나요? splitting이 정상적으로 이루어지지 않은 것 같습니다. 만약 split도 제대로 되었다면 전체 용량 문제라 말씀하신것처럼 나누어서 업데이트를 해야하는 것 같아요. 공식문서 상으로는 retrieve할 때 4MB 제한을 두고있어서 데이터를 추가할 때 에러를 띄우는 것 같습니다.
- 0
- 3
- 84
질문&답변
맞는 답변은 5,000만원 이하에 대한 내용이어야 할것 같아요
안녕하세요! 참조한 구간을 떠나서 답변은 동일하게 나오던가요?금액만 보면 말씀하신 것처럼 5천만원 이하 구간에 들어가는게 맞습니다. 이게 제가 Upstage 임베딩이 한국어 임베딩에서는 제일 좋다고 말씀드리는 이유입니다. 그런데 문맥만 따져보면 금액을 잘 계산한다는 전제하에 참고하는 것은 두 구간 모두 맞다고 보셔도 됩니다 5천만원 초과 8800 이하 구간에서도 5천만원까지는 고정금액 + 초과금액에 따른 세율 적용이기 때문에 문맥상 앞에있는 고정금액만 가져왔다면 답변은 정확하게 생성했을거에요. 3.6강으로 넘어가시면 조금 더 정확한 답변을 보실 수 있을겁니다. 한번 확인하시고 추가로 공유해주셔도 좋습니다~
- 0
- 2
- 29
질문&답변
Hugging face LLM 모델 사용 질문이요
안녕하세요 구동은 아직 못해봤는데 허깅페이스 모델의 답변이 사용장 인풋을 포함해서 리턴한다면 에 해당하는 부분만 추출해야 동작하겠네요. chain에서 처리하거나 아니면 write하는 시점에서 처리하거나 작업이 필요할 것 같습니다. 혹시 해결하셨으면 해결방법을 공유해주시면 다른분들께도 많은 도움이 될 것 같습니다! 아니라면 저도 다음주에 한번 시도해볼게용
- 0
- 2
- 39
질문&답변
langchain 홈페이지 관련이요
안녕하세요! 위치만 바뀌었을 뿐 내용은 똑같습니다. DocxLoader 링크를 전달드립니다검색하실 때 langchain 처럼 검색하시면 찾기 편하실거에요. 제가 공유드린 링크를 찾기위해 시도한 검색 스크린샷 같이 공유 드립니다(심지어 오타가 있었네용)(사진)
- 0
- 2
- 38
질문&답변
tailwind 4.x 버전 변경된 CSS 추출(?) 커맨드
공유해주셔서 감사합니다! 강의자료에 업데이트 해두도록 하겠습니다
- 0
- 2
- 52
질문&답변
No module named 'langchain_chroma' 발생해요
안녕하세요! 모듈을 사용할 때는 from langchain_chroma 인데 설치할 때는 pip install langchain-chroma 로 진행하셔야 합니다
- 0
- 2
- 61
질문&답변
또다른 오버플로우
제가 알림을 놓쳤네요 혹시 해결하셨을까요? 인프런 인턴의 답변에 1번으로 진행하시면 됩니다 2번으로 하면 Constraints 때문에 스타일이 깨질거에요
- 0
- 2
- 22