묻고 답해요
167만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결Prompt Engineering: 완벽 가이드
강의자료 다운 불가
안녕하세요. 강의자료 다운로드를 받는데 압축폴더 내 파일이 없는 채로 다운이 됩니다. 강의자료를 어떻게 받아볼 수 있을까요?확인 부탁드립니다.감사합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
PineconeVectorStore import 에러
from langchain_pinecone import PineconeVectorStore를 실행하면ImportError: cannot import name 'PineconeVectorStore' from partially initialized module 'langchain_pinecone' (most likely due to a circular import) 라는 에러가 뜨면서 뭘 해도 안됩니다.어떻게 해야 해결 가능할까요?? 아직까진 인터넷에 정보가 많이 없네요.. chat GPT 도 해결을 못해주고요 .. 하도 답답해서 여기 문의 드립니다. 임포트한 패키지들 :__import__('pysqlite3') import sys sys.modules['sqlite3'] = sys.modules.pop('pysqlite3') from dotenv import load_dotenv from langchain_upstage import UpstageEmbeddings from langchain_community.document_loaders import Docx2txtLoader from langchain_text_splitters import RecursiveCharacterTextSplitter from langchain_pinecone import PineconeVectorStore파이썬 버전3.10.15
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
질 좋은 답변을 생성하는 방법이 있을까요?
안녕하세요. 강의 잘 듣고 있습니다. 듣던 차에 궁금한 부분이 있어 질문 남깁니다. (현재 섹션3 강의는 다 들은 상태입니다.)저는 NLP나 RAG 관련해서 전공 공부한 적이 없고 모르는 개념은 강의를 들으면서 그때그때 검색해서 공부하고 있습니다! 저희 질문이 "연봉 5천만원인 직장인의 소득세는?" 인데, 질문을 할 때마다 답변이 다르게 나오는 건 알겠지만1400초과 ~ 5000만원 이하 과세표준으로 계산함1의 과세표준으로 계산했지만 계산 결과가 틀림1의 과세표준으로 계산했고 계산 결과가 맞지만 후에 부가적으로 기본공제, 지방소득세 등 이상한 내용이 들어가서 결과적인 직장인의 소득세가 매우 상이하게 나옴5000초과~ 8800만원 이하 과세표준으로 계산등 여러번 돌려보니까 다양한 결과가 나오더라구요. (LLM이니깐 매번 돌릴 때마다 결과가 다른 건 알고 있습니다!)현재 query 수정 (회사원 -> 거주자), markdown으로 표 수정은 이미 다 한 상태입니다.LLM은 외부 API를 (저는 Upstage로 하고 있습니다) 사용하기 때문에 LLM은 아예 저의 소관이 아니라고 생각하고, 저는 최대한 잘 자르고 유사도 검색을 잘 해서 prompt를 잘 쓰는 것까지 저의 일이라고 생각합니다. 아무튼 이러한 경우에는 제가 양질의 답변을 얻기 위해서는 추가적으로 어떤 걸 해야할까요? ㅠㅠ제가 생각했을 땐초과, 이하의 개념을 프롬포트로 제공한다retriever_docs를 검색할 때 추가적인 정보가 많이 제공되지 않게끔 k를 조절한다. 정도 생각하고 있습니다!
-
해결됨Prompt Engineering: 완벽 가이드
강의 자료 질문입니다
안녕하세요실습하다 소설 스크립트 넣는 부분 듣는데 혹시 강의 자료에서 PPT 외에 프롬프트 실습 스크립트는 없나요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
langchain pinecone 설치 시 반복적으로 발생하는 버전 문제
몇 시간 동안 GPT, Claude랑 싸웠는데(?) 도저히 해결이 안 되네요.. 파이썬 버전도 낮춰보고 이것저것 지웠다깔았다 해봤는데 여기서 며칠 째 막혀있습니다..ㅠㅠchapter3에서도 pinecone 설치 오류가 계속 나서 겨우 고쳤는데 pinecone에 트라우마 생길 것 같아요 ^^참고하시라고 chapter3에서 혼자서 고쳐본 부분도 같이 올려드립니다. -> 기존 강사님 코드를 제 컴퓨터에서 실행하면 나오는 결과입니다.-> 이렇게 바꾸니 오류는 안 나지만 왠지 엄청 오래 걸립니다. 가능하시면 이 부분의 문제도 같이 봐주시면 감사하겠습니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Lora 기법 질문
Lora 기법으로 인해서 전체 모델의 56%의 파라미터만 fine tuning에 사용됐다고 하는데, 로직 내에서 fine tuning하겠다고 결정하는 기준이 있는건가요?
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
creawai Agent 선언 부분 오류 문의
section 5 의 코드 중 crewai 의 Agent 선언에서 오류 발생합니다.search_tool = TavilySearchResults() researcher = Agent( role="Market Researcher", goal=f"Uncover emerging trends and investment opportunities in the cryptocurrency market in 2024. Focus on the topic: {topic}.", backstory="Identify groundbreaking trends and actionable insights.", verbose=True, tools=[search_tool], -> 이 부분 오류 발생 allow_delegation=False, llm=llm, max_iter=3, max_rpm=10, ) pydantic_core._pydantic_core.ValidationError: 1 validation error for Agent tools Value error, Invalid tool type: <class 'langchain_community.tools.tavily_search.tool.TavilySearchResults'>. Tool must be an instance of BaseTool or an object with 'name', 'func', and 'description' attributes. [type=value_error, input_value=[TavilySearchResults(api_...cretStr('**********')))], input_type=list] For further information visit https://errors.pydantic.dev/2.10/v/value_errorcrewai 및 langchain 버전은 아래와 같습니다.crewai 0.86.0crewai-tools 0.17.0langchain 0.3.10langchain-community 0.3.10
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
소스코드 다운받을 장소를 알려 주셔요.
강의에 사용된 소스코드는 어디에 있는지 문의드립니다.PDF파일은 있지만, 예제 풀이에 사용되는 colab에서 동작시키는 소스코드를 다운 받을 위치를 가르쳐 주셨으면 합니다.
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
streamlit 프로젝트에서 tax.docx 파일이 없어도 되나요
streamlit 프로젝트에는 tax.docx 파일이 필요없는 이유가.. 파인콘을 사용하기 때문인가요. 궁금합니다..
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
아래 파인콘 벡터스토어 추가 확인요청
가상환경에서 진행중이고, 파이썬 버전 3.13입니다. 파이썬은 3.10 이상이면 된다고 본 거 같은데 ㅠㅠ 이게 문제일까요. 에러 메시지중 simsimd가 무엇인지 ㅠㅠ
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
파인콘 벡터스토어가 없다고 나옵니다 ㅠㅠ
파인콘으로 바꾸는 부분 도중에 에러가 납니다..아래 오류 메시지도 입력했습니다 ㅠㅠINFO: pip is looking at multiple versions of langchain-pinecone to determine which version is compatible with other requirements. This could take a while. Note: you may need to restart the kernel to use updated packages.WARNING: Ignoring invalid distribution ~angchain-core (c:\Users\alice\test-llm\test-llm\Lib\site-packages) WARNING: Ignoring invalid distribution ~angchain-core (c:\Users\alice\test-llm\test-llm\Lib\site-packages) ERROR: Ignored the following versions that require a different python version: 0.0.2 Requires-Python >=3.8.1,<3.13; 0.0.2rc0 Requires-Python >=3.8.1,<3.13; 0.0.3 Requires-Python >=3.8.1,<3.13; 0.1.0 Requires-Python <3.13,>=3.8.1; 0.1.1 Requires-Python <3.13,>=3.8.1; 0.1.2 Requires-Python <3.13,>=3.8.1; 0.1.3 Requires-Python <3.13,>=3.8.1; 0.2.0 Requires-Python <3.13,>=3.9; 0.2.0.dev1 Requires-Python <3.13,>=3.9 ERROR: Could not find a version that satisfies the requirement simsimd<4.0.0,>=3.6.3 (from langchain-pinecone) (from versions: 4.4.0, 5.0.0, 5.0.1, 5.1.0, 5.1.1, 5.1.2, 5.1.3, 5.1.4, 5.2.0, 5.2.1, 5.3.0, 5.4.0, 5.4.1, 5.4.2, 5.4.3, 5.4.4, 5.5.0, 5.5.1, 5.6.0, 5.6.1, 5.6.3, 5.6.4, 5.7.0, 5.7.1, 5.7.2, 5.7.3, 5.8.0, 5.9.0, 5.9.1, 5.9.2, 5.9.3, 5.9.4, 5.9.5, 5.9.6, 5.9.7, 5.9.8, 5.9.9, 5.9.10, 5.9.11, 6.0.0, 6.0.1, 6.0.2, 6.0.3, 6.0.4, 6.0.5, 6.0.6, 6.0.7, 6.1.0, 6.1.1, 6.2.0, 6.2.1) ERROR: No matching distribution found for simsimd<4.0.0,>=3.6.3
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
GoogleNet Inception 모듈
안녕하세요 선생님강의 잘 보고 있습니다구글넷의 인셉션 모듈 설명 중에 MAX pooling이 포함되어 있는데요보통 max pooling은 인풋의 사이즈를 줄이는 것으로 알고 있는데 그러면 다른 컨볼루션이 통과된 아웃풋과 사이즈가 달라져서 concat이 안되는 거 아닌가요?아니면 여기에 포함된 컨볼루션들은 max pooling과 같은 stride를 같는 걸까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
학습 자료 질문
강의 진행 시 사용하는 PPT 자료는 어디에서 다운 받을 수 있나요?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
RateLimitError가 나서 질문 드립니다.
RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.', 'type': 'insufficient_quota', 'param': None, 'code': 'insufficient_quota'}}청크 사이즈도 많이 줄여서 하는데, 똑같은 에러가 나서 질문드립니다! 강의 영상이랑 똑같이 진행하고 있는데결제크레딧 카드가 12월5일부로 open-ai에서 결제가 안되서 급하게 부랴부랴 크레딧을 가지고 있는분께 크레딧이 얼마 없긴한 계정 빌려서 해보고 있는데도 rateLimiterror가 나오고 있습니다.위와같은 에러가 다른경우도 나는 경우가 있을까요?
-
미해결RAG를 활용한 LLM Application 개발 (feat. LangChain)
pinecone 환경변수
안녕하세요 pinecone 연동을 하려는데 계속 오류가 발생하여 질문드립니다.pinecone의 environment나 project-id로는 어떤 것을 입력해야 되나요?
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Batch Normalization 효과
안녕하세요 선생님강의 정말 잘 보고 있고요제 많은 질문들에도 너무 성심성의껏 답변 달아주셔서 감사합니다 ㅎㅎBatchNorm이 설계된 의도는 internal covariate shift를 해결하기 위해 제안되었다는 것은 이해했습니다.하지만 실제로는 그렇지 않고 optimization surface를 매끄럽게 해서 학습이 잘된다라고 설명하신 것까지 들었습니다.제가 이해한 바로는 활성화 함수에 들어가는 입력의 분포를 조정해서 학습이 잘되는 위치? 분포를 학습하는 것으로 이해했는데요(sigmoid로 예시를 든다면 더 이상 업데이트가 되지 않아도 될 정도라면 기울기가 saturate되는 부분으로 혹은 업데이트가 많이 되어야 한다면 0부근으로 이동시키는 등의) 정확히 어떤 원인에 의해 surface가 매끄러워지는 효과를 가지게 되는 것인지 궁금합니다..!
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
데이터 전처리 관련
안녕하세요. 테이블 이미지를 GPT가 이해할 수 있는 문법으로 변환하는 과정을 사람이 직접 하지않고 소프트웨어를 통해 할 수 있나요? 일반적으로 이와 관련된 전처리를 어떤식으로 하는지 궁금합니다.
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
학습 자료와 관련해 질문 드립니다.
자주 질문 드리게 되어 죄송합니다.학습 자료로 올려주신 소스 코드를 활용하여 프로젝트를 진행해보고 싶어 문의 드립니다.올려주신 깃허브 코드를 오픈소스와 같이 활용해도 괜찮은 걸까요..?
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
HTML Rag
안녕하세요rag의 최적화 및 성능 향상을 위해 이것저것 알아보다 HTML구조가 Plain Text 보다 훌륭한 결과를 도출할 수 있다는 논문이 있어서 의견을 물어보고 싶습니다.https://arxiv.org/pdf/2411.02959논문에서는 HTML 형식이 일반 텍스트보다 우수한 성능을 보인다고 하고 있습니다. 저의 경우 데이터 수집을 크롤링으로 하고 있는데 만약 HTML이 더 우수하다고 한다면 굳이 html tag를 처리하는 노다가를 하지 않고도 오히려 더 좋은 성능이 나온다고 하니 솔깃한 마음이 있네요 또 강의에서는 표를 이해시키기 위해 마크다운 형식으로 전처리 작업을 했는데 이건 특정 모델마다 (ex openAI, Llama) 편차를 보이는지 궁금합니다
-
해결됨RAG를 활용한 LLM Application 개발 (feat. LangChain)
매번 선언에 대한 질문
안녕하세요 강사님 덕분에 최종예제를 따라서 어찌어찌 챗봇을 만드는데까지는 성공했습니다.이제 수행속도를 좀 올릴수 있는 방법이 없을까하다가..llm(업스테이지), 업스테이지 임베딩, 파인콘인덱스 등등get_***()함수에서 가져오다보니 질문을 한번 할떄마다 인스턴스를 생성하는 거 같더라구요.. 혹시llm(업스테이지), 업스테이지 임베딩, 파인콘인덱스 등등은 가장 바깥에 선언해두고 get_***()함수에서는 그냥 가져다 쓰면안되는건지 궁금합니다.