묻고 답해요
156만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
Error in loading PDF or creating vectorstore
안녕하세요. 강의 Gradio ChatInterface로 PDF 챗봇 애플리케이션 구현 (실습) 에서 additional inputs 에서 pdf 로딩하고, chunk size, chunk overlap, similarity metric, temperature 까지 해놓고 쿼리로 'what is the attention mechanism in transformers?' 라고 하니 대답으로 ' Error in loading PDF or creating vectorstore' 가 나옵니다. dependencies 는 아래와 같습니다. [tool.poetry.dependencies]python = "^3.12"chromadb = "^0.5.3"python-dotenv = "^1.0.1"langchain = "^0.2.5"langchain-openai = "^0.1.8"langchain-community = "^0.2.5"pypdf = "^4.2.0"gradio = "^4.36.1"gradio-pdf = "^0.0.11"langchain-text-splitters = "^0.2.1" 무엇이 문제일까용??
-
해결됨프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
환경세팅 문제
환경설정이 잘못된거 같아서, 커널설정도 했고, 파일경로도 확인했어요. 터미널에서는 인스톨되었다고 나오는데 막상 ipynb 에서는 잘 안됩니다. 어떻게 하면 좋을까요? 이미 3번째 시도라서 도저히 모르겠어용
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
RateLimitError
학습 관련 질문이 있으시면, 상세하게 남겨주세요.문제가 발생한 부분의 코드를 함께 올려주세요.수업 영상 몇 분/초 구간인지 알려주세요. 섹션1-3번째 강의 16분쯤에서 llm.invoke(prompt_text) 이 코드 작성부터 RateLimitError Traceback (most recent call last) Cell In[17], line 1 ----> 1 llm.invoke(prompt_text) File c:\Users\lhm22\AppData\Local\pypoetry\Cache\virtualenvs\qa-bot-nop3jHt_-py3.9\lib\site-packages\langchain_core\language_models\chat_models.py:170, in BaseChatModel.invoke(self, input, config, stop, kwargs) 159 def invoke( 160 self, 161 input: LanguageModelInput, (...) 165 kwargs: Any, 166 ) -> BaseMessage: 167 config = ensure_config(config) 168 return cast( 169 ChatGeneration, --> 170 self.generate_prompt( 171 [self._convert_input(input)], 172 stop=stop, 173 callbacks=config.get("callbacks"), 174 tags=config.get("tags"), 175 metadata=config.get("metadata"), 176 run_name=config.get("run_name"), 177 run_id=config.pop("run_id", None), 178 **kwargs, 179 ).generations[0][0],... (...) 1027 stream_cls=stream_cls, 1028 ) RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.', 'type': 'insufficient_quota', 'param': None, 'code': 'insufficient_quota'}}Output is truncated. View as a scrollable element or open in a text editor. Adjust cell output settings... 이런 에러가 발생하네요.. 혹시 어떻게 해결할 수 있을까요?
-
해결됨[Python 초보] Flutter로 만드는 ChatGPT 음성번역앱
pip install 오류가 해결이 안되네요...
구글링을 통해 pip upgrade, scipy==1.12.0 버전설치vscode vswhere.exe 설치등을 해 보았는데 해결이 안되어 문의드립니다. (desktop_venv) D:\voicechat\DESKTOP>pip install scipyWARNING: Ignoring invalid distribution - (d:\voicechat\desktop\desktop_venv\lib\site-packages)WARNING: Ignoring invalid distribution -ip (d:\voicechat\desktop\desktop_venv\lib\site-packages)Collecting scipy Using cached scipy-1.13.1.tar.gz (57.2 MB) Installing build dependencies ... done Getting requirements to build wheel ... done Installing backend dependencies ... done Preparing metadata (pyproject.toml) ... error error: subprocess-exited-with-error × Preparing metadata (pyproject.toml) did not run successfully. │ exit code: 1 ╰─> [21 lines of output] + meson setup C:\Users\joon\AppData\Local\Temp\pip-install-uhszo9tp\scipy_fd7942d271b54ed8b7897408b2e63822 C:\Users\joon\AppData\Local\Temp\pip-install-uhszo9tp\scipy_fd7942d271b54ed8b7897408b2e63822\.mesonpy-_ppx3dkm -Dbuildtype=release -Db_ndebug=if-release -Db_vscrt=md --native-file=C:\Users\joon\AppData\Local\Temp\pip-install-uhszo9tp\scipy_fd7942d271b54ed8b7897408b2e63822\.mesonpy-_ppx3dkm\meson-python-native-file.ini The Meson build system Version: 1.4.1 Source dir: C:\Users\joon\AppData\Local\Temp\pip-install-uhszo9tp\scipy_fd7942d271b54ed8b7897408b2e63822 Build dir: C:\Users\joon\AppData\Local\Temp\pip-install-uhszo9tp\scipy_fd7942d271b54ed8b7897408b2e63822\.mesonpy-_ppx3dkm Build type: native build Project name: scipy Project version: 1.13.1 WARNING: Failed to activate VS environment: Could not parse vswhere.exe output ..\meson.build:1:0: ERROR: Unknown compiler(s): [['icl'], ['cl'], ['cc'], ['gcc'], ['clang'], ['clang-cl'], ['pgcc']] The following exception(s) were encountered: Running icl "" gave "[WinError 2] 지정된 파일을 찾을 수 없습니다" Running cl /? gave "[WinError 2] 지정된 파일을 찾을 수 없습니다" Running cc --version gave "[WinError 2] 지정된 파일을 찾을 수 없습니다" Running gcc --version gave "[WinError 2] 지정된 파일을 찾을 수 없습니다" Running clang --version gave "[WinError 2] 지정된 파일을 찾을 수 없습니다" Running clang-cl /? gave "[WinError 2] 지정된 파일을 찾을 수 없습니다" Running pgcc --version gave "[WinError 2] 지정된 파일을 찾을 수 없습니다" A full log can be found at C:\Users\joon\AppData\Local\Temp\pip-install-uhszo9tp\scipy_fd7942d271b54ed8b7897408b2e63822\.mesonpy-_ppx3dkm\meson-logs\meson-log.txt [end of output] note: This error originates from a subprocess, and is likely not a problem with pip.error: metadata-generation-failed× Encountered error while generating package metadata.╰─> See above for output.note: This is an issue with the package mentioned above, not pip.hint: See above for details.
-
미해결(LLM개발) 랭체인과 챗GPT를 활용한 RAG 챗봇 만들기
수업 자료로 올라와 있는 자료가 소스 코드가 아닌 결과 파일입니다.
수업 자료로 올라와 있는 자료가 소스 코드가 아닌 결과 파일입니다.의도하신건지, 아니면 잘 못 올리신건지 문의 드립니다.
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
poetry로 파이썬 버전 설정하는 방법이 있나요?
특정 버전으로 진행하고 싶은데 고정으로 되는거 같아서요 궁금합니다!
-
해결됨[Python 초보] Flutter로 만드는 ChatGPT 음성번역앱
음성 인식 후 마이크 색깔이 변하지 않아요.
안녕하세요.강의를 보면서 쭈욱 진행하고 있는데, 에뮬레이터에서 음성인식을 테스트하면 음성인식이 완료되었음에도 마이크 색깔이 검정색으로 변하지 않습니다. 강의 내용대로 코드를 쳤는데 확인 부탁드립니다. (혹시 소스코드가 깃헙에는 없나요?..)import 'package:dash_chat_2/dash_chat_2.dart'; import 'package:flutter/material.dart'; import 'package:http/http.dart' as http; import 'dart:convert'; import 'package:speech_to_text/speech_to_text.dart'; import 'package:speech_to_text/speech_recognition_result.dart'; class BasicScreen extends StatefulWidget { @override _BasicState createState() => _BasicState(); } class _BasicState extends State<BasicScreen> { bool isListening = false; SpeechToText _speechToText = SpeechToText(); bool _speechEnabled = false; String _lastWords = ''; @override void initState() { super.initState(); _initSpeech(); } ChatUser user1 = ChatUser( id: '1', firstName: 'me', lastName: 'me', ); ChatUser user2 = ChatUser( id: '2', firstName: 'chatGPT', lastName: 'openAI', profileImage: "assets/img/gpt_icon.png" ); late List<ChatMessage> messages = <ChatMessage>[ ChatMessage( text: '반갑습니다. 어서오세요. 무엇을 도와드릴까요?', user: user2, createdAt: DateTime.now(), ), ]; @override Widget build(BuildContext context) { return Scaffold( appBar: AppBar( title: const Text('Basic example'), ), body: DashChat( currentUser: user1, onSend: (ChatMessage m) { setState(() { messages.insert(0, m); }); Future<String> data = sendMessageToServer(m.text); data.then((value){ setState(() { messages.insert(0, ChatMessage( text: value, user: user2, createdAt: DateTime.now(), )); }); }); }, messages: messages, inputOptions: InputOptions( leading: [ IconButton( icon: Icon(Icons.mic, color: isListening? Colors.red: Colors.black), onPressed: (){ setState(() { isListening = !isListening; if (isListening == true){ print('음성인식 시작'); _startListening(); }else{ print('음성인식 끝'); _stopListening(); } }); }, ) ] ) , ), ); } Future<String> sendMessageToServer(String message) async{ var headers = { 'Content-Type': 'application/json', 'Authorization': 'Bearer sk-proj-b2yCBjZ7jwkR7nmWl4NLT3BlbkFJmm0iaZMBGPJHHy3b3I4J', }; var request = http.Request('POST', Uri.parse('https://api.openai.com/v1/chat/completions')); request.body = json.encode({ "model": "gpt-3.5-turbo", "messages": [ { "role": "user", "content": message, } ] }); request.headers.addAll(headers); http.StreamedResponse response = await request.send(); if (response.statusCode == 200) { String responseString = await response.stream.bytesToString(); Map<String, dynamic> jsonResponse = json.decode(responseString); String result = jsonResponse['choices'] != null? jsonResponse['choices'][0]['message']['content']: "No result found"; print(responseString); return result; } else { print(response.reasonPhrase); return "ERROR"; } } /// This has to happen only once per app void _initSpeech() async { print("음성인식 기능을 시작합니다."); _speechEnabled = await _speechToText.initialize(); // setState(() {}); } /// Each time to start a speech recognition session void _startListening() async { print("음성인식을 시작합니다."); await _speechToText.listen(onResult: _onSpeechResult); // setState(() {}); } /// Manually stop the active speech recognition session /// Note that there are also timeouts that each platform enforces /// and the SpeechToText plugin supports setting timeouts on the /// listen method. void _stopListening() async { print("음성인식을 종료합니다."); await _speechToText.stop(); // setState(() {}); } /// This is the callback that the SpeechToText plugin calls when /// the platform returns recognized words. void _onSpeechResult(SpeechRecognitionResult result) { _lastWords = ""; if(result.finalResult){ _lastWords = result.recognizedWords; print("최종 인식된 문장: $_lastWords"); setState(() { messages.insert(0, ChatMessage( text: _lastWords, user: user1, createdAt: DateTime.now(), )); }); Future<String> data = sendMessageToServer(_lastWords); data.then((value){ setState(() { messages.insert(0, ChatMessage( text: value, user: user2, createdAt: DateTime.now(), )); }); }); } } }
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
Gradio ChatInterface로 PDF 챗봇 애플리케이션 구현 (실습) 에서 에러 발생합니다.
안녕하세요. 양질의 강의 감사드립니다. 아래와 같은 에러가 발생합니다. UnicodeDecodeError: 'cp949' codec can't decode byte 0x85 in position 144133: illegal multibyte sequence 그레서 Gradio 실행이 안되네요. 도움 요청드려 봅니다.
-
해결됨[Python 초보] Flutter로 만드는 ChatGPT 음성번역앱
휴대폰에서 동영상이 재생이 안됩니다 ㅠㅠ
안녕하세요 좋은 강의 감사합니다 한가지 아쉬운점이 발견되었습니다 안드로이드 폰으로 접속시 계속 로딩창만 뜨면서 재생이 안됩니다.3015 또는 3016 에러코드도 계속 보여주네요데스크톱 PC회면에서는 잘되네요 감사합니다 좋은 즐거운 주말 하루되셔요
-
미해결입문자를 위한 LangChain 기초
typer 호환 문제
마지막 RAG 강의에서, 첫번째 명령문을 실행시키면, !pip install -q langchain langchain-openai tiktoken chromadbtyper 호환과 관련된 에러가 발생합니다. =====================ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts. spacy 3.7.4 requires typer<0.10.0,>=0.3.0, but you have typer 0.12.3 which is incompatible. weasel 0.3.4 requires typer<0.10.0,>=0.3.0, but you have typer 0.12.3 which is incompatible.=====================ChatGPT를 통하여 여러 해결방안을 제시받아 시도해 보았는데 해결이 되지 않습니다. 손쉬운 해결 방법이 있을지요?
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
response = retrieval_chain.invoke 실행 에러 질문
학Chroma DB를 활용하여 PDF 파일에 대해 RAG 기반 질의응답 구현 (실습)의 29:00 에 있는 코드를 똑같이 실행했는데, 다음과 같은 에러가 발생했습니다. from langchain_openai import ChatOpenAI from langchain.chains.combine_documents import create_stuff_documents_chain from langchain.chains import create_retrieval_chain model = ChatOpenAI(model ='gpt-3.5-turbo-0125', temperature=0, api_key=OPENAI_API_KEY) document_chain = create_retrieval_chain(model, prompt) retrieval_chain = create_retrieval_chain(retriever, document_chain)response = retrieval_chain.invoke({"input": "what is the attention mechanism in transformers?"})에러 메시지Cell In[163], line 1 ----> 1 response = retrieval_chain.invoke({"input": "what is the attention mechanism in transformers?"}) 2 print(response)ValueError: Invalid input type <class 'dict'>. Must be a PromptValue, str, or list of BaseMessages.Output is truncated. View as a scrollable element or open in a text editor. Adjust cell output settings...
-
미해결모두를 위한 대규모 언어 모델 LLM Part 3 - 구글 제미나이(Google Gemini) API, OpenAI API와 젬마(Gemma)로 AI 어플리케이션 만들기
PDF RAG 제작 프로젝트 진행 중 답변 정확도를 올리기 위해 무엇을 해야 할지 모르겠습니다.
안녕하세요! 현재 Gemini, Streamlit, LangChain을 이용하여 오류 Q&A 모음 PDF 문서를 학습시켜 해당 문서로 질의응답을 할 수 있는 RAG Chatbot을 구현하는 중에 있습니다.PDF 내용이 정제가 되어 있지 않지만 175개의 모든 페이지를 다 읽어온 것은 확인했는데 같은 페이지에 있는 내용이더라도 답변하는 것이 있고 아닌 것이 있습니다. 또한 같은 질문을 해도 어떤 때는 잘 대답하고 어떤때는 문서에 없다고 대답하는 현상을 발견하고 있습니다... 이런 현상들의 원인이 뭔지 또한 학습시키는 문서를 정제하면 대답 정확도가 조금 올라가는지..어떤 형식으로 문서를 정제해야 할지, PDF보단 WORD나 CSV 파일이 더 정확도가 올라갈지 등등ChatBot의 정확도를 올릴려면 어떤 방식들을 시도해 봐야 하는지 감이 잡히지 않아 질문드립니다.
-
미해결모두를 위한 대규모 언어 모델 LLM Part 3 - 구글 제미나이(Google Gemini) API, OpenAI API와 젬마(Gemma)로 AI 어플리케이션 만들기
[긴급 최종질문수정16:47] 지금 이런 에러가 계속해서 연달아 나고 있는데 진행이 아예 안 됩니다
해결됐어요
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
poetry --version 명령어 실행시 에러가 납니다.
poetry 설치후 환경변수를 추가하고 파워셀에서 poetry --version 을 실행하면 아래와 같은 에러가 납니다. poetry: 'poetry' 용어가 cmdlet, 함수, 스크립트 파일 또는 실행할 수 있는 프로그램 이름으로 인식되지 않습니다. 이름이 정확한지 확인하고 경로가 포함된 경우 경로가 올바른지 검증한 다음 다시 시도하십시오. 현재 시스템환경 변수에 %APPDATA%\Python\Scripts 를 추가하였고 %APPDATA%\pypoetry\venv\Scripts\poetry도 추가한 상태입니다.파워셀도 다시 접속하여 실행했습니다.
-
해결됨프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
15강 진행 중 3개의 샘플파일은 어디서 다운 받을 수 있을까요?
제가 잘 못찾는것인지 모르겠는데 아래 3개 파일들은 어디서 다운을 받을수 있을까요?
-
해결됨프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
10강 패키지 설치 시 에러가 나네요.
(오늘은 뭔가 할때마다 오류가 나네요. ㅡㅡ;;)pdf-bot 프로젝트 만들고 패키지를 설치하려고 하니 오류가 나네요... Could not find a matching version of package lanchain뭐를 확인해 보면 될까요?강의에서 하라는대로 하긴 했는데..
-
해결됨프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
10강에서 poetry 프로젝트 생성시 오류가 납니다.
어제는 정상적으로 프로젝트 만들고 강의하면서 따라 했는데 오늘은 파워쉘에서 만들려고 하니 아래와 같은 오류가 납니다. 왜 그럴까요? ㅡㅡ;poetry를 뭔가 실행해야 되나요?
-
해결됨프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
6강 중 vs code에서 커널을 어떻게 선택해야 되나요?
강사님의 vs code 와 제것이 좀 다른거 같습니다. 저는 화면 오른쪽 하단에 어떤 커널을 쓰고 있는지가 나오지 않습니다. 저 오류를 해결하려고 커널을 선택하려고 하면 아래와 같은것만 나옵니다. 커널 선택을 어떻게 해야 될까요?
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
질문에 의해 결정된 {context} 값의 토큰량을 확인하는 방법이 있을까요?
궁금한 점이 있어서 질문드립니다. 강의 소스에서, 다음 코드를 보면, retrieval_chain 변수에 {context} 결정 값이 있을 것으로 예상하고 있는데요.retrieval_chain = create_retrieval_chain(retriever, document_chain) response = retrieval_chain.invoke({"input" : "질문" })retrieval_chain.invoke() 하기 전에, {context} 값을 확인하는 방법이 있을지요? llm 모델을 바꿔가며 실험해보니,retrieval_chain.invoke() 후 response['context'] 내용이 llm 모델마다 많이 달라지는 것을 관찰했어요.gpt-3.5-turbo-16k-0613, gpt-3.5-turbo-0125, gpt-4, gpt-4-turbo 모델에서 실험해봤습니다.그렇다면,llm 모델에 따라 제출할 {context} 내용이 달라질 수도 있다고 이해하면 맞을까요?{input} 값으로 벡터 검색한 내용이 {context} 값이 되는 단순한 방식은 아닌 것으로 이해했습니다.
-
미해결프로젝트로 배우는 Python 챗봇 & RAG - LangChain, Gradio 활용
LECL 문법을 통한 RAG chain 구성
위 코드에서는 # Prompt와 ChatModel을 chain으로 연결 document_chain = create_stuff_documents_chain(llm, prompt) # Retriever를 chain에 연결 retriver_chain = create_retrieval_chain(retriever, document_chain) response = retriver_chain.invoke({"input": message}) return response['answer']를 통해서 답변을 구성했는데. rag_chain = {'context':retriever, 'input': message} | rag_prompt | llm 위와같이 LECL 방식을 통한 response를 구성하고싶은데 어떻게 해야할까요?