묻고 답해요
131만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
세션0 가상환경 동작 문제
(문제) 아래와같이 deactivate를 하니 제대로 동작을 안합니다PS C:\Lectures\chatGPT_API_inflearn\original_code\ch01> deactivatedeactivate : 'deactivate' 용어가 cmdlet, 함수, 스크립트 파일 또는 실행할 수 있는 프로그램 이름으로 인식되지 않습니다. 이름이 정확한지 확인하고 경로가 포함된 경우 경로가 올바른지 검증한 다음 다시 시도하십시오.위치 줄:1 문자:1+ deactivate+ ~~~~~~~~~~ + CategoryInfo : ObjectNotFound: (deactivate:String) [], CommandNotFoundException + FullyQualifiedErrorId : CommandNotFoundException (질문) 찾아보니 맨앞의 "PS"가 파워쉘이고, 파워쉘에서는 가상환경이 활성화안된다고 하던데 그이유가 맞나요? 그러나 실제로 활성화시에는 위와같은 메시지는 안나왔습니다.그리고만일 파워쉘로 인해 가상환경 활성화가 안된다면 set-executionPolicy명령으로 remoteSigned로 변경해야한다는데 맞나요? 이로인해 제 시스템전체에 영향을 주는건지 모르겠습니다. 또는 다른 방법이 있을까요?
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
ch09는 NewVersion OpenAI에서 구현이 불가능한가요?
강사님께서 올려주신 뉴버전 예제파일을 확인했는데 ch09만 뉴버전이 없어서 문의드립니다.올라와있는 소스는 구버전으로는 실행됩니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
에러 정보 문의드립니다.
colab무료 자원이 없어서, jupyter notebook환경에서 fine-turning을 진행하는데 CUDA Version: 12.2 에서 autotrain llm시libcusparse.so.11: cannot open shared object file: No such file or directory 에러가 발생하고 있습니다. 혹시 해결방법을 조언받을수 있을까요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
PEFT 실습 4에서 training시작할때 out of memory가 발생합니다.
PEFT 실습 4에서 training시작할때 out of memory가 발생합니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
문제에 봉착했습니다!!도움 부탁드립니다.
openai.FineTuningJob.create(training_file="file-G8e3McuXFWVZnm1XSNB-----", model="gpt-3.5-turbo")위의 코드에 대해서 아래와 같이 메세지가 나오면서 실행이 안됩니다 ㅠㅜ { "name": "AttributeError", "message": "module 'openai' has no attribute 'FineTuningJob'", "stack": "--------------------------------------------------------------------------- AttributeError Traceback (most recent call last) /Users/loveyourself/dev/LLM/chatBot/worKBee/worKBee.ipynb 셀 3 line 1 ----> <a href='vscode-notebook-cell:/Users/loveyourself/dev/LLM/chatBot/worKBee/worKBee.ipynb#W3sZmlsZQ%3D%3D?line=0'>1</a> openai.FineTuningJob.create(training_file=\"file-G8e3McuXFWVZnm1XSNBtMrmA\", model=\"gpt-3.5-turbo\") AttributeError: module 'openai' has no attribute 'FineTuningJob'" } FineTuningJob 이 없다고 하는데 어떻게 해야하나요..
-
미해결React + GPT API로 AI회고록 서비스 개발 (원데이 클래스)
useState 오류
GPT API 호출, 프롬프트 연동 강의 0:24 계속해서 useState에 다음과 같은 오류가 뜹니다. import { useState } from "react";오류 사유는'useState' is declared but its value is never read. 대체 왜 해결이 안되는 것일까요..?ㅜ.ㅜ
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Korquad 데이터셋
강의잘듣고있습니다.Korquad데이터셋을 나만의 데이터로 만드는 쉬운 방법이 있나요? 하나하나 직접 작성해야되는건지 문의드립니다. 또한 나만의 데이터는 gpt를 통해서 학습 등이 어려워서 추가데이터를 만들때 사용을 못할 것 같은데 방법이 있는지 문의드립니다
-
해결됨초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
ch2 기본 질문하기 실행하면 오류가 떠요
response = openai.ChatCompletion.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Tell me how to make a pizza"}])Output exceeds the size limit. Open the full output data in a text editor--------------------------------------------------------------------------- APIRemovedInV1 Traceback (most recent call last) Cell In[8], line 1 ----> 1 response = openai.ChatCompletion.create( 2 model="gpt-3.5-turbo", 3 messages=[{"role": "user", "content": "Tell me how to make a pizza"}]) File c:\workspace\inflearn_chatGPT-main\ch02\ch02_env\Lib\site-packages\openai\_utils\_proxy.py:22, in LazyProxy.__getattr__(self, attr) 21 def getattr(self, attr: str) -> object: ---> 22 return getattr(self.__get_proxied__(), attr) File c:\workspace\inflearn_chatGPT-main\ch02\ch02_env\Lib\site-packages\openai\_utils\_proxy.py:43, in LazyProxy.__get_proxied__(self) 41 def __get_proxied__(self) -> T: 42 if not self.should_cache: ---> 43 return self.__load__() 45 proxied = self.__proxied 46 if proxied is not None: File c:\workspace\inflearn_chatGPT-main\ch02\ch02_env\Lib\site-packages\openai\lib\_old_api.py:33, in APIRemovedInV1Proxy.__load__(self) 31 @override 32 def load(self) -> None: ---> 33 raise APIRemovedInV1(symbol=self._symbol) APIRemovedInV1:... Alternatively, you can pin your installation to the old version, e.g. pip install openai==0.28 A detailed migration guide is available here: https://github.com/openai/openai-python/discussions/742
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
llama2 모델리뷰 슬라이드는 어디서 다운받을 수 있을까요?
llama2 모델리뷰 슬라이드는 어디서 다운받을 수 있을까요? 첨부파일에는 03 폴더가 없네요
-
해결됨초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
ch04에서 01_summerize_text_app.py 실행
유익한 내용으로 강의를 제공해주셔서 감사합니다. CH04에서01_summerize_text_app.py##### 기본 정보 불러오기 #### # Streamlit 패키지 추가 import streamlit as st # OpenAI 패키기 추가 import openai ##### 기능 구현 함수 ##### def askGpt(prompt): messages_prompt = [{"role": "system", "content": prompt}] response = openai.ChatCompletion.create(model='gpt-3.5-turbo', messages=messages_prompt) gptResponse = response["choices"][0]["message"]["content"] return gptResponse ##### 메인 함수 ##### def main(): st.set_page_config(page_title="요약 프로그램") # 사이드바 with st.sidebar: # Open AI API 키 입력받기 open_apikey = st.text_input(label='OPENAI API 키', placeholder='Enter Your API Key', value='',type='password') # 입력받은 API 키 표시 if open_apikey: openai.api_key = open_apikey st.markdown('---') st.header("📃요약 프로그램") st.markdown('---') text = st.text_area("요약 할 글을 입력하세요") if st.button("요약"): prompt = f''' **Instructions** : - You are an expert assistant that summarizes text into **Korean language**. - Your task is to summarize the **text** sentences in **Korean language**. - Your summaries should include the following : - Omit duplicate content, but increase the summary weight of duplicate content. - Summarize by emphasizing concepts and arguments rather than case evidence. - Summarize in 3 lines. - Use the format of a bullet point. -text : {text} ''' st.info(askGpt(prompt)) if __name__=="__main__": main() 실행하여도다음과 같은 에러가 나옵니다.2023-11-07 13:03:41.719 Uncaught app exceptionTraceback (most recent call last):File "C:\inflearn_chatGPT\ch04\venv\lib\site-packages\streamlit\runtime\scriptrunner\script_runner.py", line 534, in runscriptexec(code, module.__dict__)File "C:\inflearn_chatGPT\ch04\01_summerize_text_app.py", line 45, in <module>main()File "C:\inflearn_chatGPT\ch04\01_summerize_text_app.py", line 42, in mainst.info(askGpt(prompt))File "C:\inflearn_chatGPT\ch04\01_summerize_text_app.py", line 10, in askGptresponse = openai.ChatCompletion.create(model='gpt-3.5-turbo', messages=messages_prompt)AttributeError: module 'openai' has no attribute 'ChatCompletion'구글링및 chatgpt한테 직접 물어보니가,pip install --upgrade openai를 해라고 했는데,그것을 하여도오류가 계속 나옵니다. 오류를 해결하였습니다.openai 패키지에서 ChatCompletion 함수가 없다는게 말이 안된다고 생각합니다.그래서 가상환경(ch02_env)에서 실행해봤더니,실행이 되었습니다. 가상환경 ch02_env에 설치된 openai의 버전은 0.28.1이고가상환경 ch04_env에 설치된 oepnai의 버전은 1.1.1입니다. 즉, 강의를 원활하게 수강하기 위해서0.28.1버전을 사용해야할것같습니다.
-
미해결React + GPT API로 AI회고록 서비스 개발 (원데이 클래스)
const handleEnter 문에 궁금한게 있습니다.
setUserInput("")을 하면 userInput 값이 ""로 바뀌고그다움 num 선언문에 ""의 숫자변환값이 들어가는게 아닌가 궁금합니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Gpt3.5 FineTuning 을 보고 문의 드립니다.
안녕하세요. 강의 잘 보고 있습니다.이렇게 좋은 강의를 제공해 주셔서 감사합니다. 2가지 케이스에 대한 문의 사항이 있습니다.이런 경우에는 어떻게 해야 하는건가요?가령 예를 들어서 gpt api 를 이용해서 사내 업무에 특화된 서비스를 개발하려고 합니다.첫번째 케이스는 회사의 업무를 만드는 케이스입니다.1. 가령 인사업무, 총무업무,회계업무 등의 다양한 업무가 있다면 이런것들은 인사,총무,회계 등의 형태로 모델을 다 다르게 만들고 질문의 영역이 들어올 때 이 문제가 인사인지, 총무인지,회계인지 등으로 먼저 파악을 하고 질문에 대해서 각각 모델을 지정해서 응답을 하도록 만들어야 하는지아니면 회사전체의 모든 업무를 담을 수 있는 하나의 모델을 만들고 거기에 fine tuning 을 시켜야 하는지요.?이 경우에 회사에서 사용하는 api 의 경우는 finetuning 된 모델을 사용하도록 지정을 해도 되나요? 그러니까 제가 fine tuning 한 모델을 지정을 하면 그것만 답변을 잘하고 다른것들은 답변을 잘 못하게 되나요?두번째 케이스는 개발업무를 assist 하는 케이스를 만들고 싶은데요 1. 이런 경우에 db 테이블 정보를 fine tuning 의 형태로 학습 시키는 것이 가능한가요?가령 주요 테이블 정보를 fine tuning 시키고 query 를 만들때 fine tuning 된 테이블 정보를 이용해서 query 를 만든다거나 하는 형태가 가능할까요? 바쁘실텐데 시간내셔 답변주시면 정말 많은 도움 될듯합니다. 감사합니다. ^^
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Fine-Tuning 한 Model 을 다시 Fine-tuning 할 수 있나요?
학습 중에 궁금한 점이 생겨 질문 드립니다.fine-tuning 한 이후에 추가로 학습 시키고 싶은 dataset이 생겼을 경우,이전 학습된 peft model 을 이어서 fine tuning 을 진행 할 수 있을까요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
학습 중 궁금한 부분 문의합니다
안녕하세요 라마2에 한국어 데이터셋만 학습해도 한국어 질문 답을 하는 것을 보고 궁금해서요 한국어 데이터 셋만 학습을 해도 라마2에서 한국어를 이해하고 대답하는 건지요 그리고 예제에서 질문을 한 후 받는 대답이 너무 짧게 나오는데요 이부분은 데이터셋의 답 부분이 짧아서 그런 가요 gpt는 엄청 길게 답을 하는데 이부분이 궁금하네요
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
강의 노트가 없습니다.
강의 수강하고 있는데 동영상 강의만 있고강의 노트를 받는 곳이 없습니다.
-
해결됨모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
패키지 버전 궁금합니다
안녕하세요!혹시 본 강의에서 사용하신 모든 라이브러리 버전을 알 수 있는 방법이 있을까요?개인적으로 도커를 통해서 학습을 진행중인데, 버전에 따라 발생하는 에러가 있는거 같아서 문의드립니다. 감사합니다.
-
해결됨모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
[질문] Llama2 Autotrain 작동 시
ERROR train has failed due to an exception: TypeError: LlamaForCausalLM.__init__() got an unexpected keyword argument 'use_flash_attention_2'안녕하세요, Autotrain library를 활용하여 fine-tuning 중 아래와 같은 에러가 발생하였는데요. 혹시 어떻게 해결할 수 있을지 궁금합니다. 제 환경에 필요한 정보가 필요하시다면 언제든지 말씀드리겠습니다.감사드립니다.
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
강의 자료는 어디서 다운받나요?
강의 자료는 어디서 다운받나요?
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
강의자료 다운로드 가능한가요?
강의자료나 실습코드를 찾을 수가 없는데요. 자료 제공이 원래 안 되는지 궁금합니다.
-
해결됨하루만에 배우는 ChatGPT API
mui 어디서 설치하나요....무슨 이름인 같은 것인지 설명해주세요
다음과 같은 양식으로 남겨주세요.질문을 한 배경 :정보 부족질문내용 :mui를 설치하는데 어디서 설치하는지, 무엇을 설치하는지 정보가 매우 부족함. 찾지 못하겠음