묻고 답해요
130만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
텔레그램 API 사용법 익히기
getupdates 이용하는 부분에서 채팅을 입력하거나 안하거나 상관없이 계속 저런 결과가 나옵니다.토큰도 입력하였고 이전강의까지는 문제없이 잘됐는데 뭐가 문제인지 모르겟네요
-
미해결실리콘밸리 엔지니어와 함께하는 OpenAI API (ChatGPT)
openai api key 환경변수
안녕하세요 선생님. openai 에서 apikey 발급후 공식사이트에서 알려준대로 환경변수로 세팅후 파일실행을하는데 오류가뜹니다...환경변수로지정해서 어떻게해야하나요..(참고로 2~4번 모두했는데 안되서여)
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
배포 사이트 api 키 입력
배포할때 항상 api 키를 사이트에서 번거롭게 입력하지 않고자동으로 쿠키나 이런거로 자동완성되거나 키를 입력하지 않는 방법은 없을까요?
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
결과값 출력이 한줄로 통으로 나와요.
json 데이터 확인하는 강의에서 print(response) 입력후 선생님처럼 정리되서 안나오고 결과값이 한줄 통으로 나오는데요... 가독성이 떨어져서.. 설정이 따로 있는걸까요?
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
키 등록했는하고 카드 등록했는데 429오류가 발생합니다.
RateLimitError: Error code: 429 - {'error': {'message': 'You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.', 'type': 'insufficient_quota', 'param': None, 'code': 'insufficient_quota'}}첫번째 계정으로 카드 등록하고 11달러 결제 했는데 위 오류가 발생합니다.혹시 몰라 새로 구글 계정을 만들었는데도 동일한 오류가 발생합니다.
-
미해결워드프레스 자동 포스팅 프로그램 개발 강의 (ChatGPT API)
업로드가 되지 않습니다.
안녕하세요, 수강중인 학생입니다. 3.upload.py 부터 코드가 제대로 동작하지 않습니다. raise RemoteDisconnected("Remote end closed connection without"http.client.RemoteDisconnected: Remote end closed connection without response 이런 내용으로 인해 글이 올라가지 않는데 원인이 무엇일까요?
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
ch09의 '01_yt_extract_summerize_exp.ipynb' 실습중 에러
안녕하세요 ch09의 '01_yt_extract_summerize_exp.ipynb' 실습중에 마지막 'googletrans' 설치 및 실행시 오류가 발생합니다. openai 랑 googletrans 에서 사용하는 라이브러리가 충돌나는거 같은데 해결방법 있을까요? googletrans 설치시pip install googletrans==3.1.0a0 Collecting googletrans==3.1.0a0 Using cached googletrans-3.1.0a0-py3-none-any.whl Collecting httpx==0.13.3 (from googletrans==3.1.0a0) Using cached httpx-0.13.3-py3-none-any.whl.metadata (25 kB) Requirement already satisfied: certifi in e:\python\inflearn_chatgpt-main\ch09\ch09_env\lib\site-packages (from httpx==0.13.3->googletrans==3.1.0a0) (2024.2.2) Collecting hstspreload (from httpx==0.13.3->googletrans==3.1.0a0) Using cached hstspreload-2024.3.1-py3-none-any.whl.metadata (2.1 kB) Requirement already satisfied: sniffio in e:\python\inflearn_chatgpt-main\ch09\ch09_env\lib\site-packages (from httpx==0.13.3->googletrans==3.1.0a0) (1.3.1) Collecting chardet==3.* (from httpx==0.13.3->googletrans==3.1.0a0) Using cached chardet-3.0.4-py2.py3-none-any.whl.metadata (3.2 kB) Collecting idna==2.* (from httpx==0.13.3->googletrans==3.1.0a0) Using cached idna-2.10-py2.py3-none-any.whl.metadata (9.1 kB) Collecting rfc3986<2,>=1.3 (from httpx==0.13.3->googletrans==3.1.0a0) Using cached rfc3986-1.5.0-py2.py3-none-any.whl.metadata (6.5 kB) Collecting httpcore==0.9.* (from httpx==0.13.3->googletrans==3.1.0a0) Using cached httpcore-0.9.1-py3-none-any.whl.metadata (4.6 kB) Collecting h11<0.10,>=0.8 (from httpcore==0.9.*->httpx==0.13.3->googletrans==3.1.0a0) Using cached h11-0.9.0-py2.py3-none-any.whl.metadata (8.1 kB) Collecting h2==3.* (from httpcore==0.9.*->httpx==0.13.3->googletrans==3.1.0a0) Using cached h2-3.2.0-py2.py3-none-any.whl.metadata (32 kB) Collecting hyperframe<6,>=5.2.0 (from h2==3.*->httpcore==0.9.*->httpx==0.13.3->googletrans==3.1.0a0) Using cached hyperframe-5.2.0-py2.py3-none-any.whl.metadata (7.2 kB) Collecting hpack<4,>=3.0 (from h2==3.*->httpcore==0.9.*->httpx==0.13.3->googletrans==3.1.0a0) Using cached hpack-3.0.0-py2.py3-none-any.whl.metadata (7.0 kB) Using cached httpx-0.13.3-py3-none-any.whl (55 kB) Using cached chardet-3.0.4-py2.py3-none-any.whl (133 kB) Using cached httpcore-0.9.1-py3-none-any.whl (42 kB) Using cached idna-2.10-py2.py3-none-any.whl (58 kB) Using cached h2-3.2.0-py2.py3-none-any.whl (65 kB) Using cached rfc3986-1.5.0-py2.py3-none-any.whl (31 kB) Using cached hstspreload-2024.3.1-py3-none-any.whl (1.1 MB) Using cached h11-0.9.0-py2.py3-none-any.whl (53 kB) Using cached hpack-3.0.0-py2.py3-none-any.whl (38 kB) Using cached hyperframe-5.2.0-py2.py3-none-any.whl (12 kB) Installing collected packages: rfc3986, hyperframe, hpack, h11, chardet, idna, hstspreload, h2, httpcore, httpx, googletrans Attempting uninstall: h11 Found existing installation: h11 0.14.0 Uninstalling h11-0.14.0: Successfully uninstalled h11-0.14.0 Attempting uninstall: idna Found existing installation: idna 3.6 Uninstalling idna-3.6: Successfully uninstalled idna-3.6 Attempting uninstall: httpcore Found existing installation: httpcore 1.0.4 Uninstalling httpcore-1.0.4: Successfully uninstalled httpcore-1.0.4 Attempting uninstall: httpx Found existing installation: httpx 0.27.0 Uninstalling httpx-0.27.0: Successfully uninstalled httpx-0.27.0 ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts. openai 1.14.1 requires httpx<1,>=0.23.0, but you have httpx 0.13.3 which is incompatible. Successfully installed chardet-3.0.4 googletrans-3.1.0a0 h11-0.9.0 h2-3.2.0 hpack-3.0.0 hstspreload-2024.3.1 httpcore-0.9.1 httpx-0.13.3 hyperframe-5.2.0 idna-2.10 rfc3986-1.5.0 설치오류 무시하고 google_trans() 실행시--------------------------------------------------------------------------- AttributeError Traceback (most recent call last) Cell In[14], line 1 ----> 1 from googletrans import Translator 3 def google_trans(messages): 4 google = Translator() File e:\Python\inflearn_chatGPT-main\ch09\ch09_env\Lib\site-packages\googletrans\__init__.py:6 2 __all__ = 'Translator', 3 __version__ = '3.1.0-alpha' ----> 6 from googletrans.client import Translator 7 from googletrans.constants import LANGCODES, LANGUAGES # noqa File e:\Python\inflearn_chatGPT-main\ch09\ch09_env\Lib\site-packages\googletrans\client.py:27 22 from googletrans.models import Translated, Detected 24 EXCLUDES = ('en', 'ca', 'fr') ---> 27 class Translator: 28 """Google Translate ajax API implementation class 29 30 You have to create an instance of Translator to use this API (...) 52 :type raise_exception: boolean 53 """ 55 def __init__(self, service_urls=DEFAULT_CLIENT_SERVICE_URLS, user_agent=DEFAULT_USER_AGENT, 56 raise_exception=DEFAULT_RAISE_EXCEPTION, ... 59 http2=True): 61 self.client = httpx.Client(http2=http2) 62 if proxies is not None: # pragma: nocover AttributeError: module 'httpcore' has no attribute 'SyncHTTPTransport' Output is truncated. View as a scrollable element or open in a text editor. Adjust cell output settings...
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
ch07 urllib error
mac에서의 문제인지 다른 문제인지 모르겠지만 실습 중 urllib 에러가 발생해서 다음과 같이 해결했습니다. 다른 분들에게 도움이 되었으면 좋겠네요.그리고 urllib만 import해오면 urlretrieve를 불러오지 못해서 urllib.request를 import했습니다. <에러 메시지>Traceback (most recent call last): File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/urllib/request.py", line 1344, in do_open h.request(req.get_method(), req.selector, req.data, headers, File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/http/client.py", line 1319, in request self._send_request(method, url, body, headers, encode_chunked) File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/http/client.py", line 1365, in sendrequest self.endheaders(body, encode_chunked=encode_chunked) File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/http/client.py", line 1314, in endheaders self._send_output(message_body, encode_chunked=encode_chunked) File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/http/client.py", line 1074, in sendoutput self.send(msg) File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/http/client.py", line 1018, in send self.connect() File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/http/client.py", line 1460, in connect self.sock = self._context.wrap_socket(self.sock, ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/ssl.py", line 455, in wrap_socket return self.sslsocket_class._create( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/ssl.py", line 1046, in _create self.do_handshake() File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/ssl.py", line 1317, in do_handshake self._sslobj.do_handshake()ssl.SSLCertVerificationError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: unable to get local issuer certificate (_ssl.c:1000)During handling of the above exception, another exception occurred:Traceback (most recent call last): File "/Users/adampark/Documents/personal/inflearn_chatGPT/ch08/01_dalle_exp_NewVersion.py", line 18, in <module> urllib.request.urlretrieve(image_url, "test.jpg") File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/urllib/request.py", line 240, in urlretrieve with contextlib.closing(urlopen(url, data)) as fp: ^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/urllib/request.py", line 215, in urlopen return opener.open(url, data, timeout) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/urllib/request.py", line 515, in open response = self._open(req, data) ^^^^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/urllib/request.py", line 532, in _open result = self._call_chain(self.handle_open, protocol, protocol + ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/urllib/request.py", line 492, in callchain result = func(*args) ^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/urllib/request.py", line 1392, in https_open return self.do_open(http.client.HTTPSConnection, req, ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/urllib/request.py", line 1347, in do_open raise URLError(err)urllib.error.URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: unable to get local issuer certificate (_ssl.c:1000)> <해결>pip install certifiCERT_PATH=$(python -m certifi)export SSL_CERT_FILE=${CERT_PATH}export REQUESTS_CA_BUNDLE=${CERT_PATH}https://github.com/asdf-community/asdf-python/issues/106
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)
Custom Agent executor error
else: print("TOOL NAME : ", output.tool) print("TOOL INPUT : ", output.tool_input) Traceback (most recent call last): File "/Users/chaejinjeong/Desktop/myGit/Study/langchain/inflearn/5.Agent/basic.py", line 75, in <module> print("TOOL NAME : ", output.tool)output : [OpenAIToolAgentAction(tool='get_word_length', tool_input={'word': 'eudca'}, log="\nInvoking: `get_word_length` with `{'word': 'eudca'}`\n\n\n", message_log=[AIMessage(content='', additional_kwargs={'tool_calls': [{'id': 'call_DlTa5qRanu9HhiWGneMz2V3C', 'function': {'arguments': '{"word":"eudca"}', 'name': 'get_word_length'}, 'type': 'function'}]})], tool_call_id='call_DlTa5qRanu9HhiWGneMz2V3C')], <class 'list'>output.tool 이라는 속성이 없어서 print 해보니 AgentAction List 형태로 출력이 되었습니다.intermediate_steps = [] final_result = dict() while True: query.update({"intermediate_steps": intermediate_steps}) output: Union[AgentFinish, AgentAction] = agent.invoke(query) if isinstance(output, AgentFinish): final_result = output.return_values final_result = final_result.get("output") break else: if isinstance(output, list): output = output[0] print("TOOL NAME : ", output.tool) print("TOOL INPUT : ", output.tool_input) _tool = tools.get(output.tool) observation = _tool.run(output.tool_input) intermediate_steps.append((output, observation)) TOOL NAME : get_word_length TOOL INPUT : {'word': 'eudca'}위처럼 인덱스 0으로 접근해서 처리해야할 것 같아 글 남깁니다.
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)
summary buffer memory token_limit 질문
token_limit 은 대화의 input, output set 개수 일까요 ?
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)
[공유] SQLDatabase를 에디터에서 인식하지 못한다면
from langchain_community.utilities import SQLDatabasefrom langchain_community.utilities.sql_database import SQLDatabasevscode 에서 extension이 SQLDatabase를 코드를 수행할때는 상관없는데, 에디터상에서 인지못하는 문제가 있었어요 그런데 sql_database라는 패키지명까지 붙이니 해결되었습니다
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)
ChatPromptTemplate.from_messages(("ai", ...)) 질문
ChatPromptTemplate.from_messages(("ai", ...))에서 system과 human은 Context와 Role을 주는 역할인지 알겠는데 ai는 어떤 역할인가요 ?
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)
chroma db import 가 업데이트된 것 같습니다.
from langchain_community.vectorstores.chroma import Chroma이렇게 되어야 Chroma를 vscode에서 인식하는 것 같습니다.
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)
CommonList output이 안되는데 무엇이 문제일까요 ?
from langchain.output_parsers import CommaSeparatedListOutputParserfrom langchain.prompts import PromptTemplate output_parser = CommaSeparatedListOutputParser() format_instructions = output_parser.get_format_instructions()print(f"instruction : {format_instructions}")# instruction : Your response should be a list of comma separated values, eg: `foo, bar, baz` prompt = PromptTemplate( template="List five {subject}.\n{format_instructions}", input_variables=["subject"], partial_variables={"format_instructions": format_instructions},) from langchain_openai import OpenAI llm = OpenAI(temperature=0) _input = prompt.format(subject="ice create flavors")output = llm.invoke(_input) print(output_parser.parse(output)) # ['1. Vanilla\n2. Chocolate\n3. Strawberry\n4. Mint\n5. Coffee']이렇게 작성했는데, Output이 ['1. Vanilla\n2. Chocolate\n3. Strawberry\n4. Mint\n5. Coffee'] 이렇게 나옵니다.. parser의 문제일까요 모델의 문제일까요 ?
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)
Langchain version이 업데이트 되어서 코드를 수정해야할 것 같습니다.
from langchain_openai import OpenAI llm = OpenAI(model="davinci-002")OpenAI 라이브러리 import 하는 방식과text-devinci-003 모델이 이제 서비스를 안하는 것 같습니다.위처럼하고 몇번 수행하니 같은 결과가 나왔습니다.
-
해결됨삼각형의 실전! OpenAI Triton 초급
코드가 실행되는 순서에 관하여
@triton.jit def add_kernel(x_ptr, y_ptr, z_ptr, size, block_size: tl.constexpr): (...) def add(x, y): z = (...) size = (...) def grid(meta): return (triton.cdiv(size, meta["block_size"]),) add_kernel[grid](x, y, z, size, 1024) return z 안녕하세요 vector_add.py를 보던 중, 코드 라인이 실행되는 순서가 궁금하여 질문남깁니다 수업에서 runtime 때 meta가 받아진다고 말씀해주셨는데요.그렇다면 코드가 실행되는 순서가runtime 동안 add_kernel의 argument로 들어온 x, y, z, size, 1024가 meta로 받아지고meta를 이용해 grid가 (n, )의 형태로 set되고 그 이후 add_kernel이 실행된다가 맞을까요? 또 하나 궁금한 것은 아래 라인이 실행될 때 @triton.jit 데코레이터의 역할인데요add_kernel[grid](x, y, z, size, 1024)(x, y, z, size, 1024)를 meta로 받아준다그 meta가 적용된 특정 grid 설정 위에서 add_kernel 함수가 실행될 수 있게 해준다일까요? 파이썬에서 원래 함수는 subscriptable하지 않아, 위 syntax가 생소해서 질문드립니다
-
해결됨삼각형의 실전! OpenAI Triton 초급
실행을 위한 최적 환경
안녕하세요 hello_triton.py가 실행이 되지 않아 질문남깁니다 현재 cuda==11.8pytorch==2.1.2triton==2.1 의 환경을 사용하고 있습니다 hello_triton.py 실행 시 아래 오류가 뜹니다Traceback (most recent call last): File "/home/furiosa/Desktop/workspace/Triton/practice-triton/hello_triton.py", line 28, in <module> def hello_triton(): File "/home/furiosa/miniconda3/envs/triton/lib/python3.10/site-packages/triton/runtime/jit.py", line 542, in jit return decorator(fn) File "/home/furiosa/miniconda3/envs/triton/lib/python3.10/site-packages/triton/runtime/jit.py", line 534, in decorator return JITFunction( File "/home/furiosa/miniconda3/envs/triton/lib/python3.10/site-packages/triton/runtime/jit.py", line 433, in init self.run = self._make_launcher() File "/home/furiosa/miniconda3/envs/triton/lib/python3.10/site-packages/triton/runtime/jit.py", line 400, in makelauncher exec(src, scope) File "<string>", line 2 def hello_triton(, grid=None, num_warps=4, num_stages=3, extern_libs=None, stream=None, warmup=False, device=None, device_type=None): ^SyntaxError: invalid syntax triton==2.2 가 아니라 2.1을 사용하는 이유는, hello_triton.py 실행 시 아래 오류가 떴기 때문입니다RuntimeError: Triton Error [CUDA]: device kernel image is invalid 공식홈페이지에서 제공하는 01-vetor-add.py 같은 경우 실행이 잘됩니다triton을 사용하기 위한 최적환경은 무엇인지 별 설명이 없었던 것 같은데요어떤 cuda/pytorch 환경을 사용해야 오류가 가장 안나고 안정적인가요?위 오류는 왜 일어나고 어떻게 해결할까요? 인터넷에도 크게 도움되는 정보는 없어서 부득이 질문 남깁니다ㅠㅠ
-
미해결초보자를 위한 ChatGPT API 활용법 - API 기본 문법부터 12가지 프로그램 제작 배포까지
ch02 코드 에러 _ 신용카드 등록했음에도 'You exceeded your current quota ...' 에러가 발생합니다
안녕하세요 강사님좋은 강의 만들어주셔서 정말 감사합니다신용카드를 등록했음에도 불구하고 계속 같은 에러가 뜹니다. 지난번 어떤 분이 해당 에러 관련해서 글을 올려주셨고, 그것을 참고해 신용카드를 등록했음에도 같은 에러가 발생합니다 혹시 추가적으로 해야될 부분이 있는걸까요?
-
해결됨삼각형의 실전! OpenAI Triton 초급
강의 계획에 대하여
안녕하세요!모든 강의가 다 나오지는 않았지만 너무 좋은 강의인 것 같아 먼저 결제를 했습니다 ㅎㅎ혹시 바쁘시겠지만 섹션 4. Triton 톺아보기(TBD)에 대한 업데이트 계획을 알려주실 수 있을까요?제목만 봐서는 Triton 전체 개괄을 해주는 것 같아 꼭 들어보고 싶습니다업데이트 해주실동안 열심히 따라가고있겠습니다~~~!고급 강의도 기대 중입니다! 감사합니다!
-
해결됨삼각형의 실전! OpenAI Triton 초급
행렬곱 오차 문제
안녕하세요. 큰 질문은 아니고 사소한 질문일 수도 있습니다만.. 다름이 아니라, 행렬곱 강의에서 구현한 코드에서는 곱해주는 행렬 크기가 커질수록 오차가 누적되는 듯한(정확히 말하면 파이토치 내장 matmul과 계산 결과가 점점 더 달라지는듯한) 현상이 관찰되어 질문드립니다. 먼저, 실습에서 정의한 코드에서부터 x = torch.randn(16,16,device = 'cuda') y = torch.randn(16,16,device = 'cuda') a = matmul(x,y) b = torch.matmul(x,y) assert torch.allclose(a,b)torch.allclose 의 기본 인자(atol=1e-8, rtol=1e-5) 세팅에서는 assertion error가 발생하여 조건을 완화시켜야(atol=1e-5, rtol=1e-5) assertion이 통과되는 모습을 보였고x = torch.randn(2048,1024,device = 'cuda') y = torch.randn(1024,256,device = 'cuda') x, y의 크기를 이와 같이 키웠을 경우엔 atol=1e-4, rtol=1e-4로 조건을 완화시켜야 assertion을 통과하는 모습을 보였습니다. triton kernel로 구현한 행렬곱 연산과 PyTorch 내장 matmul 연산 모두 fp32로 연산이 이루어지고 있는데, 이러한 오차가 발생할 수 있는 원인에 무엇이 있는지 궁금해서 질문 드립니다.