묻고 답해요
167만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
18강 smithery 를 이용한 mcp 실습(업데이트 요청)
18강 smithery 를 이용한 mcp 실습(업데이트 요청) 업데이트를 꼭 해주세요.
-
미해결OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
guardrails 부분도 현재버전과 약간 다릅니다.
guardrails 부분도 현재버전과 약간 다릅니다.
-
미해결OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
smithery ai 언제 업데이트 되나요?
smithery ai 언제 업데이트 되나요? 꼭 배우고 싶습니다.
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
무료할당량 사용하는데 문제가 생겼습니다.
You do not have permission to edit these settingsOnly members of your organization with the "Owner" role can edit these settings.위와 같은 메시지와 나와 실습진행이 되지 않습니다.
-
미해결처음 해보는 맞춤형 LLM 만들기 – LoRA & QLoRA 파인튜닝 입문
20강에서 파인튜닝 때 사용한 데이터가 없어졌습니다. LoRA Trainer 매개변수도 라이브러리 업그레이드로 수정되었습니다.
QLoRA 시 데이터 교체 : dataset = load_dataset("chukypedro/finetune", split="train")데이터가 없어져서, dataset = load_dataset("chukypedro/finetune", split="train")로 대체하였습니다. 허깅페이스 사이트 들어가서 검색해도 chukypedro/finetune데이터는 없습니다LoRA Trainer에서 파라미터명이 바뀌었습니다.trainer = Trainer( model=model, # 학습할 모델 args=training_args, # 학습 설정 train_dataset=tokenized_dataset, # 학습 데이터 # tokenizer=tokenizer, # 텍스트 디코딩용(구버전 (4.45 이하)) processing_class=tokenizer, # 최신 버전 (4.46 이상) data_collator=data_collator, # 배치 구성 도우미 compute_metrics=compute_metrics # <-- 여기 추가 )
-
미해결처음 해보는 맞춤형 LLM 만들기 – LoRA & QLoRA 파인튜닝 입문
pc에서는 괜찮은데 탭으로 들으니 화면확대시 화면이 까맙니다
pc에서는 괜찮은데 탭으로 들으니 화면확대시 화면이 까맙니다.다른 강의들을 때는 이런 적이 없었는데요. 무슨 문제일까요?
-
미해결처음 해보는 맞춤형 LLM 만들기 – LoRA & QLoRA 파인튜닝 입문
모든 자료 다운로드 누를때마다 똑같은 excel파일이 다운로드 받아짐. 노션 주소 공유되나요?
모든 자료 다운로드 누를때마다 똑같은 excel파일이 다운로드 받아지는데 왜 그런걸까요?모두 이미지와 같은 엑셀파일이 모두 다운 받아집니다 강의 소개에 학습자료는 노션링크로 제공된다는데 노션 링크를 공유받을 수 있을까요?
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
18강에서 smithery 화면 오류
제공된 stock price 들어가면 Get URL with keys instead 를 찾아볼 수 없고, Connect 에는 No Deployments found 라고만 뜨니다.
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
mcp 강의 38:33 초 프로필이 안보여요
mcp 강의 38:33 부근에서 스미서리 화면 자체가 저와 달라서 저는 프로필이 안뜹니다. 좌측 상단의 마크도 다릅니다.
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
MCP 강의에서 Smithery 에 URL 문제
구글 드라이브 말고 다른 것도 혹시 몰라 봐봤는데 해당 부분에 Get URL with keys instead 가 없습니다.
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
MCP 강의에서 Smithery 에러, No deployments found
No deployments found라고 뜨는데, 회사 노트북으로 듣기 때문에 보안상 Smithery 사이트 접근이 잘 안되서 그러는 걸까요?
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
22강 빌드 에러 문제
안녕하세요.Cloudflare를 이용해 앱 배포를 진행하던 중, 강의 영상에서 안내된 과정과 현재 Cloudflare의 인터페이스 및 설정 방법이 달라진 것을 확인했습니다. 그 과정에서 생성 및 배포를 진행할 때 지속적으로 빌드 실패가 발생하고 있습니다.특히 최근 업데이트로 인해 "Worker 생성" 관련 버튼과 설정 방식이 변경된 것으로 보이며, 이전에는 확인할 수 있었던 빌드 명령(Build Command) 설정이 현재는 "선택 사항"으로 표시되어 정확한 설정 방법을 파악하기 어려운 상황입니다.최신화된 Cloudflare 환경에서는 어떤 방식으로 생성 및 배포 과정을 진행해야 하는지 안내해 주시면 감사하겠습니다.감사합니다.
-
미해결대규모 언어 모델, 핵심만 빠르게!
수업 하실 때 활용하시는 강의 자료를 제공 받을 수 있는지 문의 드립니다
수업 하실 때 활용하시는 강의 자료를 제공 받을 수 있는지 문의 드립니다
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
3강 초대 이메일이 안옵니다
3강의 1:44 쯤에 설문 조사 링크 제출했는데 작성한 이메일에 초대 메일이 안옵니다. 조치 부탁드립니다.
-
미해결강화학습 올인원: 기초, 최신 알고리즘, 실무 활용까지
마르코프 결정과정 질문
안녕하세요. 강의 정말 잘 듣고 있습니다. 질문이 있어 글 남겨봅니다. 행동가치함수는 그 상태에서 행동을 통해 즉시보상을 얻는 것이고, 상태가치함수는 그 상태에서 정책을 쭉 따라가면서 가치함수를 계산한다는 제 이해가 맞을까요? 상태 가치가 제일 높은 것을 선택하는 것이 최적 정책이고, 최적 정책을 만들기 위해서는 각 상태에서 결정적 최적정책을 통해 최적행동가치함수의 값이 가장 큰 행동을 선택한다는 제 이해가 맞을까요?좋은 하루 되시길 바랍니다.
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
22강 빌드할때 에러가 뜨고 있습니다.
2026-01-24T18:01:27.860119Z Cloning repository...2026-01-24T18:01:28.415748Z From https://github.com/ssmktr/openai-chatkit-starter-app2026-01-24T18:01:28.416363Z * branch d8abdc1e7810bbe5fdb3c809e65c2b07141d1450 -> FETCH_HEAD2026-01-24T18:01:28.41648Z 2026-01-24T18:01:28.451163Z HEAD is now at d8abdc1 Simplify ChatKit backend (#104)2026-01-24T18:01:28.451626Z 2026-01-24T18:01:28.523349Z 2026-01-24T18:01:28.523863Z Using v2 root directory strategy2026-01-24T18:01:28.544435Z Success: Finished cloning repository files2026-01-24T18:01:30.338662Z Checking for configuration in a Wrangler configuration file (BETA)2026-01-24T18:01:30.339458Z 2026-01-24T18:01:31.455516Z No wrangler.toml file found. Continuing.2026-01-24T18:01:31.532601Z Detected the following tools from environment: nodejs@22.21.12026-01-24T18:01:31.533343Z Installing nodejs 22.21.12026-01-24T18:01:32.491348Z Trying to update node-build... ok2026-01-24T18:01:32.581604Z To follow progress, use 'tail -f /tmp/node-build.20260124180132.491.log' or pass --verbose2026-01-24T18:01:32.676902Z Downloading node-v22.21.1-linux-x64.tar.gz...2026-01-24T18:01:32.916706Z -> https://nodejs.org/dist/v22.21.1/node-v22.21.1-linux-x64.tar.gz2026-01-24T18:01:35.061658Z 2026-01-24T18:01:35.061984Z WARNING: node-v22.21.1-linux-x64 is in LTS Maintenance mode and nearing its end of life.2026-01-24T18:01:35.062214Z It only receives critical security updates, critical bug fixes and documentation updates.2026-01-24T18:01:35.0625Z 2026-01-24T18:01:35.062624Z Installing node-v22.21.1-linux-x64...2026-01-24T18:01:35.494128Z Installed node-v22.21.1-linux-x64 to /opt/buildhome/.asdf/installs/nodejs/22.21.12026-01-24T18:01:35.49449Z 2026-01-24T18:01:36.434863Z Executing user command: npx @cloudflare/next-on-pages@12026-01-24T18:01:37.460162Z npm warn exec The following package was not found and will be installed: @cloudflare/next-on-pages@1.13.162026-01-24T18:01:49.78096Z npm warn deprecated path-match@1.2.4: This package is archived and no longer maintained. For support, visit https://github.com/expressjs/express/discussions2026-01-24T18:01:50.799789Z npm warn deprecated tar@6.2.1: Old versions of tar are not supported, and contain widely publicized security vulnerabilities, which have been fixed in the current version. Please update. Support for old versions may be purchased (at exhorbitant rates) by contacting i@izs.me2026-01-24T18:01:51.18784Z npm warn deprecated @cloudflare/next-on-pages@1.13.16: Please use the OpenNext adapter instead: https://opennext.js.org/cloudflare2026-01-24T18:01:59.323249Z ⚡️ @cloudflare/next-on-pages CLI v.1.13.162026-01-24T18:01:59.510375Z ⚡️ Detected Package Manager: npm (10.9.4)2026-01-24T18:01:59.510832Z ⚡️ Preparing project...2026-01-24T18:01:59.513738Z ⚡️ Project is ready2026-01-24T18:01:59.514039Z ⚡️ Building project...2026-01-24T18:02:00.366087Z ▲ npm warn exec The following package was not found and will be installed: vercel@50.5.02026-01-24T18:02:05.898447Z ▲ npm warn deprecated tar@6.2.1: Old versions of tar are not supported, and contain widely publicized security vulnerabilities, which have been fixed in the current version. Please update. Support for old versions may be purchased (at exhorbitant rates) by contacting i@izs.me2026-01-24T18:02:08.620603Z ▲ Vercel CLI 50.5.02026-01-24T18:02:08.625834Z ▲ > NOTE: The Vercel CLI now collects telemetry regarding usage of the CLI.2026-01-24T18:02:08.626058Z ▲ > This information is used to shape the CLI roadmap and prioritize features.2026-01-24T18:02:08.626552Z ▲ > You can learn more, including how to opt-out if you'd not like to participate in this program, by visiting the following URL:2026-01-24T18:02:08.626709Z ▲ > https://vercel.com/docs/cli/about-telemetry2026-01-24T18:02:08.713183Z ▲ WARN! Build not running on Vercel. System environment variables will not be available.2026-01-24T18:02:08.844345Z ▲ Your application is being built using next build. If you need to define a different build step, please create a vercel-build script in your package.json (e.g. { "scripts": { "vercel-build": "npm run prepare && next build" } }).2026-01-24T18:02:08.847668Z ▲ Installing dependencies...2026-01-24T18:02:09.443264Z ▲ up to date in 464ms2026-01-24T18:02:09.460617Z ▲ Warning: Could not identify Next.js version, ensure it is defined as a project dependency.2026-01-24T18:02:09.481655Z ▲ Error: No Next.js version detected. Make sure your package.json has "next" in either "dependencies" or "devDependencies". Also check your Root Directory setting matches the directory of your package.json file.2026-01-24T18:02:09.554599Z 2026-01-24T18:02:09.554859Z ⚡️ The Vercel build npx vercel build) command failed. For more details see the Vercel logs above.2026-01-24T18:02:09.554978Z ⚡️ If you need help solving the issue, refer to the Vercel or Next.js documentation or their repositories.2026-01-24T18:02:09.555101Z 2026-01-24T18:02:09.599906Z Failed: Error while executing user command. Exited with error code: 12026-01-24T18:02:09.609667Z Failed: build command exited with code: 12026-01-24T18:02:11.150853Z Failed: error occurred while running build command 빌드시 위에처럼 에러가 뜨면서 응용 프로그램 빌드 중 에서 멈추고 있습니다. 해결방법이 어떻게 될까요?
-
미해결<밑바닥부터 만들면서 배우는 LLM> 해설 강의
바흐다나우 어텐션을 시작하게 된 이유가 궁금해요!
바흐다나우 어텐션에서 모든 입력 토큰을 참조하는 이유와 그로인한 바흐다나우 어텐션 장점이 무엇인지 궁금해요! 찍어주신 강의에서는 아래와 같이 정리해볼 수 있었는데요, 어떤 장점이 있는지 궁금해서 질문드립니다! - 방법 : 출력 토큰을 생성할 때, 모든 입력 토큰을 참조하고, 입력 토큰별로 중요도를 기록한다.- 단점 : 토큰양이 많아질 수록 저장공간 문제가 발생한다.- 단점으로 인한 제약 : 입력 텍스트 길이에 제한이 발생한다. 좋은 강의 감사합니다.
-
미해결강화학습 올인원: 기초, 최신 알고리즘, 실무 활용까지
stable_baseline3 설치 안됨
[WinError 1114] DLL 초기화 루틴을 실행할 수 없습니다. Error loading "c:\Users\testos\AppData\Local\Programs\Python\Python310\lib\site-packages\torch\lib\c10.dll" or one of its dependencies.이렇게 오류가 뜨면서 설치가 되지 않습니다ㅠㅠ프로그램은 visual studio code 사용중입니다!
-
미해결처음 해보는 맞춤형 LLM 만들기 – LoRA & QLoRA 파인튜닝 입문
타임아웃 문제
타임아웃 에러 때문에 마지막 실습이 어렵습니다.==((====))== Unsloth 2026.1.2: Fast Llama patching. Transformers: 4.57.3. \\ /| Tesla T4. Num GPUs = 1. Max memory: 14.741 GB. Platform: Linux. O^O/ \_/ \ Torch: 2.9.0+cu126. CUDA: 7.5. CUDA Toolkit: 12.6. Triton: 3.5.0 \ / Bfloat16 = FALSE. FA [Xformers = None. FA2 = False] "-____-" Free license: http://github.com/unslothai/unsloth Unsloth: Fast downloading is enabled - ignore downloading bars which are red colored! --------------------------------------------------------------------------- TimeoutError Traceback (most recent call last) /usr/local/lib/python3.12/dist-packages/unsloth/models/_utils.py in _get_statistics(statistics, force_download) 1173 try: -> 1174 time_limited_stats_check() 1175 except TimeoutError: 6 frames/usr/local/lib/python3.12/dist-packages/unsloth_zoo/rl_environments.py in wrapper(*args, **kwargs) 774 elif effective_backend == "process": --> 775 return _run_in_subprocess(func, seconds, args, kwargs, 776 start_method=start_method, kill_grace=kill_grace) /usr/local/lib/python3.12/dist-packages/unsloth_zoo/rl_environments.py in _run_in_subprocess(func, seconds, args, kwargs, start_method, kill_grace) 701 proc.join() --> 702 raise TimeoutError(f"Timed out after {seconds:g}s") 703 except KeyboardInterrupt: TimeoutError: Timed out after 120s During handling of the above exception, another exception occurred: TimeoutError Traceback (most recent call last) /tmp/ipython-input-2933263888.py in <cell line: 0>() 4 5 # ✅ STEP 1: 모델 및 토크나이저 로딩 (Unsloth LLaMA 3.1 8B 기준) ----> 6 model, tokenizer = FastLanguageModel.from_pretrained( 7 model_name = "unsloth/Meta-Llama-3.1-8B", 8 max_seq_length = 2048, /usr/local/lib/python3.12/dist-packages/unsloth/models/loader.py in from_pretrained(model_name, max_seq_length, dtype, load_in_4bit, load_in_8bit, load_in_16bit, full_finetuning, token, device_map, rope_scaling, fix_tokenizer, trust_remote_code, use_gradient_checkpointing, resize_model_vocab, revision, use_exact_model_name, offload_embedding, float32_mixed_precision, fast_inference, gpu_memory_utilization, float8_kv_cache, random_state, max_lora_rank, disable_log_stats, qat_scheme, load_in_fp8, unsloth_tiled_mlp, *args, **kwargs) 582 load_in_8bit_kwargs = False 583 --> 584 model, tokenizer = dispatch_model.from_pretrained( 585 model_name = model_name, 586 max_seq_length = max_seq_length, /usr/local/lib/python3.12/dist-packages/unsloth/models/llama.py in from_pretrained(model_name, max_seq_length, dtype, load_in_4bit, token, device_map, rope_scaling, fix_tokenizer, model_patcher, tokenizer_name, trust_remote_code, revision, fast_inference, gpu_memory_utilization, float8_kv_cache, random_state, max_lora_rank, disable_log_stats, unsloth_vllm_standby, num_labels, qat_scheme, **kwargs) 2202 model_patcher.pre_patch() 2203 # For debugging - we use a download counter to see if environments are not breaking or if HF is down -> 2204 get_statistics(kwargs.get("local_files_only", False)) 2205 2206 if dtype is None: /usr/local/lib/python3.12/dist-packages/unsloth/models/_utils.py in get_statistics(local_files_only) 1212 disable_progress_bars() 1213 disabled = True -> 1214 _get_statistics(None) 1215 _get_statistics("repeat", force_download = False) 1216 total_memory = ( /usr/local/lib/python3.12/dist-packages/unsloth/models/_utils.py in _get_statistics(statistics, force_download) 1174 time_limited_stats_check() 1175 except TimeoutError: -> 1176 raise TimeoutError( 1177 "Unsloth: HuggingFace seems to be down after trying for 120 seconds :(\n" 1178 "Check https://status.huggingface.co/ for more details.\n" TimeoutError: Unsloth: HuggingFace seems to be down after trying for 120 seconds :( Check https://status.huggingface.co/ for more details. As a temporary measure, use modelscope with the same model name ie: ``` pip install modelscope import os; os.environ['UNSLOTH_USE_MODELSCOPE'] = '1' from unsloth import FastLanguageModel model = FastLanguageModel.from_pretrained('unsloth/gpt-oss-20b') ```해결 방법이 있을까요? 강사님...
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
누적입력에서 겹치는 방식으로 넘어간 이유
앞 텍스트들로 다음 단어 하나를 예측한다고 했는데, 왜 슬라이딩 윈도에서는 입력과 타깃이 겹쳐져있는건가요?또한 앞 텍스트부터 누적한 다음, 타깃 한 단어만 예측하는 것으로 이해했습니다. 왜 4개씩 나누는 것인지 궁금합니다.왜 갑자기 슬라이딩 윈도우로 넘어간것인지 그 중간단계가 이해되지 않습니다.