묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결강화학습 올인원: 기초, 최신 알고리즘, 실무 활용까지
마르코프 결정과정 질문
안녕하세요. 강의 정말 잘 듣고 있습니다. 질문이 있어 글 남겨봅니다. 행동가치함수는 그 상태에서 행동을 통해 즉시보상을 얻는 것이고, 상태가치함수는 그 상태에서 정책을 쭉 따라가면서 가치함수를 계산한다는 제 이해가 맞을까요? 상태 가치가 제일 높은 것을 선택하는 것이 최적 정책이고, 최적 정책을 만들기 위해서는 각 상태에서 결정적 최적정책을 통해 최적행동가치함수의 값이 가장 큰 행동을 선택한다는 제 이해가 맞을까요?좋은 하루 되시길 바랍니다.
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
22강 빌드할때 에러가 뜨고 있습니다.
2026-01-24T18:01:27.860119Z Cloning repository...2026-01-24T18:01:28.415748Z From https://github.com/ssmktr/openai-chatkit-starter-app2026-01-24T18:01:28.416363Z * branch d8abdc1e7810bbe5fdb3c809e65c2b07141d1450 -> FETCH_HEAD2026-01-24T18:01:28.41648Z 2026-01-24T18:01:28.451163Z HEAD is now at d8abdc1 Simplify ChatKit backend (#104)2026-01-24T18:01:28.451626Z 2026-01-24T18:01:28.523349Z 2026-01-24T18:01:28.523863Z Using v2 root directory strategy2026-01-24T18:01:28.544435Z Success: Finished cloning repository files2026-01-24T18:01:30.338662Z Checking for configuration in a Wrangler configuration file (BETA)2026-01-24T18:01:30.339458Z 2026-01-24T18:01:31.455516Z No wrangler.toml file found. Continuing.2026-01-24T18:01:31.532601Z Detected the following tools from environment: nodejs@22.21.12026-01-24T18:01:31.533343Z Installing nodejs 22.21.12026-01-24T18:01:32.491348Z Trying to update node-build... ok2026-01-24T18:01:32.581604Z To follow progress, use 'tail -f /tmp/node-build.20260124180132.491.log' or pass --verbose2026-01-24T18:01:32.676902Z Downloading node-v22.21.1-linux-x64.tar.gz...2026-01-24T18:01:32.916706Z -> https://nodejs.org/dist/v22.21.1/node-v22.21.1-linux-x64.tar.gz2026-01-24T18:01:35.061658Z 2026-01-24T18:01:35.061984Z WARNING: node-v22.21.1-linux-x64 is in LTS Maintenance mode and nearing its end of life.2026-01-24T18:01:35.062214Z It only receives critical security updates, critical bug fixes and documentation updates.2026-01-24T18:01:35.0625Z 2026-01-24T18:01:35.062624Z Installing node-v22.21.1-linux-x64...2026-01-24T18:01:35.494128Z Installed node-v22.21.1-linux-x64 to /opt/buildhome/.asdf/installs/nodejs/22.21.12026-01-24T18:01:35.49449Z 2026-01-24T18:01:36.434863Z Executing user command: npx @cloudflare/next-on-pages@12026-01-24T18:01:37.460162Z npm warn exec The following package was not found and will be installed: @cloudflare/next-on-pages@1.13.162026-01-24T18:01:49.78096Z npm warn deprecated path-match@1.2.4: This package is archived and no longer maintained. For support, visit https://github.com/expressjs/express/discussions2026-01-24T18:01:50.799789Z npm warn deprecated tar@6.2.1: Old versions of tar are not supported, and contain widely publicized security vulnerabilities, which have been fixed in the current version. Please update. Support for old versions may be purchased (at exhorbitant rates) by contacting i@izs.me2026-01-24T18:01:51.18784Z npm warn deprecated @cloudflare/next-on-pages@1.13.16: Please use the OpenNext adapter instead: https://opennext.js.org/cloudflare2026-01-24T18:01:59.323249Z ⚡️ @cloudflare/next-on-pages CLI v.1.13.162026-01-24T18:01:59.510375Z ⚡️ Detected Package Manager: npm (10.9.4)2026-01-24T18:01:59.510832Z ⚡️ Preparing project...2026-01-24T18:01:59.513738Z ⚡️ Project is ready2026-01-24T18:01:59.514039Z ⚡️ Building project...2026-01-24T18:02:00.366087Z ▲ npm warn exec The following package was not found and will be installed: vercel@50.5.02026-01-24T18:02:05.898447Z ▲ npm warn deprecated tar@6.2.1: Old versions of tar are not supported, and contain widely publicized security vulnerabilities, which have been fixed in the current version. Please update. Support for old versions may be purchased (at exhorbitant rates) by contacting i@izs.me2026-01-24T18:02:08.620603Z ▲ Vercel CLI 50.5.02026-01-24T18:02:08.625834Z ▲ > NOTE: The Vercel CLI now collects telemetry regarding usage of the CLI.2026-01-24T18:02:08.626058Z ▲ > This information is used to shape the CLI roadmap and prioritize features.2026-01-24T18:02:08.626552Z ▲ > You can learn more, including how to opt-out if you'd not like to participate in this program, by visiting the following URL:2026-01-24T18:02:08.626709Z ▲ > https://vercel.com/docs/cli/about-telemetry2026-01-24T18:02:08.713183Z ▲ WARN! Build not running on Vercel. System environment variables will not be available.2026-01-24T18:02:08.844345Z ▲ Your application is being built using next build. If you need to define a different build step, please create a vercel-build script in your package.json (e.g. { "scripts": { "vercel-build": "npm run prepare && next build" } }).2026-01-24T18:02:08.847668Z ▲ Installing dependencies...2026-01-24T18:02:09.443264Z ▲ up to date in 464ms2026-01-24T18:02:09.460617Z ▲ Warning: Could not identify Next.js version, ensure it is defined as a project dependency.2026-01-24T18:02:09.481655Z ▲ Error: No Next.js version detected. Make sure your package.json has "next" in either "dependencies" or "devDependencies". Also check your Root Directory setting matches the directory of your package.json file.2026-01-24T18:02:09.554599Z 2026-01-24T18:02:09.554859Z ⚡️ The Vercel build npx vercel build) command failed. For more details see the Vercel logs above.2026-01-24T18:02:09.554978Z ⚡️ If you need help solving the issue, refer to the Vercel or Next.js documentation or their repositories.2026-01-24T18:02:09.555101Z 2026-01-24T18:02:09.599906Z Failed: Error while executing user command. Exited with error code: 12026-01-24T18:02:09.609667Z Failed: build command exited with code: 12026-01-24T18:02:11.150853Z Failed: error occurred while running build command 빌드시 위에처럼 에러가 뜨면서 응용 프로그램 빌드 중 에서 멈추고 있습니다. 해결방법이 어떻게 될까요?
-
미해결<밑바닥부터 만들면서 배우는 LLM> 해설 강의
바흐다나우 어텐션을 시작하게 된 이유가 궁금해요!
바흐다나우 어텐션에서 모든 입력 토큰을 참조하는 이유와 그로인한 바흐다나우 어텐션 장점이 무엇인지 궁금해요! 찍어주신 강의에서는 아래와 같이 정리해볼 수 있었는데요, 어떤 장점이 있는지 궁금해서 질문드립니다! - 방법 : 출력 토큰을 생성할 때, 모든 입력 토큰을 참조하고, 입력 토큰별로 중요도를 기록한다.- 단점 : 토큰양이 많아질 수록 저장공간 문제가 발생한다.- 단점으로 인한 제약 : 입력 텍스트 길이에 제한이 발생한다. 좋은 강의 감사합니다.
-
미해결강화학습 올인원: 기초, 최신 알고리즘, 실무 활용까지
stable_baseline3 설치 안됨
[WinError 1114] DLL 초기화 루틴을 실행할 수 없습니다. Error loading "c:\Users\testos\AppData\Local\Programs\Python\Python310\lib\site-packages\torch\lib\c10.dll" or one of its dependencies.이렇게 오류가 뜨면서 설치가 되지 않습니다ㅠㅠ프로그램은 visual studio code 사용중입니다!
-
미해결처음 해보는 맞춤형 LLM 만들기 – LoRA & QLoRA 파인튜닝 입문
타임아웃 문제
타임아웃 에러 때문에 마지막 실습이 어렵습니다.==((====))== Unsloth 2026.1.2: Fast Llama patching. Transformers: 4.57.3. \\ /| Tesla T4. Num GPUs = 1. Max memory: 14.741 GB. Platform: Linux. O^O/ \_/ \ Torch: 2.9.0+cu126. CUDA: 7.5. CUDA Toolkit: 12.6. Triton: 3.5.0 \ / Bfloat16 = FALSE. FA [Xformers = None. FA2 = False] "-____-" Free license: http://github.com/unslothai/unsloth Unsloth: Fast downloading is enabled - ignore downloading bars which are red colored! --------------------------------------------------------------------------- TimeoutError Traceback (most recent call last) /usr/local/lib/python3.12/dist-packages/unsloth/models/_utils.py in _get_statistics(statistics, force_download) 1173 try: -> 1174 time_limited_stats_check() 1175 except TimeoutError: 6 frames/usr/local/lib/python3.12/dist-packages/unsloth_zoo/rl_environments.py in wrapper(*args, **kwargs) 774 elif effective_backend == "process": --> 775 return _run_in_subprocess(func, seconds, args, kwargs, 776 start_method=start_method, kill_grace=kill_grace) /usr/local/lib/python3.12/dist-packages/unsloth_zoo/rl_environments.py in _run_in_subprocess(func, seconds, args, kwargs, start_method, kill_grace) 701 proc.join() --> 702 raise TimeoutError(f"Timed out after {seconds:g}s") 703 except KeyboardInterrupt: TimeoutError: Timed out after 120s During handling of the above exception, another exception occurred: TimeoutError Traceback (most recent call last) /tmp/ipython-input-2933263888.py in <cell line: 0>() 4 5 # ✅ STEP 1: 모델 및 토크나이저 로딩 (Unsloth LLaMA 3.1 8B 기준) ----> 6 model, tokenizer = FastLanguageModel.from_pretrained( 7 model_name = "unsloth/Meta-Llama-3.1-8B", 8 max_seq_length = 2048, /usr/local/lib/python3.12/dist-packages/unsloth/models/loader.py in from_pretrained(model_name, max_seq_length, dtype, load_in_4bit, load_in_8bit, load_in_16bit, full_finetuning, token, device_map, rope_scaling, fix_tokenizer, trust_remote_code, use_gradient_checkpointing, resize_model_vocab, revision, use_exact_model_name, offload_embedding, float32_mixed_precision, fast_inference, gpu_memory_utilization, float8_kv_cache, random_state, max_lora_rank, disable_log_stats, qat_scheme, load_in_fp8, unsloth_tiled_mlp, *args, **kwargs) 582 load_in_8bit_kwargs = False 583 --> 584 model, tokenizer = dispatch_model.from_pretrained( 585 model_name = model_name, 586 max_seq_length = max_seq_length, /usr/local/lib/python3.12/dist-packages/unsloth/models/llama.py in from_pretrained(model_name, max_seq_length, dtype, load_in_4bit, token, device_map, rope_scaling, fix_tokenizer, model_patcher, tokenizer_name, trust_remote_code, revision, fast_inference, gpu_memory_utilization, float8_kv_cache, random_state, max_lora_rank, disable_log_stats, unsloth_vllm_standby, num_labels, qat_scheme, **kwargs) 2202 model_patcher.pre_patch() 2203 # For debugging - we use a download counter to see if environments are not breaking or if HF is down -> 2204 get_statistics(kwargs.get("local_files_only", False)) 2205 2206 if dtype is None: /usr/local/lib/python3.12/dist-packages/unsloth/models/_utils.py in get_statistics(local_files_only) 1212 disable_progress_bars() 1213 disabled = True -> 1214 _get_statistics(None) 1215 _get_statistics("repeat", force_download = False) 1216 total_memory = ( /usr/local/lib/python3.12/dist-packages/unsloth/models/_utils.py in _get_statistics(statistics, force_download) 1174 time_limited_stats_check() 1175 except TimeoutError: -> 1176 raise TimeoutError( 1177 "Unsloth: HuggingFace seems to be down after trying for 120 seconds :(\n" 1178 "Check https://status.huggingface.co/ for more details.\n" TimeoutError: Unsloth: HuggingFace seems to be down after trying for 120 seconds :( Check https://status.huggingface.co/ for more details. As a temporary measure, use modelscope with the same model name ie: ``` pip install modelscope import os; os.environ['UNSLOTH_USE_MODELSCOPE'] = '1' from unsloth import FastLanguageModel model = FastLanguageModel.from_pretrained('unsloth/gpt-oss-20b') ```해결 방법이 있을까요? 강사님...
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
누적입력에서 겹치는 방식으로 넘어간 이유
앞 텍스트들로 다음 단어 하나를 예측한다고 했는데, 왜 슬라이딩 윈도에서는 입력과 타깃이 겹쳐져있는건가요?또한 앞 텍스트부터 누적한 다음, 타깃 한 단어만 예측하는 것으로 이해했습니다. 왜 4개씩 나누는 것인지 궁금합니다.왜 갑자기 슬라이딩 윈도우로 넘어간것인지 그 중간단계가 이해되지 않습니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
인증 하는 방법
안녕하세요 챌린지 열심히 하고 있는 수강생입니다다름이 아니라 이 챌린지를 성공하면 길벗 포인트를 받을 수 있다고 본 거 같은데혹시 4장부터는 인증을 어떻게 해야하는 지 궁금합니다!
-
미해결LLM Finetuning : RunPod와 Multi-GPU 실습
fine tuning에 대한 개념적 이해
안녕하세요 강사님강의 잘 듣고 있습니다.강의 내용중 좀 더 이해하고 싶은 부분이 생겨 질문드립니다. #질문 18분53초의 화면상의 ppt 슬라이드를 보면행렬의 shape를 (a,m ), (m *n ), (a, n) 적어주셨는데 각각의 의미가 궁금합니다. (a,m) 은 무엇을 의미하는 행렬이며이때 a,m각각은 무엇을 나타내는지,(m*n) 행렬은 무엇을 의미하는 행렬이며m,n은 무엇을 나타내는지(a,n) 행렬은 무엇을 의미하는 행렬이며a,n은 무엇을 나타내는지. ( 제 추측으론, m은 모델의 vocabulary 사전의 개수. 또는 토큰id의 max값 같기도하고...n은 벡터의 길이 같기도하고....) #질문 2그리고 파인 튜닝을 위해 qlora n*n 행렬이 그림상에 추가되었는데, 개념적으로 데이터가 추가되었다고는 이해되는데 실제 물리적으로는 데이터가 어떻게 추가된것인지 궁금합니다.단순히 m*n 행렬에 n행이 추가되어m+n, n 행렬이 되었다든지...
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
open AI 플랫폼에서 MCP Server선택시 무한로딩표시만.
https://platform.openai.com/chat/edit?models=gpt-5-nano여기에서tools > add 선택, MCP Server를 선택하면, Add Connector 팝업이 뜨는데, 계속 무한로딩되면서 화면에 아무것도 뜨지가 않습니다. 검색해보니 맥os는 시스템설정 > 보안에 가면 MCP관련해서 설정을 열어줘야 한다는데 관련 내용도 보이질 않네요. 혹시 무엇이 문제일까요? ==> 다음날 어떤 작업도 하지 않았는데 저절로 해결이 되었습니다. 어떤 이유로 해결되었는지 모르겠습니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
7장 3절 이후는 언제 올리나요?
곧 7장을 들어가는데 7장 2절까지만 강의가 있고 그 이후에는 아직 없는 것 같아서 7장 2절 이후의 강의는 언제 올리는 지 궁금해서 문의 드립니다
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
2.2 텍스트 토큰화 하기 강의 질문
영상 초반에서 말씀하시는 "이전 영상"이 어떤 영상인지 궁금합니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
Chapter1에서 말하는 "모델"이 정확히 어떤건가요?
LLM의 모델이나 파운데이션 모델 이런 말에서 쓰는 "모델"이라는 단어가 정확히 어떤 뜻인지 궁금합니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
챌린지 쿠폰 재 발급 가능 여부 확인 드립니다.
안녕하세요.보내주신 챌린지 쿠폰을 오늘 확인했습니다.기한이 지나 사용이 불가한데혹시 재발급이 가능할지 문의드립니다.새소식을 바로 확인을 못해서.ㅠㅠㅠ수고하세요.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
gpt_download 관련 오류 질의입니다.
5.5 실습진행하면서 오류가 발생해서 문의 드립니다.주피터 노트북 진행 환경 입니다. 오류는 203 페이지 진행중에 발생settings, params = download_and_load_gpt2(model_size="124M", models_dir="gpt2") file download 이후 오류로 그림과 같습니다. 혹시 해결가능한 방법이 있을까요?여기서 막히면 다음 진행이 어려울 까요?확인 부탁드립니다.
-
해결됨OpenAI를 활용한 나만의 AI 에이전트 만들기 (Agent Builder, GPT-5, Chatkit, Cloudflare, MCP, Fine Tuning, CoT 등)
13강 MCP 실습 2 (Google Drive)에서 Refresh Token 생성 실패
13강 MCP 실습 2 (Google Drive)에서 Refresh Token 생성이 안됩니다. 어떻게 처리해야 하는 지 도와주시면 감사하겠습니다. 우선, 동의화면을 구성할 때, "대상"을 "내부"로 할 수 가 없어서 "외부"로 하였습니다 (Goolge Workspace를 사용하지 않아서 "내부"를 선택하지 못한다는 메세지 발생)OAuth 2.0 Playground에서 REFRESH_TOKEN 발급을 진행하는 중 마지막 과정에서 "엑세스 차단됨: Smithery Test는 Google 인증 절차를 완료하지 않았습니다" 오류 메세지 후 더 이상 진행되지 않음
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
책관련 질문입니다.
안녕하세요.저작하신 책을 읽어 보고 싶어 검색해 보고궁금증이 생겨 질문드립니다. 혼자 공부하는 머신러닝 + 딥러닝과혼자 만들면서 공부하는 딥러닝두책의 차이점을 알고 싶습니다. 수고하세요.
-
미해결LLM Finetuning : RunPod와 Multi-GPU 실습
gemma 2 2b runpod 로컬 PC 사양
gemma 2b 모델 runpod 클라우드 사용하지 않고도 로컬 runpod 을 띄워서 구동이 가능할거 같은데 가능할까요?클라우드 비용을 지불 하고 찾아보니 16GB 정도면 넉넉하다고 하네요ㅠ https://merlio.app/blog/run-google-gemma-2b-locallyrunpod 기본 크레딧 충전이 10달러인데 간단한 처음 입문하는 분들 입장에서는 실습으로 쓰기에 부담이 좀 될거 같습니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
챕터 4 밑바닥부터 GPT 모델 구현하기 강의 업로드 문의드립니다.
챕터 4 밑바닥부터 GPT 모델 구현하기 강의가선택해도 강의가 나오지 않는 것은, 아직 등록이 되지 않아서 그런건지 문의드립니다.
-
해결됨<밑바닥부터 만들면서 배우는 LLM> 해설 강의
슬라이딩 윈도우를 위해 for Loop 만들시 stride 관련 질문
Chapter2에서 슬라이딩 윈도우 만들때 stride를 128로 했는데요, 타깃은 인풋 마지막 토큰의 다음번째 토큰을 예측 하기 위해 for문을 돌면서 첫번째 타깃은 2번째 토큰, 다음은 3번째 토큰.. 이런식으로 되는걸로 아는데 갑자기 128로 건너 뛰는 이유는 무엇인지요?
-
미해결강화학습 올인원: 기초, 최신 알고리즘, 실무 활용까지
자산배분비율 변경 백테스트와 어떻게 다르죠?
해당 강화학습 모델이 어떤 의미를 가지는지 궁금합니다.그냥 자산배뷴비율 백테스트로 gridsearch식으로 비율을 다르게 해서 지표가 가장 좋은걸 찾는 방법과강화학습을 사용한것과 어떻게 다른것인지 궁금하네요.강화학습을 사용했기때문에 리밸런싱 시기마다 자산 등락 경향을 참고해서 다음 최적의 리밸런싱 비율을 구하는건가요?