묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
강의자료는 어떻게 보나요
강의가 1강 2강...이렇게 강의 자료가 있는데 아무리 열어도 수업하는 강의와 다른데 어떻게 보는 건지요
-
미해결처음 해보는 맞춤형 LLM 만들기 – LoRA & QLoRA 파인튜닝 입문
타임아웃 문제
타임아웃 에러 때문에 마지막 실습이 어렵습니다.==((====))== Unsloth 2026.1.2: Fast Llama patching. Transformers: 4.57.3. \\ /| Tesla T4. Num GPUs = 1. Max memory: 14.741 GB. Platform: Linux. O^O/ \_/ \ Torch: 2.9.0+cu126. CUDA: 7.5. CUDA Toolkit: 12.6. Triton: 3.5.0 \ / Bfloat16 = FALSE. FA [Xformers = None. FA2 = False] "-____-" Free license: http://github.com/unslothai/unsloth Unsloth: Fast downloading is enabled - ignore downloading bars which are red colored! --------------------------------------------------------------------------- TimeoutError Traceback (most recent call last) /usr/local/lib/python3.12/dist-packages/unsloth/models/_utils.py in _get_statistics(statistics, force_download) 1173 try: -> 1174 time_limited_stats_check() 1175 except TimeoutError: 6 frames/usr/local/lib/python3.12/dist-packages/unsloth_zoo/rl_environments.py in wrapper(*args, **kwargs) 774 elif effective_backend == "process": --> 775 return _run_in_subprocess(func, seconds, args, kwargs, 776 start_method=start_method, kill_grace=kill_grace) /usr/local/lib/python3.12/dist-packages/unsloth_zoo/rl_environments.py in _run_in_subprocess(func, seconds, args, kwargs, start_method, kill_grace) 701 proc.join() --> 702 raise TimeoutError(f"Timed out after {seconds:g}s") 703 except KeyboardInterrupt: TimeoutError: Timed out after 120s During handling of the above exception, another exception occurred: TimeoutError Traceback (most recent call last) /tmp/ipython-input-2933263888.py in <cell line: 0>() 4 5 # ✅ STEP 1: 모델 및 토크나이저 로딩 (Unsloth LLaMA 3.1 8B 기준) ----> 6 model, tokenizer = FastLanguageModel.from_pretrained( 7 model_name = "unsloth/Meta-Llama-3.1-8B", 8 max_seq_length = 2048, /usr/local/lib/python3.12/dist-packages/unsloth/models/loader.py in from_pretrained(model_name, max_seq_length, dtype, load_in_4bit, load_in_8bit, load_in_16bit, full_finetuning, token, device_map, rope_scaling, fix_tokenizer, trust_remote_code, use_gradient_checkpointing, resize_model_vocab, revision, use_exact_model_name, offload_embedding, float32_mixed_precision, fast_inference, gpu_memory_utilization, float8_kv_cache, random_state, max_lora_rank, disable_log_stats, qat_scheme, load_in_fp8, unsloth_tiled_mlp, *args, **kwargs) 582 load_in_8bit_kwargs = False 583 --> 584 model, tokenizer = dispatch_model.from_pretrained( 585 model_name = model_name, 586 max_seq_length = max_seq_length, /usr/local/lib/python3.12/dist-packages/unsloth/models/llama.py in from_pretrained(model_name, max_seq_length, dtype, load_in_4bit, token, device_map, rope_scaling, fix_tokenizer, model_patcher, tokenizer_name, trust_remote_code, revision, fast_inference, gpu_memory_utilization, float8_kv_cache, random_state, max_lora_rank, disable_log_stats, unsloth_vllm_standby, num_labels, qat_scheme, **kwargs) 2202 model_patcher.pre_patch() 2203 # For debugging - we use a download counter to see if environments are not breaking or if HF is down -> 2204 get_statistics(kwargs.get("local_files_only", False)) 2205 2206 if dtype is None: /usr/local/lib/python3.12/dist-packages/unsloth/models/_utils.py in get_statistics(local_files_only) 1212 disable_progress_bars() 1213 disabled = True -> 1214 _get_statistics(None) 1215 _get_statistics("repeat", force_download = False) 1216 total_memory = ( /usr/local/lib/python3.12/dist-packages/unsloth/models/_utils.py in _get_statistics(statistics, force_download) 1174 time_limited_stats_check() 1175 except TimeoutError: -> 1176 raise TimeoutError( 1177 "Unsloth: HuggingFace seems to be down after trying for 120 seconds :(\n" 1178 "Check https://status.huggingface.co/ for more details.\n" TimeoutError: Unsloth: HuggingFace seems to be down after trying for 120 seconds :( Check https://status.huggingface.co/ for more details. As a temporary measure, use modelscope with the same model name ie: ``` pip install modelscope import os; os.environ['UNSLOTH_USE_MODELSCOPE'] = '1' from unsloth import FastLanguageModel model = FastLanguageModel.from_pretrained('unsloth/gpt-oss-20b') ```해결 방법이 있을까요? 강사님...
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
트랜스포머 FeedForward 관련 질문
오영제 선생님 AI강의 감사드립니다한가지 궁금한 사항이 있어 질문드립니다. FeedForward 의미가 무엇인지요? 단순 Dense 레이어라면 loss 함수가 있어야 특정 목적의 학습이 이루어질것 같은데 단순 통과만 시킨다면 어떤 결과가 달라지는지요? 제가 잘 이해를 못했는지 모르겠는데 느그러이 생각하시고 답변주시면 감사하겠습니다.
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
노션URL 이동문제
교재에 작성된 노션URL로 이동이 안됩니다
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
쿠폰 관련 질문입니다.
안녕하세요. LLM 챌린지만 신경쓰다가 <대규모 언어 모델, 핵심만 빠르게!>와 <머신러닝, 핵심만 빠르게!>의 쿠폰 등록을 놓치고 말았습니다. 바보같은 실수네요. 다시 등록을 해주실 수 있으실까요? 감사합니다.
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
쿠폰관련 문의
첼린지를 처음하다보니 쿠폰기간을 놓쳤습니다. 메일로 다시 보내주실수 없는지 문의드립니다. 번거롭게해서 죄송합니다. 머신러닝과 대규모 언어모델 둘다 신청했습니다.
-
해결됨실리콘밸리 엔지니어와 함께하는 랭체인(LangChain)과 랭그래프(LangGraph) 그리고 MCP
섹션 10에 수업 자료 링크가 없네요
섹션 10에 수업 자료 링크가 없어서 수업 자료 부분이 패스가 안되어서 섹션 10에 해당하는 퀴즈를 풀 수가 없네요...회사에서 지원받고 유료로 듣는거라 강의를 100% 완강해야해서 해당 링크가 필요합니다...다시 링크 게시해 주실 수 있나요?
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
쿠폰등록 관련입니다.
<대규모 언어 모델, 핵심만 빠르게!> 강의의 무료 쿠폰 발급 링크와 <밑바닥부터 만들면서 배우는 LLM> 강의의 50% 할인 쿠폰 발급 링크가 인프런에 등록된 이메일로 전달됩니다.이메일로 링크가 없어서 문의드립니다.woong2241@naver.com 입니다. 확인부탁드립니다. 감사합니다^^!항상좋은강의감사합니다
-
해결됨딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
파라미터갯수에대한질문(030_IMDB_movie_reviews)
오영제 선생님 안녕하십니까?수준높은 강의 잘 듣고 있습니다.제공해 주신 소스중에030_IMDB_movie_reviews.ipynb에 있는 아래의 model 에서 파라미터 숫자를 설명해 주실수 있으신지요?Dense 쪽의 파라미터는 앞전 강의인 파이썬을 활용한 머신러닝 딥러닝 입문 의 실습 - Neural Network을 이용한 Linear Regression - Boston 주택 가격 예측 에서 16분 경에서 설명해 주신대로 설명이 되는데 위쪽 부분은 잘 이해가 가지 않습니다. 죄송하지만 간략하게라도 파라미터 갯수와 왜 이렇게 되었는지 설명해 주시면 감사하겠습니다. 감사드립니다.
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
쿠폰등록관련 문의드립니다
안녕하세요메일 확인이 늦어서 쿠폰 적용을 못했습니다. 수동 등록으로 해주신다고 하여 Q&A로 남깁니다.등록 부탁드립니다
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
강의 쿠폰 관련 질문
안녕하세요. 챌린지 수강자입니다. 오픈채팅방에서 문의 드렸었는데...메일확인이 늦어 쿠폰등록기간이 만료되었습니다.챌린지 둘다(대규모 언어모델, 머신러닝)문의 드립니다. 감사합니다.
-
해결됨<대규모 언어 모델, 핵심만 빠르게!> 완독 챌린지
전자책 인증 관련문의
구매내역 인증캡처 올리면 될까요?
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
Component 수는 어떻게 지정을 해야 할까요?
LDA나 NMF 에서 component 수를 어떤 것을 참고해서 최적의 수를 찾을 수 있을까요?군집에서 엘보우플롯이나, 실루엣 스코어를 참고했는데, 혹시 이렇게 참고할 만한 것이 있을까 궁금합니다.
-
미해결처음 해보는 맞춤형 LLM 만들기 – LoRA & QLoRA 파인튜닝 입문
강의 버퍼링 문제
안녕하세요, 강의 듣고 있는데 유독 강의가 버퍼링이 심합니다. 크롬 뿐만 아니고 Microsoft edge 등으로 해도 똑같은 현상이 발생합니다.
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
Transformer 번역기 분석 - Part1 따라치기 질문
안녕하세요.강사님.지난번에 확인해주신 부분을 잘 완료되고, 이제 transformer 쪽 코드를 현재 따라쳐 보고려고 하는데, version 문제인지 tokenizers = tf.saved_model.load(model_name)이쪽 코드에서 오류가 나는 상태입니다.혹시 어떻게 해결해야 할까요?https://www.tensorflow.org/text/tutorials/transformer?hl=ko사이트에서 "Google Calab 에서 실행" 버튼으로 예제 문제를 실행시켜도 위의 부분에서 오류가 나는데요..뭘 잘 못하거나 뭐가 문제가 된 건지 알 수있을까요?
-
미해결처음 해보는 맞춤형 LLM 만들기 – LoRA & QLoRA 파인튜닝 입문
추가 강의는 언제 올라오나요?
안녕하세요.8월 중으로 추가 강의가 올라온다고 되어있는데언제쯤 볼 수 있을까요?답변 부탁드립니다. 감사합니다.
-
미해결딥러닝을 활용한 자연어 처리 (NLP) 과정 (기초부터 ChatGPT/생성 모델까지)
Encoder-Decoder 질문 드립니다.
안녕하세요.강사님. 우선 강의 잘 보고 있습니다. AI 코드에 익숙치 않아서 그런지..강의 내용을 따라 쳐서 완료를 했는데, 무슨 이유에서 인지, 모델을 훈련 후에 해당 함수를 써서 확인하는 구간에서def decode_sequence(input_seq):어떤 문장을 돌려도 <eos> 가 발생해 2~3번째 이상 넘길수가 없는 상태인데요.코드 내용은 아래와 같습니다.강의 영상에선 어느정도 준수한 수준의 Translation 이 되는것 같아보여, 영상이랑 코드 비교도 더해보고, epochs 도 조금 더 올려서 해보기도 했는데 역시나 잘 안되서..강의 코드를 복붙에서 쳐볼까도 했는데 전체적으로 온전한 코드가 아닌 상태여서 혹시 제가 비정상적으로 동작되는게 원래 맞는건지 문의드리고 싶습니다.감사합니다.
-
미해결처음 해보는 맞춤형 LLM 만들기 – LoRA & QLoRA 파인튜닝 입문
OPT350 모델 페이지 주소 좀알려주세요
OPT350 모델 페이지 링크가 GPT 링크가 동일하게 되어있어서 접속할수가 없습니다. 확인하여 주소 좀알려주시면 감사하겠습니다.
-
해결됨AI 입문자를 위한 MS AI 핵심기술 완전정복
실습-3 관련문의
현재 Azure AI Foundry 홈페이지가실습영상에 나온 UI하고 많이 차이가 있는데해당 AI 서비스 관련 실습을 하려면 어느 위치에서 할 수 있나요?
-
해결됨AI 입문자를 위한 MS AI 핵심기술 완전정복
배포 실패관련
안녕하세요.? 실습강의 1번을 따라하는데 resourceProvider 관련 에러가 발생하였습니다.해당 배포를 하기 위해서 어떤 리소스 공급자가 활성화 되어있어야 하는지 알려주실 수 있나요?