
생성형 AI 기초와 동작 원리 이해
YoungJea Oh
$55,000.00
Intermediate / AI 활용 (AX), transformer, multimodal, Python, openai
4.8
(63)
딥러닝을 활용한 생성모델 AI 모델의 작동 원리를 이해하고 실습을 통해 활용 방법을 습득합니다.
Intermediate
AI 활용 (AX), transformer, multimodal

생성형 AI 기초와 동작 원리 이해
YoungJea Oh
$55,000.00
Intermediate / AI 활용 (AX), transformer, multimodal, Python, openai
4.8
(63)
딥러닝을 활용한 생성모델 AI 모델의 작동 원리를 이해하고 실습을 통해 활용 방법을 습득합니다.
Intermediate
AI 활용 (AX), transformer, multimodal

생성형 AI 기초와 동작 원리 이해
YoungJea Oh
$55,000.00
Intermediate / AI 활용 (AX), transformer, multimodal, Python, openai
4.8
(63)

직관적으로 이해하는 딥러닝 트랜스포머
코드없는 프로그래밍
$53,900.00
Basic / 딥러닝, transformer, attention-model
5.0
(5)
그림으로 딥러닝 트랜스포머 동작을 완벽히 이해합니다
Basic
딥러닝, transformer, attention-model

직관적으로 이해하는 딥러닝 트랜스포머
코드없는 프로그래밍
$53,900.00
Basic / 딥러닝, transformer, attention-model
5.0
(5)

딥러닝 이론 + PyTorch 실무 완전 정복
변정현
$284,900.00
Basic / 딥러닝, PyTorch, 컴퓨터 비전, NLP, transformer, CNN, RNN, LLM
4.9
(63)
딥러닝 현업에 종사하기 위해 필요한 딥러닝의 “핵심 개념”을 배우고 PyTorch을 활용한 실습을 통해서 실제 딥러닝 프로젝트를 수행하는데 필요한 실무를 가르쳐주는 강의입니다.
Basic
딥러닝, PyTorch, 컴퓨터 비전

딥러닝 이론 + PyTorch 실무 완전 정복
변정현
$284,900.00
Basic / 딥러닝, PyTorch, 컴퓨터 비전, NLP, transformer, CNN, RNN, LLM
4.9
(63)
<밑바닥부터 만들면서 배우는 LLM> 해설 강의
박해선
$99,000.00
Basic / PyTorch, gpt-2, transformer, LLM, Fine-Tuning
5.0
(18)
<밑바닥부터 만들면서 배우는 LLM>(길벗, 2025)의 깃허브 노트북과 보너스 콘텐츠를 다루는 강의입니다. 깃허브: https://github.com/rickiepark/llm-from-scratch/ <밑바닥부터 만들면서 배우는 LLM>은 세바스찬 라시카(Sebastian Raschka)가 쓴 베스트셀러 <Build a Large Langauge Model (from Scratch)>(Manning, 2024)의 번역서입니다. 이 책은 오픈AI가 만든 GPT-2 모델을 밑바닥에서부터 시작해서 완전한 모델을 만들어 보면서 대규모 언어 모델의 작동 원리를 배우고 활용하는 방법을 제공합니다.
Basic
PyTorch, gpt-2, transformer
<밑바닥부터 만들면서 배우는 LLM> 해설 강의
박해선
$99,000.00
Basic / PyTorch, gpt-2, transformer, LLM, Fine-Tuning
5.0
(18)
구현하며 배우는 Transformer
권 철민
$77,000.00
Intermediate / 딥러닝, PyTorch, encoder-decoder, bert, transformer
5.0
(11)
Multi Head Attention 부터 Original Transformer 모델, BERT, Encoder-Decoder 기반의 MarianMT 번역 모델, Vision Transformer 까지 코드로 직접 구현하며 Transformer에 대해 속속들이 배우게 됩니다.
Intermediate
딥러닝, PyTorch, encoder-decoder
구현하며 배우는 Transformer
권 철민
$77,000.00
Intermediate / 딥러닝, PyTorch, encoder-decoder, bert, transformer
5.0
(11)
[NLP 완전정복 II] Transformer 구조 해부: Attention 확장부터 전체 모델 조립, 학습까지
Sotaaz
$64,900.00
Basic / Python, transformer, self-attention, PyTorch
이 강의는 Transformer를 단순히 “구현하는 법”이 아니라, 왜 이런 구조가 만들어졌는지, 각 모듈이 어떤 역할을 하는지, 그리고 전체 모델이 어떻게 작동하는지를 설계자의 관점에서 해부하는 과정입니다. Self-Attention과 Multi-Head Attention의 내부 계산 원리를 깊이 있게 분석하고, Positional Encoding, Feed-Forward Network, Encoder·Decoder 구조가 어떤 한계를 해결하기 위해 등장했는지를 수식·논문·구현 코드로 직접 확인합니다. Attention에서 출발해 Transformer 전체 구조를 직접 조립하고, 실제로 학습까지 수행하며 모델이 어떻게 동작하는지 체득합니다. 이 강의는 “Transformer를 완전히 이해하고 싶은 사람”을 위한 가장 구조적이고 실전적인 로드맵입니다.
Basic
Python, transformer, self-attention
[NLP 완전정복 II] Transformer 구조 해부: Attention 확장부터 전체 모델 조립, 학습까지
Sotaaz
$64,900.00
Basic / Python, transformer, self-attention, PyTorch
LLM의 역사와 발전
아리가람
$22,000.00
Beginner / NLP, RNN, self-attention, transformer, LLM
자연어 처리 기술의 출발부터 시작해서 최신 LLM 모형에 이르기까지의 과정에서 개발된 다양한 언어 모형들을 상세히 설명합니다.
Beginner
NLP, RNN, self-attention
LLM의 역사와 발전
아리가람
$22,000.00
Beginner / NLP, RNN, self-attention, transformer, LLM
알고리즘 트레이딩의 비밀, AI가 주가를 맞추는 법
치트키 알려주는 남자
$47,300.00
Basic / 딥러닝, Python, transformer, lstm, 재테크
4.8
(28)
40여 종의 경제 지표와 주가 데이터를 AI로 분석하여, S&P 500, QQQ ETF뿐만 아니라 개별 종목까지 예측하는 강력한 주가 분석 모델을 직접 만들어보세요!
Basic
딥러닝, Python, transformer
알고리즘 트레이딩의 비밀, AI가 주가를 맞추는 법
치트키 알려주는 남자
$47,300.00
Basic / 딥러닝, Python, transformer, lstm, 재테크
4.8
(28)
[VLM101] 파인튜닝으로 멀티모달 챗봇 만들기 (feat.MCP / RunPod)
꿈꾸는범블비
$77,000.00
Basic / Vision Transformer, transformer, Llama, MCP
4.6
(14)
비전-언어 모델(Vision-Language Model, VLM)의 개념과 활용 방법을 이해하고, 실제로 LLaVA 모델을 Ollama 기반 환경에서 실행하며 MCP(Model Context Protocol)와 연동하는 과정을 실습하는 입문자용 강의입니다. 이 강의는 멀티모달 모델의 원리, 경량화(Quantization), 서비스 및 통합 데모 개발까지 다루며, 이론과 실습을 균형 있게 제공합니다.
Basic
Vision Transformer, transformer, Llama
[VLM101] 파인튜닝으로 멀티모달 챗봇 만들기 (feat.MCP / RunPod)
꿈꾸는범블비
$77,000.00
Basic / Vision Transformer, transformer, Llama, MCP
4.6
(14)
[NLP 완전정복 I] Attention의 탄생: RNN·Seq2Seq의 한계부터 어텐션을 구현하며 이해하는 NLP
Sotaaz
$49,500.00
Beginner / Python, 딥러닝, PyTorch, attention-model, transformer
왜 Attention이 필요했는지, 그리고 어떻게 동작하는지 ‘코드로 직접 구현하며’ 이해합니다. 이 강의는 RNN과 Seq2Seq 모델의 구조적 한계에서 출발하여, 고정된 컨텍스트 벡터가 만들어내는 정보 병목 문제, 장기 의존성 문제를 실험으로 검증하고 그 한계를 해결하기 위해 Attention이 어떻게 등장했는지를 자연스럽게 이어서 설명합니다. 단순히 개념을 소개하는 것이 아니라, RNN의 구조적 한계와 Seq2Seq의 정보 병목 문제를 직접 실험으로 확인하고, 이를 해결하기 위해 등장한 **Bahdanau Attention(가산적 어텐션)**과 **Luong Attention(점곱 어텐션)**을 하나씩 구현하며 그 차이를 명확하게 이해합니다. 각 어텐션이 어떤 방식으로 Query–Key–Value 관계를 형성하고, 가중치를 계산하는 과정에서 어떤 수학적·직관적 차이를 가지며, 왜 후대 모델로 이어질 수밖에 없었는지 그 특성과 진화 흐름까지 자연스럽게 연결됩니다. Attention이 문장과 단어를 어떻게 바라보고, 각 단어가 어떤 방식으로 중요도를 부여받아 정보를 통합하는지를 수식 → 직관 → 코드 → 실험이 하나로 이어진 형태로 학습합니다. 이 강의는 Transformer를 제대로 이해하기 위한 ‘기초 체력’을 쌓는 과정으로, Attention이라는 개념이 왜 혁명적이었는지, 그리고 이후의 모든 최신 NLP 모델(Transformer, BERT, GPT 등)이 왜 Attention을 핵심 구성요소로 삼는지를 깊이 있게 이해하게 됩니다. RNN → Seq2Seq → Attention으로 이어지는 흐름을 개념이 아니라 코드와 실험으로 체화하고 싶은 학습자에게 최적화된 강의입니다.
Beginner
Python, 딥러닝, PyTorch
[NLP 완전정복 I] Attention의 탄생: RNN·Seq2Seq의 한계부터 어텐션을 구현하며 이해하는 NLP
Sotaaz
$49,500.00
Beginner / Python, 딥러닝, PyTorch, attention-model, transformer