
Hiểu trực quan về Transformer trong Deep Learning
nocope
$1,131,029.00
Basic / Deep Learning(DL), transformer, attention-model
5.0
(5)
Hiểu hoạt động của máy biến áp học sâu thông qua hình ảnh
Basic
Deep Learning(DL), transformer, attention-model

Hiểu trực quan về Transformer trong Deep Learning
nocope
$1,131,029.00
Basic / Deep Learning(DL), transformer, attention-model
5.0
(5)
Hiểu hoạt động của máy biến áp học sâu thông qua hình ảnh
Basic
Deep Learning(DL), transformer, attention-model

Hiểu trực quan về Transformer trong Deep Learning
nocope
$1,131,029.00
Basic / Deep Learning(DL), transformer, attention-model
5.0
(5)

Hiểu về cơ bản và nguyên lý hoạt động của AI tạo sinh
YoungJea Oh
$1,160,792.00
Intermediate / Generative AI, transformer, multimodal, Python, openai
4.8
(63)
Hiểu nguyên lý hoạt động của mô hình AI tạo sinh ứng dụng deep learning và thực hành thành thạo cách ứng dụng.
Intermediate
Generative AI, transformer, multimodal

Hiểu về cơ bản và nguyên lý hoạt động của AI tạo sinh
YoungJea Oh
$1,160,792.00
Intermediate / Generative AI, transformer, multimodal, Python, openai
4.8
(63)

Chinh phục hoàn toàn lý thuyết deep learning + thực hành PyTorch
peterbyun969574
$5,952,782.00
Basic / Deep Learning(DL), PyTorch, Computer Vision(CV), NLP, transformer, CNN, RNN, LLM
4.9
(63)
Đây là bài giảng dạy “các khái niệm cốt lõi” về deep learning cần thiết để tham gia vào công việc deep learning và các kỹ năng thực tế cần thiết để thực hiện các dự án deep learning thực tế thông qua thực hành sử dụng PyTorch.
Basic
Deep Learning(DL), PyTorch, Computer Vision(CV)

Chinh phục hoàn toàn lý thuyết deep learning + thực hành PyTorch
peterbyun969574
$5,952,782.00
Basic / Deep Learning(DL), PyTorch, Computer Vision(CV), NLP, transformer, CNN, RNN, LLM
4.9
(63)
# Lịch sử và Phát triển của LLM
arigaram
$476,223.00
Beginner / NLP, RNN, self-attention, transformer, LLM
Giải thích chi tiết về các mô hình ngôn ngữ đa dạng được phát triển trong quá trình từ khởi đầu của công nghệ xử lý ngôn ngữ tự nhiên cho đến các mô hình LLM hiện đại nhất.
Beginner
NLP, RNN, self-attention
# Lịch sử và Phát triển của LLM
arigaram
$476,223.00
Beginner / NLP, RNN, self-attention, transformer, LLM
Bí mật của giao dịch thuật toán, cách AI dự đoán giá cổ phiếu
cheatkeylab
$1,011,973.00
Basic / Deep Learning(DL), Python, transformer, lstm, Financial Technology
4.8
(28)
Phân tích hơn 40 loại chỉ số kinh tế và dữ liệu giá cổ phiếu bằng AI, dự đoán S&P 500, QQQ ETF lẫn cổ phiếu riêng lẻ, hãy tự tạo một mô hình phân tích giá cổ phiếu mạnh mẽ!
Basic
Deep Learning(DL), Python, transformer
Bí mật của giao dịch thuật toán, cách AI dự đoán giá cổ phiếu
cheatkeylab
$1,011,973.00
Basic / Deep Learning(DL), Python, transformer, lstm, Financial Technology
4.8
(28)
[NLP Hoàn Toàn Chinh Phục II] Phẫu Thuật Cấu Trúc Transformer: Từ Mở Rộng Attention Đến Lắp Ráp Toàn Bộ Mô Hình và Huấn Luyện
Sotaaz
$1,369,140.00
Basic / Python, transformer, self-attention, PyTorch
Khóa học này không chỉ đơn thuần là "cách triển khai" Transformer, mà là quá trình phân tích từ góc nhìn của người thiết kế về tại sao cấu trúc này được tạo ra, vai trò của từng module, và cách toàn bộ mô hình hoạt động. Phân tích sâu nguyên lý tính toán bên trong của Self-Attention và Multi-Head Attention, đồng thời xác minh trực tiếp qua công thức, bài báo và code triển khai về Positional Encoding, Feed-Forward Network, cấu trúc Encoder·Decoder đã xuất hiện để giải quyết những hạn chế nào. Xuất phát từ Attention, tự tay lắp ráp toàn bộ cấu trúc Transformer, thực hiện training thực tế và thấu hiểu cách mô hình hoạt động. Đây là lộ trình có cấu trúc và thực chiến nhất dành cho "những ai muốn hiểu hoàn toàn về Transformer".
Basic
Python, transformer, self-attention
[NLP Hoàn Toàn Chinh Phục II] Phẫu Thuật Cấu Trúc Transformer: Từ Mở Rộng Attention Đến Lắp Ráp Toàn Bộ Mô Hình và Huấn Luyện
Sotaaz
$1,369,140.00
Basic / Python, transformer, self-attention, PyTorch
<밑바닥부터 만들면서 배우는 LLM> Khóa học giải thích
haesunpark
$2,083,474.00
Basic / PyTorch, gpt-2, transformer, LLM, Fine-Tuning
5.0
(18)
<밑바닥부터 만들면서 배우는 LLM>(길벗, 2025)의 깃허브 노트북과 보너스 콘텐츠를 다루는 강의입니다. 깃허브: https://github.com/rickiepark/llm-from-scratch/ <밑바닥부터 만들면서 배우는 LLM>은 세바스찬 라시카(Sebastian Raschka)가 쓴 베스트셀러 <Build a Large Langauge Model (from Scratch)>(Manning, 2024)의 번역서입니다. 이 책은 오픈AI가 만든 GPT-2 모델을 밑바닥에서부터 시작해서 완전한 모델을 만들어 보면서 대규모 언어 모델의 작동 원리를 배우고 활용하는 방법을 제공합니다.
Basic
PyTorch, gpt-2, transformer
<밑바닥부터 만들면서 배우는 LLM> Khóa học giải thích
haesunpark
$2,083,474.00
Basic / PyTorch, gpt-2, transformer, LLM, Fine-Tuning
5.0
(18)
Học Transformer thông qua việc triển khai
dooleyz3525
$1,607,251.00
Intermediate / Deep Learning(DL), PyTorch, encoder-decoder, bert, transformer
5.0
(12)
Từ Multi Head Attention đến mô hình Original Transformer, BERT, mô hình dịch thuật MarianMT dựa trên Encoder-Decoder, cho đến Vision Transformer, bạn sẽ học hiểu sâu sắc về Transformer thông qua việc tự tay triển khai code.
Intermediate
Deep Learning(DL), PyTorch, encoder-decoder
Học Transformer thông qua việc triển khai
dooleyz3525
$1,607,251.00
Intermediate / Deep Learning(DL), PyTorch, encoder-decoder, bert, transformer
5.0
(12)
[NLP 완전정복 I] Sự ra đời của Attention: Từ giới hạn của RNN·Seq2Seq đến hiểu biết về NLP thông qua việc triển khai attention
Sotaaz
$1,041,737.00
Beginner / Python, Deep Learning(DL), PyTorch, attention-model, transformer
Tại sao Attention lại cần thiết và cách thức hoạt động của nó được hiểu thông qua 'việc triển khai trực tiếp bằng code'. Khóa học này xuất phát từ những hạn chế cấu trúc của mô hình RNN và Seq2Seq, xác minh thông qua thí nghiệm vấn đề nghẽn cổ chai thông tin do context vector cố định tạo ra, vấn đề phụ thuộc dài hạn và giải thích một cách tự nhiên cách Attention đã xuất hiện để giải quyết những hạn chế đó. Không chỉ đơn thuần giới thiệu khái niệm, mà trực tiếp xác nhận qua thí nghiệm những hạn chế cấu trúc của RNN và vấn đề nghẽn cổ chai thông tin của Seq2Seq, và triển khai từng cái một **Bahdanau Attention(attention cộng)** và **Luong Attention(attention tích vô hướng)** đã xuất hiện để giải quyết vấn đề này, hiểu rõ sự khác biệt giữa chúng. Mỗi attention Hình thành mối quan hệ Query–Key–Value theo cách nào, Có những khác biệt toán học·trực quan nào trong quá trình tính toán trọng số, Tại sao lại không thể không dẫn đến các mô hình thế hệ sau Đặc tính và dòng chảy tiến hóa đó được kết nối một cách tự nhiên. Cách Attention nhìn nhận câu và từ, Cách mỗi từ được gán tầm quan trọng và tích hợp thông tin được học tập dưới dạng công thức → trực quan → code → thí nghiệm liên kết thành một. Khóa học này là quá trình xây dựng 'thể lực cơ bản' để hiểu đúng Transformer, giúp hiểu sâu sắc tại sao khái niệm Attention lại mang tính cách mạng, và tại sao tất cả các mô hình NLP hiện đại sau này (Transformer, BERT, GPT, v.v.) lại lấy Attention làm thành phần cốt lõi. Đây là khóa học được tối ưu hóa cho những học viên muốn thể hóa dòng chảy RNN → Seq2Seq → Attention không phải bằng khái niệm mà bằng code và thí nghiệm.
Beginner
Python, Deep Learning(DL), PyTorch
[NLP 완전정복 I] Sự ra đời của Attention: Từ giới hạn của RNN·Seq2Seq đến hiểu biết về NLP thông qua việc triển khai attention
Sotaaz
$1,041,737.00
Beginner / Python, Deep Learning(DL), PyTorch, attention-model, transformer
[VLM101] Tạo chatbot đa phương thức bằng fine-tuning (feat.MCP / RunPod)
dreamingbumblebee
$1,607,251.00
Basic / Vision Transformer, transformer, Llama, Model Context Protocol
4.6
(14)
Đây là khóa học dành cho người mới bắt đầu giúp hiểu về khái niệm và cách sử dụng Mô hình Thị giác-Ngôn ngữ (Vision-Language Model, VLM), đồng thời thực hành chạy mô hình LLaVA trên môi trường Ollama và tích hợp với MCP (Model Context Protocol). Khóa học này bao gồm nguyên lý của mô hình đa phương thức, lượng tử hóa (Quantization), phát triển dịch vụ và demo tích hợp, đồng thời cung cấp cân bằng giữa lý thuyết và thực hành.
Basic
Vision Transformer, transformer, Llama
[VLM101] Tạo chatbot đa phương thức bằng fine-tuning (feat.MCP / RunPod)
dreamingbumblebee
$1,607,251.00
Basic / Vision Transformer, transformer, Llama, Model Context Protocol
4.6
(14)