강의

멘토링

커뮤니티

AI Technology

/

Computer Vision

LDM đến DiT, chinh phục hoàn toàn Diffusion thông qua việc triển khai II

Khóa học này là một masterclass thực hành hoàn chỉnh phân tích sâu sự phát triển công nghệ cốt lõi của AI tạo sinh từ LDM(Latent Diffusion Model) đến DiT(Diffusion Transformer). Chúng ta sẽ trực tiếp phân tích nguyên lý học tập dựa trên không gian tiềm ẩn của LDM, cấu trúc của Stable Diffusion, và phương thức triển khai của Diffusion Transformer mới nhất thông qua các bài báo và code. Học viên sẽ trực tiếp triển khai các mô hình LDM, CFG(Classifier-Free Guidance), DiT dựa trên PyTorch, đồng thời học một cách có hệ thống các xu hướng mới nhất và sự tiến hóa cấu trúc của mô hình tạo sinh.

11 học viên đang tham gia khóa học này

  • Sotaaz
트랜스포머
실습 중심
생성형ai
stablediffusion
Python
Deep Learning(DL)
Stable Diffusion
AI

Bạn sẽ nhận được điều này sau khi học.

  • Hiểu hoàn toàn cấu trúc, nguyên lý học tập và lấy mẫu của LDM(Latent Diffusion Model)

  • Phân tích các thành phần cốt lõi của Stable Diffusion (Autoencoder, UNet, Text Encoder, v.v.)

  • Triển khai sinh có điều kiện sử dụng CFG(Classifier-Free Guidance)

  • Nguyên lý thiết kế và thực hành triển khai DiT(Diffusion Transformer)

  • So sánh dòng phát triển từ Diffusion dựa trên UNet sang Diffusion dựa trên Transformer

  • Tái hiện bài báo khoa học bằng code và xác nhận trực quan quá trình hoạt động thực tế của mô hình sinh

🧠 Từ LDM đến DiT, chinh phục hoàn toàn Diffusion thông qua việc triển khai II

Sự tiến hóa của mô hình Diffusion, bước tiếp theo — Phân tích hoàn toàn LDM(Latent Diffusion Model) và DiT(Diffusion Transformer).
Khóa học này là phần tiếp theo của "Từ DDPM đến DDIM", là masterclass thực hành học tập bằng cách trực tiếp triển khai LDM - nền tảng của Stable Diffusion và DiT - xu hướng mới nhất.
Từng bước giải mã các công thức và khái niệm phức tạp trong paper thành code, theo dõi toàn bộ quá trình 'lý thuyết → triển khai → thí nghiệm → ứng dụng'.


🚀 Nội dung cốt lõi của bài giảng

Chúng ta sẽ khám phá sâu sắc các kiến trúc mới nhất đã tiến hóa theo hướng nâng cao hiệu quả và khả năng mở rộng, trong khi vẫn giữ nguyên ý tưởng cốt lõi của mô hình Diffusion.
Từ LDM(Latent Diffusion Model) - nền tảng của Stable Diffusion, đến DiT(Diffusion Transformer) - kiến trúc Diffusion dựa trên Transformer —
Bạn có thể hiểu hoàn toàn các công thức, kiến trúc, quá trình huấn luyện và kỹ thuật sampling của từng mô hình thông qua việc triển khai trực tiếp bằng code.

  • LDM: Lý do thực hiện Diffusion trong Latent Space và hiểu về cấu trúc

  • Thực hành triển khai VAE(Variational Autoencoder) và Latent Representation

  • Phân tích các thành phần của Stable Diffusion (Text Encoder, UNet, VAE Decoder)

  • Nguyên lý toán học và triển khai của CFG (Classifier-Free Guidance)

  • Cấu trúc của Diffusion Transformer (DiT) và triển khai quá trình sinh dựa trên Vision Transformer

  • Thí nghiệm so sánh hiệu quả/hiệu suất giữa mô hình dựa trên UNet và mô hình dựa trên Transformer


🧩 Mục tiêu học tập

Sau khi hoàn thành khóa học này, học viên sẽ có được những năng lực sau đây.

Hiểu các nguyên lý cốt lõi của Stable Diffusion và DiT ở mức độ nghiên cứu
Có thể trực tiếp triển khai và thực hiện thí nghiệm với các mô hình LDM, CFG, DiT bằng PyTorch
Hiểu logic học tập trong Latent Space và tạo ảnh có điều kiện văn bản
Nắm vững khả năng thiết kế, biến đổi và tinh chỉnh kiến trúc mô hình Diffusion
Có được khả năng nghiên cứu thực tế để diễn giải các bài báo AI tạo sinh mới nhất ở mức độ code


👩‍💻 Đối tượng khuyến nghị

  • Những người đã học về mô hình Diffusion hoặc muốn hiểu về sự phát triển sau Stable Diffusion

  • Sinh viên sau đại học / Kỹ sư / Nhà nghiên cứu quan tâm đến tạo ảnh AI, nghiên cứu phát triển, tái tạo mô hình

  • Những người muốn thử nghiệm triển khai bài báo dựa trên PyTorch và thí nghiệm huấn luyện mô hình tùy chỉnh

  • Những người muốn xây dựng nền tảng cho việc học tập các mô hình sinh thế hệ tiếp theo như DiT, SANA, PixArt


🧰 Kiến thức tiên quyết

  • Kinh nghiệm cơ bản về cú pháp và thực hành Python, PyTorch

  • Kiến thức toán học cơ bản (vi phân, xác suất) và các khái niệm deep learning

  • Nếu bạn đã hiểu nguyên lý của DDPM, DDIM thì tốc độ hiểu sẽ nhanh hơn rất nhiều.
    (Khuyến nghị học khóa học trước: "Từ DDPM đến DDIM, Chinh phục hoàn toàn Diffusion qua thực hành I")


🎨 Khóa học này không chỉ là việc triển khai đơn thuần, mà là hành trình hiểu về 'sự tiến hóa của mô hình'.

Mô hình Diffusion mở rộng từ "quá trình loại bỏ nhiễu"
thành "quá trình hiểu không gian tiềm ẩn và vẽ thế giới bằng Transformer".
Phân tích bài báo như một nhà nghiên cứu, viết code như một developer, tạo ra hình ảnh như một nghệ sĩ sáng tạo —
Masterclass Diffusion thực hành hoàn toàn, nơi lý thuyết gặp thực tiễn, nghiên cứu gặp sáng tạo.

Khuyến nghị cho
những người này

Khóa học này dành cho ai?

  • Các nhà phát triển và nghiên cứu muốn hiểu sâu về cấu trúc bên trong của các mô hình AI tạo sinh mới nhất như Stable Diffusion, DiT

  • Người học thực hành muốn hiểu sâu sắc bằng cách tự tay triển khai các bài báo Diffusion

  • Sinh viên cao học, kỹ sư, nhà khoa học dữ liệu quan tâm đến nghiên cứu phát triển AI Art, tạo sinh hình ảnh, mô hình sinh

  • Người muốn nắm vững kiến thức cơ bản về DDPM/DDIM và học các mô hình dựa trên LDM và Transformer ở bước tiếp theo

Cần biết trước khi bắt đầu?

  • Kinh nghiệm cơ bản về cú pháp và thực hành Python cùng PyTorch

  • Các khái niệm cơ bản về đại số tuyến tính, xác suất, vi phân

  • Nếu bạn đã hiểu các nguyên lý cơ bản của DDPM và DDIM thì việc học sẽ dễ dàng hơn rất nhiều. (Khuyến nghị khóa học trước đó "Từ DDPM đến DDIM, chinh phục hoàn toàn Diffusion qua thực hành I".)

Xin chào
Đây là

Chương trình giảng dạy

Tất cả

15 bài giảng ∙ (2giờ 16phút)

Ngày đăng: 
Cập nhật lần cuối: 

Đánh giá

Chưa có đủ đánh giá.
Hãy trở thành tác giả của một đánh giá giúp mọi người!

1.373.830 ₫

Khóa học khác của Sotaaz

Hãy khám phá các khóa học khác của giảng viên!

Khóa học tương tự

Khám phá các khóa học khác trong cùng lĩnh vực!