강의

멘토링

커뮤니티

AI Technology

/

Deep Learning & Machine Learning

Pixart & SANA、実装しながら学ぶDiffusion完全攻略 III

最新のTransformerベースのPixArtと軽量適応化SANAを理論からコードまで段階的に実装します。I・II編で扱ったDDPM・DDIM・LDM・DiTを基に、テキストエンコーダ接続、サンプラー(DDIM/ODE)、v-予測/CFGチューニング、小規模データスタイル微調整まで実習中心で完走します。

難易度 中級以上

受講期間 無制限

  • Sotaaz
실습 중심
실습 중심
AI
AI
딥러닝
딥러닝
Stable Diffusion
Stable Diffusion
Python
Python
PyTorch
PyTorch
실습 중심
실습 중심
AI
AI
딥러닝
딥러닝
Stable Diffusion
Stable Diffusion
Python
Python
PyTorch
PyTorch

受講後に得られること

  • TransformerベースのPixArt構造理解およびPyTorch実装

  • TransformerベースのサNA構造の理解とPyTorch実装

  • テキストエンコーダー(CLIP/T5)連携とトークンフロー把握

PixArt & SANAで完成するDiffusion旅路の最後 ✨

Transformer ベースのテキスト-to-画像の現在と未来を、理論からコード実装・チューニング・評価・デプロイまで一度に。
前編(I・II)のDDPM・DDIM・LDM・DiTを足がかりに、PixArt バックボーンSANAT2I モデルを直接作成し学習します。

この講義、何が違うのでしょうか?

  • 🚀 実戦中心の実装: v-予測、CFG調整DDIM/ODEサンプラーで「速くて美しいサンプル」を生成

  • 🧠 設計原理の解剖: PixArtのTransformerブロック、Cross-Attention、Positional Encodingの文脈理解

  • 🪶 軽量適応SANA: ベースは凍結、アダプターのみ学習 → 少データで高品質スタイル適応

  • 🧪 再現可能な実験: シード固定・Config管理

  • 🌐 学習とサンプリング:ポートフォリオ/プロトタイプまで連携

こんな方におすすめです

  • 🔧 I・II編を終えて最新のTransformer T2Iまで身につけたい方

  • 🎨 デザイナー/クリエイター: 画像生成の原理を学んでみたい方

  • 🏃 スタートアップ/メイカー: 軽いリソースでカスタム画像モデルをサービスに素早く組み込みたい方

受講後のあなたのツールボックス

  • 🧩 PixArt PyTorch テンプレート & サンプラー(DDIM/ODE) スニペット

  • 🧷 SANAアダプターチューニングスクリプト(小規模データガイド付き)


必要なスキル:PyTorch基礎、Transformer・Diffusion基本理解(前編または同等レベル)。
推奨環境:GPU 12GB+ すべての実習はチェックリストとリファレンスコードで安全に実行していただけます。

こんな方に
おすすめです

学習対象は
誰でしょう?

  • ML/データサイエンティスト・研究員:TransformerベースのT2I(PixArt)とSANAをコードで再現してみたい方

  • 小規模データで自分のサービスに合うカスタム画像モデルを素早く適用・配布したい方

  • 生成AI プロトタイプ→デモ→MVP パイプラインを構築しようとするチーム

  • PyTorch・Transformer基礎を実戦T2Iプロジェクトで固めたい学習者

前提知識、
必要でしょうか?

  • PyTorch基礎:Tensor/Module/Optimizer、Dataset・DataLoader、autograd

  • 確率・統計(ガウシアン、KL)、微分・チェーンルール、線形代数(行列積・正規化)

  • Transformerの概念:Self/Cross-Attention、Positional Encoding、LayerNorm

  • Diffusion基礎:DDPM/DDIM・v予測・CFG等 I・II編内容

こんにちは
です。

62

受講生

7

受講レビュー

1

回答

4.1

講座評価

5

講座

カリキュラム

全体

5件 ∙ (1時間 8分)

講座資料(こうぎしりょう):

授業資料
講座掲載日: 
最終更新日: 

受講レビュー

全体

2件

3.0

2件の受講レビュー

  • paulmoon008308님의 프로필 이미지
    paulmoon008308

    受講レビュー 111

    平均評価 4.9

    5

    60% 受講後に作成

    • sotaaz
      知識共有者

      PixArtやSANAのような最新モデルの実装が学習に実質的な助けになることを心から応援しています。お忙しい中、貴重なお時間を割いて受講していただきありがとうございます。学習中に難しい部分がありましたら、お気軽にお声がけください。

  • ooo1709님의 프로필 이미지
    ooo1709

    受講レビュー 1

    平均評価 1.0

    修正済み

    1

    80% 受講後に作成

    diffusion 1,2は受講していません。ML分野で働いており、diffusionもある程度知っていますが、独学の時間を節約するために受講しました。 正直、価格に対して講義のクオリティがかなり残念です。 全般的な問題: 言葉に詰まることが多く、集中しにくいです。時給6万ウォンなのに少し残念でした。 簡単な部分は非常に詳しく説明するのに、肝心の難しくて重要な部分は適当に流します。 具体的に不足していた部分: CLIP/T5 講義紹介に「CLIP/T5連携とトークンフロー把握」と書いてあったのに、ただ読み込んで使うという話だけで終わりです。 CLIPとT5が何が違って、なぜ一緒に使うのか、sequence lengthを77に合わせる理由などの説明がありません。 RoPE RoPE自体の説明がほとんどありません。 attention blockでRoPEを使う場合と使わない場合があったのですが、この違いについての説明がなく、コードにはありますがcachingはいつなぜするのかも教えてくれません。 AdaLN すでに学んだSA、CAはまた詳しく説明されるのに、AdaLN-singleのような重要な概念は「既存と同じで、cross attention projectionでzero initializationを使う」とだけ言われます。 何を意味するのか分からないし、なぜそうなのかの説明もありません。 別途調べてみたら、zero initializationはAdaLN-Zeroのことで、AdaLN-Singleとは違う概念のようですが...講義ではこのような区別や説明が全くありませんでした。 Linear Attention (SANA) 事前説明は良かったのですが、コード説明の際にvanilla attentionと何が違うのかを話してくれず、同じ部分(qkv)だけ触れて進みます。 誤り: SANA scheduler説明の際に「tに0.5」と言うべきところを「xに0.5」と言われたようです。小さなミスですが、時給6万ウォンの講義が校閲もされていないのは少し残念です。 結論: キーワードをいくつか得て論文とコードを見ながら勉強すればいいのですが、6万ウォンずつ払う必要があるのかと思います。YouTubeの無料講義より満足度が低くて非常に残念です...しかも受講レビューの返信もLLMを使って自動化されているのが見え見えです...

    • sotaaz
      知識共有者

      こんにちは。まず、期待してご受講いただいたにもかかわらず、ご満足いただけず申し訳ございません。 お寄せいただいたフィードバックは感謝の気持ちで拝読いたしました。 ご指摘いただいたCLIP、T5関連の説明不足の部分は、本講座の構成上、誤解が生じた可能性があると思います。 今回の講座は、PixArtとSANAという最新アーキテクチャを直接実装し学習する実践段階を目標としているため、テキストエンコーダー自体の理論よりも、これらのモデルがテキスト情報をどのように受け取り、どのようなフロー(Flow)で画像生成プロセスに接続されるのか — つまり連携とトークンフローを中心に扱うことを意図しておりました。 また、お寄せいただいた内容から、1・2編を飛ばしてご受講されたことで、基本概念が省略された部分でより歯がゆさを感じられたのではないかと思い、残念に思います。 本講座は前編を基盤として設計されているため、重要だとお考えの説明が相対的に短く感じられた可能性もございます。 ご指摘いただいた点は、今後の補強の際に必ず参考にさせていただきます。 伝達力の部分に関するご指摘も感謝してお受けし、今後の講座ではより明確で安定した説明に改善してまいります。 貴重なお時間を割いてご意見をお寄せいただき、改めて感謝申し上げます。

¥10,922

Sotaazの他の講座

知識共有者の他の講座を見てみましょう!

似ている講座

同じ分野の他の講座を見てみましょう!