inflearn logo
知識共有
inflearn logo

[NLP完全攻略 II] Transformer構造解剖:Attention拡張からモデル全体の組み立て、学習まで

このOnline Classesは、Transformerを単に「実装する方法」ではなく、 なぜこのような構造が作られたのか、各モジュールがどのような役割を果たすのか、 そしてモデル全体がどのように動作するのかを設計者の視点から解剖する過程です。 Self-AttentionとMulti-Head Attentionの内部計算原理を深く分析し、 Positional Encoding、Feed-Forward Network、Encoder・Decoder構造が どのような限界を解決するために登場したのかを数式・論文・実装コードで直接確認します。 Attentionから出発してTransformer全体の構造を直接組み立て、 実際に学習まで実行しながらモデルがどのように動作するのかを体得します。 このOnline Classesは「Transformerを完全に理解したい人」のための 最も構造的で実践的なロードマップです。

難易度 初級

受講期間 無制限

Python
Python
transformer
transformer
self-attention
self-attention
PyTorch
PyTorch
Python
Python
transformer
transformer
self-attention
self-attention
PyTorch
PyTorch

他の受講生がよくする質問が気になりますか?

まだ質問が投稿されていません。
最初の質問を投稿して、インフランと一緒に成長しましょう!

¥8,224