[NLP完全攻略 II] Transformer構造解剖:Attention拡張からモデル全体の組み立て、学習まで
Sotaaz
このOnline Classesは、Transformerを単に「実装する方法」ではなく、 なぜこのような構造が作られたのか、各モジュールがどのような役割を果たすのか、 そしてモデル全体がどのように動作するのかを設計者の視点から解剖する過程です。 Self-AttentionとMulti-Head Attentionの内部計算原理を深く分析し、 Positional Encoding、Feed-Forward Network、Encoder・Decoder構造が どのような限界を解決するために登場したのかを数式・論文・実装コードで直接確認します。 Attentionから出発してTransformer全体の構造を直接組み立て、 実際に学習まで実行しながらモデルがどのように動作するのかを体得します。 このOnline Classesは「Transformerを完全に理解したい人」のための 最も構造的で実践的なロードマップです。
초급
Python, transformer, self-attention





![[AI実務] AI Research Engineerのための論文の実装を始める with PyTorch강의 썸네일](https://cdn.inflearn.com/public/courses/334289/cover/b8885796-1e67-4983-9432-bcda0daae927/334289.png?w=420)

![[テンサフロー2] Pythonディープラーニング完全征服 - GAN、BERT、RNN、CNN最新技術강의 썸네일](https://cdn.inflearn.com/public/courses/324484/course_cover/f6f03229-d156-4a27-a0f2-ede2361c586f/sjh_Deep_Learning.png?w=420)




![今すぐAI特異点を体験する [Text To Image]강의 썸네일](https://cdn.inflearn.com/public/courses/329683/cover/610fa6ca-6210-4561-99dd-94dc09dac0af/329683-eng.png?w=420)
