/
Multi Head AttentionからOriginal Transformerモデル、BERT、Encoder-DecoderベースのMarianMT翻訳モデルまでコードで直接実装しながらTransformerについて隅々まで学ぶことになります。
58名 が受講中です。