구현하며 배우는 Transformer
Multi Head Attention 부터 Original Transformer 모델, BERT, Encoder-Decoder 기반의 MarianMT 번역 모델까지 코드로 직접 구현하며 Transformer에 대해 속속들이 배우게 됩니다.
Multi Head Attention 부터 Original Transformer 모델, BERT, Encoder-Decoder 기반의 MarianMT 번역 모델까지 코드로 직접 구현하며 Transformer에 대해 속속들이 배우게 됩니다.