구현하며 배우는 Transformer
Multi Head Attention 부터 Original Transformer 모델, BERT, Encoder-Decoder 기반의 MarianMT 번역 모델, Vision Transformer 까지 코드로 직접 구현하며 Transformer에 대해 속속들이 배우게 됩니다.
이론 실습 모두
이론 실습 모두
NLP
NLP
바닥부터구현
바닥부터구현
Multi Head Attention 부터 Original Transformer 모델, BERT, Encoder-Decoder 기반의 MarianMT 번역 모델, Vision Transformer 까지 코드로 직접 구현하며 Transformer에 대해 속속들이 배우게 됩니다.