[NLP 완전정복 II] Transformer 구조 해부: Attention 확장부터 전체 모델 조립, 학습까지
Sotaaz
이 강의는 Transformer를 단순히 “구현하는 법”이 아니라, 왜 이런 구조가 만들어졌는지, 각 모듈이 어떤 역할을 하는지, 그리고 전체 모델이 어떻게 작동하는지를 설계자의 관점에서 해부하는 과정입니다. Self-Attention과 Multi-Head Attention의 내부 계산 원리를 깊이 있게 분석하고, Positional Encoding, Feed-Forward Network, Encoder·Decoder 구조가 어떤 한계를 해결하기 위해 등장했는지를 수식·논문·구현 코드로 직접 확인합니다. Attention에서 출발해 Transformer 전체 구조를 직접 조립하고, 실제로 학습까지 수행하며 모델이 어떻게 동작하는지 체득합니다. 이 강의는 “Transformer를 완전히 이해하고 싶은 사람”을 위한 가장 구조적이고 실전적인 로드맵입니다.
Basic
Python, transformer, self-attention





![[PyTorch] 쉽고 빠르게 배우는 NLPCourse Thumbnail](https://cdn.inflearn.com/public/courses/325056/course_cover/b66025dd-43f5-4a96-8627-202b9ba9e038/pytorch-nlp-eng.png?w=420)
![[AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorchCourse Thumbnail](https://cdn.inflearn.com/public/courses/334289/cover/b8885796-1e67-4983-9432-bcda0daae927/334289.png?w=420)


![[모바일] 딥러닝 Computer Vision 실전 프로젝트Course Thumbnail](https://cdn.inflearn.com/public/courses/324985/course_cover/6bedded2-1f32-4d11-be03-6e5bf5a3b488/sjh-mobile-cv.png?w=420)

![지금 당장 AI 특이점 경험하기 [Text To Image]Course Thumbnail](https://cdn.inflearn.com/public/courses/329683/cover/610fa6ca-6210-4561-99dd-94dc09dac0af/329683-eng.png?w=420)