작성한 질문수
최신 딥러닝 기술 Vision Transformer 개념부터 Pytorch 구현까지
작성
·
188
0
안녕하세요
강의에서 spatial, channel attention으로 attention을 구하는 방법과 Key, Query, Value로 attention을 구하는 방법을 따로 소개해주셨는데, 이는 서로 다른 attention 기법으로 이해하면 되는 것인가요?
답변 2
1
안녕하세요. 유영재님 :)
네 맞습니다! 많은 어텐션 방법 중 두가지를 소개해 드렸습니다!
별도로 찾아보시면 별의별(?) 어텐션 방법들이 있습니다 :)
감사합니다~