-
카테고리
-
세부 분야
컴퓨터 비전
-
해결 여부
미해결
attention 기법 관련 질문입니다
21.12.20 17:06 작성 조회수 126
0
안녕하세요
강의에서 spatial, channel attention으로 attention을 구하는 방법과 Key, Query, Value로 attention을 구하는 방법을 따로 소개해주셨는데, 이는 서로 다른 attention 기법으로 이해하면 되는 것인가요?
답변을 작성해보세요.
1
딥러닝호형
지식공유자2021.12.20
안녕하세요. 유영재님 :)
네 맞습니다! 많은 어텐션 방법 중 두가지를 소개해 드렸습니다!
별도로 찾아보시면 별의별(?) 어텐션 방법들이 있습니다 :)
0
답변 2