인프런 커뮤니티 질문&답변
비전 트랜스포머 - 최신 모델 강의에서 positional embedding
해결된 질문
작성
·
441
답변 1
1
딥러닝호형
지식공유자
안녕하세요.
클래스 토큰에 대해서는 concatenate(옆에다 붙여줌)한 것이기 때문에 차원이 하나 늘어나는 것이고 positional embedding은 두 매트릭스의 합으로 연산된 것이기 때문에 크기가 늘어나지 않습니다.
예를 들어 크기가 nxn 매트릭스와 nxn 매트릭스의 합은 nxn 매트릭스가 됩니다.
감사합니다.






