Attention에 질문이 있습니다.
267
작성한 질문수 4
답변 1
1
안녕하세요! 희진님.
강의가 도움이 되길 바랍니다 :)
1. BAM에서 M(F)가 어텐션을 담당하고 FxM(F)에서 이미지 전체에 대한 조율을 하는 것입니다 :)
F를 더한 것은 어텐션 개념은 아니고 residual connection 입니다.
결과적으로 BAM도 하나의 모듈이기 때문에 최종 값 F'가 모듈에서 나온 아웃풋(피쳐맵)이라고 볼 수 있습니다.
따라서 이전 convolutional layer에서 나온 F를 받아 F'를 추출하고 F'가 다음 convolutional layer로 넘어갑니다.
2. 어텐션은 좋은 피쳐맵을 추출하기 위해 고안 된 방법입니다. overfitting은 다른 관점에서의 문제로 보입니다.
열공하세요!!
감사합니다.
mean attention distance
0
200
2
안녕하세요, vit에 관심이 많은 사람입니다.
1
233
1
positional embedding 학습이 잘 안되는 문제
1
365
1
행렬 차원 수 질문
0
315
1
Self Attention 질문 있습니다.
0
326
1
Multi-Head Attention 모델 구조에서 궁금한게 있습니다.
0
557
1
전처리 관련해서 질문이 있습니다
1
362
1
답변에 대한 추가질문이 있습니다.
1
302
1
헷갈리는게 몇개 있습니다ㅠㅠ
1
375
1
Positional Encoding, KQV 질문입니다!
2
624
1
강의 자료 슬라이드
0
739
2
비전 트랜스포머 - 최신 모델 강의에서 positional embedding
2
468
1
비전 트랜스포머 - 최신 모델' 강의에서 B*N*K 와 1*K*D 를 연산
1
402
1
'어텐션 기법 - 키, 쿼리, 밸류는 무엇인가?' 강의에서 (QK^T)
1
717
1
training
1
290
1
Image가 입력일 때 Cross Attention 결과가 궁금합니다.
0
890
1
Transformer의 input에 대해 질문드립니다.
1
415
1
ViT에 대한 전반적인 질문 드립니다!
1
394
1
Key query value관련 질문
1
567
2
Fine tuning 관련하여 질문 드립니다.
1
647
1
코드 질문
1
318
1
Dh의 의미
1
313
1
scheduler관련 질문드립니다.
2
278
1
E, Epos
0
309
1





