Transformer Decoder 강의에서 "MaskedMultihadAttention"클래스 질문
130
작성한 질문수 1
안녕하세요.
설명을 너무 잘해주셔서 Transformer에 대한 이해도가 높아졌습니다. 감사합니다.
강의 중 이해안되는 부분이 있어 질문드립니다.
"Char Level GPT 만들기"강의 중 MaskedMultiheadAttention 클래스 선언 부분의 attention 객체 만드는 부분의 매개변수가 이해가 안갑니다.
Class MaskedMultiheadAttention(nn.Module):
def init(self, embed_dim, num_heads):
...
self.attentions = nn.ModuleList([MaskedSelfAttention(attention_dim, attention_dim) for in range(num_heads)]
...
위에 attention 객체 생성할 때 입력단자로 attention_dim이 들어가게 되는데 embed_dim 이 들어가야 하는게 아닐까요?
선택사항이라고 하기에는 TrnsformerDecoderBlock 클래스 선언한 걸 보면 layer_norm1을 emed_dim으로 설정해서 그래도 맞지 않는 것 같아서요.
답변 부탁드릴게요!
답변 1
0
안녕하세요. 질문 감사합니다. 강의중 타입 오류가 있었던점 사과드립니다.
https://github.com/NoCodeProgram/deepLearning/blob/main/transformer/bibleGPT.ipynb
에 보시면, MaskedMultiheadAttention 선언부분이 있습니다.
class MaskedMultiheadAttention(nn.Module):
def __init__(self, embed_dim, num_heads):
super().__init__()
attention_dim = embed_dim // num_heads
self.attentions = nn.ModuleList([MaskedSelfAttention(embed_dim, attention_dim) for _ in range(num_heads)])
self.fc = nn.Linear(embed_dim, embed_dim)
소리가 겹쳐서 들려요
0
16
2
20강에서 파인튜닝 때 사용한 데이터가 없어졌습니다. LoRA Trainer 매개변수도 라이브러리 업그레이드로 수정되었습니다.
0
19
1
[개정판] 딥러닝 컴퓨터 비전 완벽 가이드 먼저? 구현하며 배우는 Transformer 먼저?
0
27
1
수업자료
0
22
2
전 강의와 전혀 이어지지가 않음
0
27
1
pytorch local 설치 옵션에 conda 가 없습니다.
0
36
3
pc에서는 괜찮은데 탭으로 들으니 화면확대시 화면이 까맙니다
0
22
1
강의 환경설정 질문
0
38
2
모든 자료 다운로드 누를때마다 똑같은 excel파일이 다운로드 받아짐. 노션 주소 공유되나요?
0
31
2
오토인코더+ Knn, SVC 로 해석하는경우
0
45
3
강의 영상 오류
0
55
1
강의자료에 소스코드가 없는데요
0
46
3
강화학습저장 및 로드
0
57
1
Custom Dataset에서의 polygon 정보 관련
0
82
3
paperswithcode 서비스 종료 관련 문의
0
203
2
Google Colaboratory 연결 시 접근 권한 거절 됩니다.
0
35
1
질문있습니다.
0
59
2
22강 코드 call()메서드 is_training -> model(x,False)로 호출시 밸류에러 참고
0
48
1
강의자료 질문
0
40
1
cvat.ai 보안 수준이 궁금합니다
0
78
2
딥러닝구조를 배웠는데 원리가 궁금하네요
0
95
1
Embedding 모델 fine tuning 관련 질문
0
70
2
모듈
0
81
1
state
0
82
2





