Học Transformer thông qua việc triển khai
Từ Multi Head Attention đến mô hình Original Transformer, BERT, mô hình dịch thuật MarianMT dựa trên Encoder-Decoder, cho đến Vision Transformer, bạn sẽ học hiểu sâu sắc về Transformer thông qua việc tự tay triển khai code.
283 học viên
Độ khó Trung cấp trở lên
Thời gian Không giới hạn
- Chưa giải quyết
Embedding 모델 fine tuning 관련 질문
강사님 안녕하세요? 10년전 쯤 파이썬 머신러닝 완벽가이드, CNN 완벽가이드를 수강하고 많은 도움을 받았는데, Transformer 강의를 내셨길래 반가운 마음으로 바로 구매했습니다 ㅎㅎ
딥러닝pytorchencoder-decoderberttransformeraquarid22
・
25 ngày trước
0
59
2
- Chưa giải quyết
코드에 오타가 있는 것 같습니다
안녕하세요, 강사님 강의 열심히 잘 듣고 있습니다.visionTransformer생성 부분에서,제가 잘못
딥러닝pytorchencoder-decoderberttransformerlovewrite0301105292
・
một tháng trước
0
43
2
- Chưa giải quyết
코드 오타가 있는것 같습니다.
torch.manual_seed(123) HIDDEN_SIZE = 256 NUM_HEADS = 4 DEC_Q_SEQ_LEN = 10 ENC_K_SEQ_LEN = 20 BATCH_SIZE = 2 dec_t
딥러닝pytorchencoder-decoderberttransformerjsmak6174
・
một tháng trước
0
58
2
- Chưa giải quyết
트랜스포머 모델 구조에서 Encode-Decoder Attenttion에 대해서
안녕하세요.. 다시 또 궁금한 것이 생겼습니다.트랜스포머의 각 인코더 블럭의 출력이 디코더 블럭의 Encode-Decoder Attention 으로 들어가게 되는
딥러닝pytorchencoder-decoderberttransformersansanai
・
2 tháng trước
0
56
2
- Chưa giải quyết
트랜스포머 구조에서 블럭갯수에 대해서
안녕하세요.. 트랜스포머 구조에서 Encoder 블럭의 갯수와 Decoder 블럭의 갯수가 동일해야 하는 것인가요? 아니면 Encoder -Decoder A
딥러닝pytorchencoder-decoderberttransformersansanai
・
2 tháng trước
0
46
2
- Chưa giải quyết
RNN에서 출력 y에대해서..
안녕하세요.. RNN모델 설명에서, 궁금한 것이 있습니다. y_i = h_i 가 되는 것인가요?
딥러닝pytorchencoder-decoderberttransformersansanai
・
2 tháng trước
0
45
1
- Chưa giải quyết
embedding 값 시각화 해보기에서
안녕하세요..16강 임베딩 값 시각화 해보기에서 궁금한 것이 있습니다.버트 토크나이저와 모델을 다운로드 받을 때 다음과 같은 오류가 났는데..202
딥러닝pytorchencoder-decoderberttransformersansanai
・
2 tháng trước
0
40
1
- Đã giải quyết
length_penalty 부분이 없는 것 같습니다.
130강 끝날 즈음에 다음 섹션이 아니라 length_penalty에 대한 설명을 해주신다고 하셨는데 없는 것 같습니다!
딥러닝pytorchencoder-decoderberttransformerjcy40236396
・
2 tháng trước
1
41
1
- Chưa giải quyết
멀티 헤드 셀프 어텐션에서 Wq, Wk, Wv의 구조 관련 질문
후반부 슬라이드 그림에 Wq, Wk, Wv 하나로 계산이 되어 헤드별로 나누어진다는 표현같이 보이는데, 오해의 소지가 있는것 같습니다. 만약 Wq, Wk, Wv가 멀티 헤드의 각각의 Wq, Wk, Wv가 concat된
딥러닝pytorchencoder-decoderberttransformerhtchoiphd7861
・
3 tháng trước
0
66
3
- Chưa giải quyết
MLM, NSP 구현 여부
안녕하세요 강사님.BERT 학습 파트와 관련하여 궁금한 점이 있어 질문드립니다. 현
딥러닝pytorchencoder-decoderberttransformerfkid009
・
4 tháng trước
0
59
2
- Chưa giải quyết
bert encoding input_ids.size(1)에 대하여
안녕하세요 강사님.BERT 관련 강의를 매우 유익하게 듣고 있습니다. Embeddi
딥러닝pytorchencoder-decoderberttransformerfkid009
・
4 tháng trước
0
51
2
- Chưa giải quyết
트랜스포머 학습 강의
안녕하세요, 강사님.강의 잘 듣고 있습니다. 한 가지 궁금한 점이 있는데요, 트랜스
딥러닝pytorchencoder-decoderberttransformerfkid009
・
4 tháng trước
0
81
2
- Chưa giải quyết
Q, K, V 초기 임베딩
안녕하십니까, 강사님.트랜스포머에 대한 세심하고 깊이 있는 강의를 준비해주셔서 감사합니다. 강의 정말 유익하게 잘 듣고 있습니다. S
딥러닝pytorchencoder-decoderberttransformerfkid009
・
5 tháng trước
0
60
1

