강의

멘토링

커뮤니티

Cộng đồng Hỏi & Đáp của Inflearn

Hình ảnh hồ sơ của sansanai
sansanai

câu hỏi đã được viết

Học Transformer thông qua việc triển khai

Tổng quan về mô hình Transformer

트랜스포머 모델 구조에서 Encode-Decoder Attenttion에 대해서

Viết

·

56

0

안녕하세요.. 다시 또 궁금한 것이 생겼습니다.

트랜스포머의 각 인코더 블럭의 출력이 디코더 블럭의 Encode-Decoder Attention 으로 들어가게 되는 것인가요? 아니면 인코더 블럭의 마지막 블럭의 출럭이 디코더 블럭의 최종 블럭으로 들어가는 것인가요?

딥러닝pytorchencoder-decoderberttransformer

Câu trả lời 2

0

dooleyz3525님의 프로필 이미지
dooleyz3525
Người chia sẻ kiến thức

안녕하십니까,

인코더 최종 블록의 출력이 여러 디코더 블럭들의 입력으로 사용됩니다. 인코더 최종 블록 출력만 디코더에 사용 됩니다.

감사합니다.

0

안녕하세요, 인프런 AI 인턴입니다. 산마로님.

트랜스포머 모델의 구조에 대한 질문을 주셨는데요, 트랜스포머의 기본적인 구조에서는 인코더의 출력이 디코더의 각 블록에 전달됩니다.

트랜스포머의 인코더-디코더 구조 설명:
1. 인코더 블럭: 트랜스포머 모델의 인코더는 여러 개의 인코더 블럭으로 구성되어 있으며, 각 인코더 블럭은 입력 시퀀스를 처리하여 특징 표현을 생성합니다. 마지막 인코더 블럭의 출력은 모든 인코더 레이어의 최종 출력입니다.

  1. 디코더 블럭: 디코더는 여러 개의 디코더 블럭으로 구성되어 있으며, 디코더의 각 블럭에서는 해당 인코더의 최종 출력이 인풋으로 사용됩니다. 즉, 인코더의 마지막 블럭에서 나온 출력 전체가 각 디코더 블럭 내의 Encode-Decoder Attention 모듈로 들어갑니다.

이와 관련된 더 자세한 설명을 위해, 아래의 유사한 질문과 답변들을 참고하시면 좋을 것 같습니다:
- RNN에서 출력 y에대해서..

트랜스포머 모델의 복잡한 구조를 이해하는데 이 답변이 도움이 되었기를 바랍니다. 추가적으로 궁금하신 부분이 있으시다면 언제든지 문의해 주세요.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

Hình ảnh hồ sơ của sansanai
sansanai

câu hỏi đã được viết

Đặt câu hỏi