inflearn logo
강의

Course

Instructor

Learning Transformer Through Implementation

Implementing TransformerSeq2SeqModel

트랜스포머 학습 강의

92

fkid009

20 asked

0

안녕하세요, 강사님.

강의 잘 듣고 있습니다.

 

한 가지 궁금한 점이 있는데요, 트랜스포머 Seq2Seq 모델은 구현까지만 되어 있고 학습 과정에 대한 강의는 없는 것 같습니다. 혹시 BERT나 MarianMT 모델의 학습만 포함되어 있는 것인지 여쭤보고 싶습니다.

 

감사합니다.

딥러닝 pytorch encoder-decoder bert transformer

Answer 2

0

dooleyz3525

안녕하십니까,

트랜스포머 모델의 학습(Train)은 이후 섹션인 BERT와 MarianMT에서 다루고 있습니다.

BERT는 Encoder 기반, MarianMT는 Seq2Seq(Encoder-Decoder) 기반으로서 이후 섹션에서 BERT, MarianMT의 모델 구현 뿐만 아니라, Custom 데이터 기반으로 학습과 Inference까지 실습하는 내용으로 구성되어 있습니다.

감사합니다.

0

communityai8509

안녕하세요, 인프런 AI 인턴입니다. 임해빈님.

트랜스포머 강의를 듣고 계시다니 반갑습니다. Seq2Seq 모델에 대해 궁금하신 부분이 있으신데요, 강의의 구체적인 내용과 범위에 대해서는 강사님이 가장 정확한 정보를 제공하실 수 있습니다. 하지만 일반적으로, Seq2Seq 구조의 트랜스포머 모델 구현에 중점을 둔 강의에서는 학습 과정의 중요 개념을 함께 다루는 경우가 많습니다. 만약 특정 트랜스포머 모델, 예를 들어 BERT나 MarianMT에 대한 학습이 포함된 경우, 강의 내용에서 이를 직접적으로 언급하고 있을 것입니다.

다음 링크에서 비슷한 주제에 대한 정보를 찾으실 수 있으니 참고하시면 좋을 것 같습니다:
- 트랜스포머 모델의 학습 과정에 대한 설명
- BERT와 같은 트랜스포머 모델의 활용 방법

질문자님의 학습 여정에 도움이 되길 바랍니다. 추가적으로 궁금하신 점이 있으면 언제든지 이어서 질문해 주세요. 강사님께서도 곧 답변을 주실 것입니다.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

import torch가 안되는 경우는 어떻게 하나요?

0

12

1

소리가 겹쳐서 들려요

0

19

2

20강에서 파인튜닝 때 사용한 데이터가 없어졌습니다. LoRA Trainer 매개변수도 라이브러리 업그레이드로 수정되었습니다.

0

20

1

[개정판] 딥러닝 컴퓨터 비전 완벽 가이드 먼저? 구현하며 배우는 Transformer 먼저?

0

29

1

수업자료

0

23

2

전 강의와 전혀 이어지지가 않음

0

30

1

pytorch local 설치 옵션에 conda 가 없습니다.

0

38

3

pc에서는 괜찮은데 탭으로 들으니 화면확대시 화면이 까맙니다

0

22

1

강의 환경설정 질문

0

39

2

모든 자료 다운로드 누를때마다 똑같은 excel파일이 다운로드 받아짐. 노션 주소 공유되나요?

0

31

2

오토인코더+ Knn, SVC 로 해석하는경우

0

45

3

강의 영상 오류

0

58

1

Embedding 모델 fine tuning 관련 질문

0

71

2

코드에 오타가 있는 것 같습니다

0

53

2

코드 오타가 있는것 같습니다.

0

68

2

트랜스포머 모델 구조에서 Encode-Decoder Attenttion에 대해서

0

67

2

트랜스포머 구조에서 블럭갯수에 대해서

0

61

2

RNN에서 출력 y에대해서..

0

58

1

embedding 값 시각화 해보기에서

0

52

1

length_penalty 부분이 없는 것 같습니다.

1

54

1

멀티 헤드 셀프 어텐션에서 Wq, Wk, Wv의 구조 관련 질문

0

79

3

MLM, NSP 구현 여부

0

70

2

bert encoding input_ids.size(1)에 대하여

0

58

2

Q, K, V 초기 임베딩

0

69

1