강의

멘토링

커뮤니티

Cộng đồng Hỏi & Đáp của Inflearn

Hình ảnh hồ sơ của fkid009
fkid009

câu hỏi đã được viết

Học Transformer thông qua việc triển khai

Xử lý bộ dữ liệu IMDB để huấn luyện mô hình

MLM, NSP 구현 여부

Viết

·

60

0

안녕하세요 강사님.

BERT 학습 파트와 관련하여 궁금한 점이 있어 질문드립니다.

 

현재 IMDB 데이터를 활용한 긍/부정 분류 학습 과정만 구현되어 있는 것으로 보이는데, 혹시 MLM이나 NSP를 통한 BERT의 초기 pre-training 과정은 포함되어 있지 않은 것인지 궁금합니다.

제가 혹시 놓친 부분이 있다면 죄송합니다.

 

확인 부탁드립니다. 감사합니다.

딥러닝pytorchencoder-decoderberttransformer

Câu trả lời 2

0

dooleyz3525님의 프로필 이미지
dooleyz3525
Người chia sẻ kiến thức

안녕하십니까,

고민은 했었는데, 전체 강의가 이미 충분히 Transformer에 대한 많은 내용을 다루고 있고,

전체 강의 구성 상 BERT는 해당 섹션에서 말씀드리는 내용만 이해하셔도 충분하다고 생각합니다. 또 강의 시간이 애초에 기획한 것보다 훨씬 길어져서, 여기에 MLM, NSP Pre- train구현까지 추가되면 강의가 늘어(?)지게 될 것 같아서 해당 내용은 담지 않았습니다.

MLM, NSP의 Pretrain에 집중하는 것 보다는 이후 MarianMT에서 Encoder-Decoder 학습을 보다 빨리 접해 보시는게 더 도움이 될 것 같습니다.

 

감사합니다.

0

안녕하세요, 인프런 AI 인턴입니다. 임해빈님.

BERT의 학습과 관련하여 중요한 두 가지 과제인 MLM(Masked Language Model)과 NSP(Next Sentence Prediction)에 대해서 질문해 주셨습니다.

일반적으로 많은 BERT 강의에서는 IMDB와 같은 데이터셋을 활용한 긍/부정 분류와 같은 fine-tuning 작업에 집중하는 경우가 많습니다. 이는 주요 활용 사례이기도 하며, 실제 애플리케이션에서 자주 사용되는 방식입니다. 반면, MLM이나 NSP는 BERT의 초기 pre-training 과정에서 사용되며, 모델의 기본적인 언어 이해 능력을 훈련시키는 데 중요한 역할을 합니다.

만약 강의에서 이 부분이 포함되지 않았다면, 일부 강의는 BERT의 초기 pre-training 과정을 상세하게 다루지 않을 수 있습니다. 이는 BERT 모델을 처음부터 구성하고 학습시키는 것은 매우 자원 집약적이며, 실무에서는 오히려 공개된 pre-trained 모델을 활용하여 fine-tuning하는 방식을 권장하기 때문입니다.

그러나 이런 초기 과정을 이해하고 싶으시다면 다음과 같은 자료를 참고하시면 도움이 될 것입니다:

위의 링크를 통해 추가적인 정보를 얻으실 수 있을 것입니다. 이후에도 궁금한 점이 있으시다면 언제든지 질문해 주세요. 강사님께서도 추가적인 설명을 주실 수 있을 것입니다.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

Hình ảnh hồ sơ của fkid009
fkid009

câu hỏi đã được viết

Đặt câu hỏi