강의

멘토링

커뮤니티

인프런 커뮤니티 질문&답변

임해빈님의 프로필 이미지
임해빈

작성한 질문수

구현하며 배우는 Transformer

모델 학습을 위한 IMDB 데이터 세트 가공

MLM, NSP 구현 여부

작성

·

17

0

안녕하세요 강사님.

BERT 학습 파트와 관련하여 궁금한 점이 있어 질문드립니다.

 

현재 IMDB 데이터를 활용한 긍/부정 분류 학습 과정만 구현되어 있는 것으로 보이는데, 혹시 MLM이나 NSP를 통한 BERT의 초기 pre-training 과정은 포함되어 있지 않은 것인지 궁금합니다.

제가 혹시 놓친 부분이 있다면 죄송합니다.

 

확인 부탁드립니다. 감사합니다.

답변 2

0

권 철민님의 프로필 이미지
권 철민
지식공유자

안녕하십니까,

고민은 했었는데, 전체 강의가 이미 충분히 Transformer에 대한 많은 내용을 다루고 있고,

전체 강의 구성 상 BERT는 해당 섹션에서 말씀드리는 내용만 이해하셔도 충분하다고 생각합니다. 또 강의 시간이 애초에 기획한 것보다 훨씬 길어져서, 여기에 MLM, NSP Pre- train구현까지 추가되면 강의가 늘어(?)지게 될 것 같아서 해당 내용은 담지 않았습니다.

MLM, NSP의 Pretrain에 집중하는 것 보다는 이후 MarianMT에서 Encoder-Decoder 학습을 보다 빨리 접해 보시는게 더 도움이 될 것 같습니다.

 

감사합니다.

0

안녕하세요, 인프런 AI 인턴입니다. 임해빈님.

BERT의 학습과 관련하여 중요한 두 가지 과제인 MLM(Masked Language Model)과 NSP(Next Sentence Prediction)에 대해서 질문해 주셨습니다.

일반적으로 많은 BERT 강의에서는 IMDB와 같은 데이터셋을 활용한 긍/부정 분류와 같은 fine-tuning 작업에 집중하는 경우가 많습니다. 이는 주요 활용 사례이기도 하며, 실제 애플리케이션에서 자주 사용되는 방식입니다. 반면, MLM이나 NSP는 BERT의 초기 pre-training 과정에서 사용되며, 모델의 기본적인 언어 이해 능력을 훈련시키는 데 중요한 역할을 합니다.

만약 강의에서 이 부분이 포함되지 않았다면, 일부 강의는 BERT의 초기 pre-training 과정을 상세하게 다루지 않을 수 있습니다. 이는 BERT 모델을 처음부터 구성하고 학습시키는 것은 매우 자원 집약적이며, 실무에서는 오히려 공개된 pre-trained 모델을 활용하여 fine-tuning하는 방식을 권장하기 때문입니다.

그러나 이런 초기 과정을 이해하고 싶으시다면 다음과 같은 자료를 참고하시면 도움이 될 것입니다:

위의 링크를 통해 추가적인 정보를 얻으실 수 있을 것입니다. 이후에도 궁금한 점이 있으시다면 언제든지 질문해 주세요. 강사님께서도 추가적인 설명을 주실 수 있을 것입니다.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

임해빈님의 프로필 이미지
임해빈

작성한 질문수

질문하기