inflearn logo
강의

講義

知識共有

例として学ぶディープラーニング自然言語処理入門 NLP with TensorFlow - RNNからBERTまで

実習2 - BERTを利用してネイバー映画レビューデータセット(NSMC)に対するテキスト分類をしてみる (BERT 韓国語ファインチューニング)

네이버 영화리뷰 파인튜닝 질문드려요

306

testerhyuk2142928

投稿した質問数 20

0

- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!
- 먼저 유사한 질문이 있었는지 검색해보세요.
- 서로 예의를 지키며 존중하는 문화를 만들어가요.
- 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
 
앞선 과정에서 한글이든 영어든 토크나이저로 토큰화 시킨 후에 모델에 입력값으로 넣어야 하는 것으로 이해했습니다. 그런데, bert 모델에 넣을때는 토큰화 하지 않는 것 같은데 토큰화를 안해주는 이유가 있나요? 아니면 제가 토큰화하는 코드를 못본걸까요?

tensorflow NLP 딥러닝

回答 1

0

AISchool

안녕하세요~. 반갑습니다.

bert 모델에 넣기 전에 아래 코드에서 토크나이징을 진행한 후 bert 모델에 들어가게 됩니다.

text_test = ['지루하지는 않은데 완전 막장임... 돈주고 보기에는....']

text_preprocessed = bert_preprocess_model(text_test)

 

print(f'Keys       : {list(text_preprocessed.keys())}')

print(f'Shape      : {text_preprocessed["input_word_ids"].shape}')

print(f'Word Ids   : {text_preprocessed["input_word_ids"][0, :12]}')

print(f'Input Mask : {text_preprocessed["input_mask"][0, :12]}')

print(f'Type Ids   : {text_preprocessed["input_type_ids"][0, :12]}')


위 코드아래에서 text_preprocessed값이 bert 모델의 인풋으로 들어가는 모습을 확인하실 수 있습니다.

그럼 좋은 하루되세요~.

감사합니다.

20강에서 파인튜닝 때 사용한 데이터가 없어졌습니다. LoRA Trainer 매개변수도 라이브러리 업그레이드로 수정되었습니다.

0

20

1

수업자료

0

23

2

가중치에 대한 질문

0

107

1

transformer 기계번역 강의 오류 질문

0

155

2

seq2seq를_이용한_NMT.ipynb 실습코드 에러 문의사항입니다.

0

254

2

실습 2 - Char-RNN 코드 학습 부분에서 오류가 발생합니다.

0

277

2

pad_both_ends 사용할 때 n은 왜 사용하나요?

1

206

2

트레이닝 에러 발생

0

335

2

트랜스포머 인코더 레이어 테스트 에러

0

219

1

9강 BERT 실습 예제 코드

0

465

1

Bert 관련 문의

0

336

2

코랩에서 실행이 안됩니다

0

1126

1

bert를 이용해서 ocr 시스템을 만들려면 어떻게 해야 할까요 ?

0

787

1

소스코드 실행 시 에러

0

565

2

N-gram_example

1

808

1

BERT를 이용한 텍스트 분류에서 다중분류라면 어떻게 해야할까요?

1

1524

1

개인 깃허브 소스코드 업로드 가능할까요?

0

331

1

#@title Choose a BERT model to fine-tune

0

370

1

nltk모듈 MLE의 score메서드 계산 질문드립니다.

0

202

0

bert 파인튜닝 코드 질문

0

397

0

코드 실행 오류

0

316

1

bert를 이용한 텍스트 분류 imdb 편 질문드립니다.

0

355

1

안녕하세요. 강의 잘듣고있습니다!

0

278

1

강의 자료는 어디있나요(자연어 처리)

0

333

1