네이버 영화리뷰 파인튜닝 질문드려요
306
投稿した質問数 20
- 먼저 유사한 질문이 있었는지 검색해보세요.
- 서로 예의를 지키며 존중하는 문화를 만들어가요.
- 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
回答 1
0
안녕하세요~. 반갑습니다.
bert 모델에 넣기 전에 아래 코드에서 토크나이징을 진행한 후 bert 모델에 들어가게 됩니다.
text_test = ['지루하지는 않은데 완전 막장임... 돈주고 보기에는....']
text_preprocessed = bert_preprocess_model(text_test)
print(f'Keys : {list(text_preprocessed.keys())}')
print(f'Shape : {text_preprocessed["input_word_ids"].shape}')
print(f'Word Ids : {text_preprocessed["input_word_ids"][0, :12]}')
print(f'Input Mask : {text_preprocessed["input_mask"][0, :12]}')
print(f'Type Ids : {text_preprocessed["input_type_ids"][0, :12]}')
위 코드아래에서 text_preprocessed값이 bert 모델의 인풋으로 들어가는 모습을 확인하실 수 있습니다.
그럼 좋은 하루되세요~.
감사합니다.
20강에서 파인튜닝 때 사용한 데이터가 없어졌습니다. LoRA Trainer 매개변수도 라이브러리 업그레이드로 수정되었습니다.
0
20
1
수업자료
0
23
2
가중치에 대한 질문
0
107
1
transformer 기계번역 강의 오류 질문
0
155
2
seq2seq를_이용한_NMT.ipynb 실습코드 에러 문의사항입니다.
0
254
2
실습 2 - Char-RNN 코드 학습 부분에서 오류가 발생합니다.
0
277
2
pad_both_ends 사용할 때 n은 왜 사용하나요?
1
206
2
트레이닝 에러 발생
0
335
2
트랜스포머 인코더 레이어 테스트 에러
0
219
1
9강 BERT 실습 예제 코드
0
465
1
Bert 관련 문의
0
336
2
코랩에서 실행이 안됩니다
0
1126
1
bert를 이용해서 ocr 시스템을 만들려면 어떻게 해야 할까요 ?
0
787
1
소스코드 실행 시 에러
0
565
2
N-gram_example
1
808
1
BERT를 이용한 텍스트 분류에서 다중분류라면 어떻게 해야할까요?
1
1524
1
개인 깃허브 소스코드 업로드 가능할까요?
0
331
1
#@title Choose a BERT model to fine-tune
0
370
1
nltk모듈 MLE의 score메서드 계산 질문드립니다.
0
202
0
bert 파인튜닝 코드 질문
0
397
0
코드 실행 오류
0
316
1
bert를 이용한 텍스트 분류 imdb 편 질문드립니다.
0
355
1
안녕하세요. 강의 잘듣고있습니다!
0
278
1
강의 자료는 어디있나요(자연어 처리)
0
333
1

