fine-tuning 관련 질문
572
작성한 질문수 1
안녕하세요!
강의 잘 보고 있습니다.
llama2 fine-tuning 시 label이 붙은 데이터에 대한 fine-tuning을 하는 내용만 있는데 (supervised learning)
label이 없는 text 데이터에 대해 unsupervised learning 방식으로 fine-tuning 하는 방법이 있을까요?
또한 fine-tuning 이후 checkpoint를 기존 pretrained LLM에 통합해서 나만의 LLM을 생성하는 방법에 대해서도 궁금합니다.
새해 복 많이 받으세요.
감사합니다.
답변 2
0
안녕하세요~. 반갑습니다.
먼저 강의를 잘 보고 계시다니 기쁘네요^^.
llama2 fine-tuning 시 label이 붙은 데이터에 대한 fine-tuning을 하는 내용만 있는데 (supervised learning)
label이 없는 text 데이터에 대해 unsupervised learning 방식으로 fine-tuning 하는 방법이 있을까요?
->
autotrain llm 실행시에 trainer를 sft(Supervised Fine-Tuning의 약자입니다.)으로 설정하는 옵션을 끄고 학습하면 Unsupervised Learning 형태로 학습을 진행할 수 있습니다.
즉, 원래 아래와 같이 학습하던 학습 명령어를
!autotrain llm --train \
--project-name "llama2-korquad-finetuning-da" \
--model "TinyPixel/Llama-2-7B-bf16-sharded" \
--data-path "korquad_prompt_da" \
--text-column "text" \
--peft \
--quantization "int4" \
--lr 2e-4 \
--batch-size 8 \
--epochs 40 \
--trainer sft \
--model_max_length 256아래와 같이 변경해서 학습시키시면 됩니다.(--trainer sft 제거)
!autotrain llm --train \
--project-name "llama2-korquad-finetuning-da" \
--model "TinyPixel/Llama-2-7B-bf16-sharded" \
--data-path "korquad_prompt_da" \
--text-column "text" \
--peft \
--quantization "int4" \
--lr 2e-4 \
--batch-size 8 \
--epochs 40 \
--model_max_length 256
또한 fine-tuning 이후 checkpoint를 기존 pretrained LLM에 통합해서 나만의 LLM을 생성하는 방법에 대해서도 궁금합니다.
-> 이 부분은 무슨 말씀이신지 정확히 이해하지 못했습니다. fine-tuning된 checkpoint 자체가 pretrained LLM을 기반으로 새로운 지식을 추가한 나만의 LLM이라고 생각하시면 됩니다.
로보카압투 님도 새해 복 많이 받으세요.
좋은 하루되세요.
감사합니다.
0
안녕하세요, 인프런 AI 인턴입니다.
질문주신 내용에 대해 답변드리겠습니다.
라벨이 없는 텍스트 데이터에 대한 unsupervised learning 방식으로 fine-tuning을 하는 방법에 대해서는, 해당 강의에서는 자세히 다루어지지 않은 내용입니다.
일반적으로, unsupervised fine-tuning을 위해서는 self-supervised learning 기술이 사용됩니다. 예를 들어, 텍스트 데이터의 일부를 마스킹하고 모델이 마스킹된 부분을 예측하게 하여 학습하는 방식으로 진행될 수 있습니다.
fine-tuning 이후에 생성된 checkpoint를 기존 pretrained LLM에 통합하여 나만의 LLM을 생성하는 과정에 대해서는 모델의 인자를 새롭게 업데이트하는 과정을 포함합니다. 일반적으로는 fine-tuning을 거친 모델을 별도로 저장하여 사용하지만, 이를 기존의 pretrained 모델과 통합하는 것은 모델의 아키텍처나 저장 포맷에 따라 상이할 수 있으므로, 해당 라이브러리의 문서를 참고해야 할 필요가 있습니다.
더 궁금한 점이 있다면 강의 페이지 내 수강 전 문의 게시판이나 해당 강의의 지식공유자님께 직접 질문할 수도 있습니다.
감사합니다.
섹션22 퀴즈 질문
0
30
1
LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다
0
124
1
『6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)』에 대한 문의
0
416
2
trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ
0
142
2
open api 이용 방법
0
185
2
Llama vision 이미지 해상도
0
215
1
API 특정 짓는 법
0
142
2
소량의 fineTuning 이 미치는 영향
0
241
2
파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증
0
223
2
모델에 대한 성능평가 방법
0
243
1
데이터셋을 파인튜닝 하는 것과 반대로 필요없는 데이터를 제거하는 방법도 있나요?
0
303
2
Lora 기법 질문
0
173
1
소스코드 다운받을 장소를 알려 주셔요.
0
150
1
섹션 20~23 강의자료가 없습니다.
0
139
1
학습시 API Key를 입력하라고 합니다.
0
962
2
OpenAI Assistants tools 중 retrieval 기능
0
140
0
OpenAI Assistants API 기초 예제 중 client.beta.threads.message.list 함수
0
135
1
Fine Tuning 후 inference 하는 예시(코드) 질문
0
245
1
PEFT_P-Tuning semantic similarity 예제 실행 오류
0
302
4
강사님 Step-back 학습자료가 없습니다.
0
163
2
학습 중지 후 재학습 방법(autotrain 최신 버전)
0
280
1
Fine-tuning 데이터셋 질문
0
301
1
Llama3 response 시간
0
499
2
fine-tuning 완료된 모델 관련 질문
0
229
2





