inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기

fine-tuning 관련 질문

572

로보카압투

작성한 질문수 1

0

안녕하세요!

강의 잘 보고 있습니다.

llama2 fine-tuning 시 label이 붙은 데이터에 대한 fine-tuning을 하는 내용만 있는데 (supervised learning)

label이 없는 text 데이터에 대해 unsupervised learning 방식으로 fine-tuning 하는 방법이 있을까요?

또한 fine-tuning 이후 checkpoint를 기존 pretrained LLM에 통합해서 나만의 LLM을 생성하는 방법에 대해서도 궁금합니다.

새해 복 많이 받으세요.

감사합니다.

딥러닝 pytorch chatgpt llm llama

답변 2

0

AISchool

안녕하세요~. 반갑습니다.

먼저 강의를 잘 보고 계시다니 기쁘네요^^.

 

  1. llama2 fine-tuning 시 label이 붙은 데이터에 대한 fine-tuning을 하는 내용만 있는데 (supervised learning)

    label이 없는 text 데이터에 대해 unsupervised learning 방식으로 fine-tuning 하는 방법이 있을까요?

     

    -> 

    autotrain llm 실행시에 trainer를 sft(Supervised Fine-Tuning의 약자입니다.)으로 설정하는 옵션을 끄고 학습하면 Unsupervised Learning 형태로 학습을 진행할 수 있습니다.

즉, 원래 아래와 같이 학습하던 학습 명령어를

!autotrain llm --train \
    --project-name "llama2-korquad-finetuning-da" \
    --model "TinyPixel/Llama-2-7B-bf16-sharded" \
    --data-path "korquad_prompt_da" \
    --text-column "text" \
    --peft \
    --quantization "int4" \
    --lr 2e-4 \
    --batch-size 8 \
    --epochs 40 \
    --trainer sft \
    --model_max_length 256

아래와 같이 변경해서 학습시키시면 됩니다.(--trainer sft 제거)

!autotrain llm --train \
    --project-name "llama2-korquad-finetuning-da" \
    --model "TinyPixel/Llama-2-7B-bf16-sharded" \
    --data-path "korquad_prompt_da" \
    --text-column "text" \
    --peft \
    --quantization "int4" \
    --lr 2e-4 \
    --batch-size 8 \
    --epochs 40 \
    --model_max_length 256

 

  1. 또한 fine-tuning 이후 checkpoint를 기존 pretrained LLM에 통합해서 나만의 LLM을 생성하는 방법에 대해서도 궁금합니다.

-> 이 부분은 무슨 말씀이신지 정확히 이해하지 못했습니다. fine-tuning된 checkpoint 자체가 pretrained LLM을 기반으로 새로운 지식을 추가한 나만의 LLM이라고 생각하시면 됩니다.

 

로보카압투 님도 새해 복 많이 받으세요.

좋은 하루되세요.

감사합니다.

 

0

인프런 AI 인턴

안녕하세요, 인프런 AI 인턴입니다.

질문주신 내용에 대해 답변드리겠습니다.

라벨이 없는 텍스트 데이터에 대한 unsupervised learning 방식으로 fine-tuning을 하는 방법에 대해서는, 해당 강의에서는 자세히 다루어지지 않은 내용입니다.

일반적으로, unsupervised fine-tuning을 위해서는 self-supervised learning 기술이 사용됩니다. 예를 들어, 텍스트 데이터의 일부를 마스킹하고 모델이 마스킹된 부분을 예측하게 하여 학습하는 방식으로 진행될 수 있습니다.

fine-tuning 이후에 생성된 checkpoint를 기존 pretrained LLM에 통합하여 나만의 LLM을 생성하는 과정에 대해서는 모델의 인자를 새롭게 업데이트하는 과정을 포함합니다. 일반적으로는 fine-tuning을 거친 모델을 별도로 저장하여 사용하지만, 이를 기존의 pretrained 모델과 통합하는 것은 모델의 아키텍처나 저장 포맷에 따라 상이할 수 있으므로, 해당 라이브러리의 문서를 참고해야 할 필요가 있습니다.

더 궁금한 점이 있다면 강의 페이지 내 수강 전 문의 게시판이나 해당 강의의 지식공유자님께 직접 질문할 수도 있습니다.

감사합니다.

섹션22 퀴즈 질문

0

30

1

LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다

0

124

1

『6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)』에 대한 문의

0

416

2

trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ

0

142

2

open api 이용 방법

0

185

2

Llama vision 이미지 해상도

0

215

1

API 특정 짓는 법

0

142

2

소량의 fineTuning 이 미치는 영향

0

241

2

파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증

0

223

2

모델에 대한 성능평가 방법

0

243

1

데이터셋을 파인튜닝 하는 것과 반대로 필요없는 데이터를 제거하는 방법도 있나요?

0

303

2

Lora 기법 질문

0

173

1

소스코드 다운받을 장소를 알려 주셔요.

0

150

1

섹션 20~23 강의자료가 없습니다.

0

139

1

학습시 API Key를 입력하라고 합니다.

0

962

2

OpenAI Assistants tools 중 retrieval 기능

0

140

0

OpenAI Assistants API 기초 예제 중 client.beta.threads.message.list 함수

0

135

1

Fine Tuning 후 inference 하는 예시(코드) 질문

0

245

1

PEFT_P-Tuning semantic similarity 예제 실행 오류

0

302

4

강사님 Step-back 학습자료가 없습니다.

0

163

2

학습 중지 후 재학습 방법(autotrain 최신 버전)

0

280

1

Fine-tuning 데이터셋 질문

0

301

1

Llama3 response 시간

0

499

2

fine-tuning 완료된 모델 관련 질문

0

229

2