inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기

Llama 2 Fine-Tuning 예제 1 - KorQuad 데이터셋에 Fine-Tuning된 Llama 2 예측(Inference) 및 ChatGPT(GPT-4)와 성능 비교

Fine-tuning 모델 성능 지표

767

sdt

작성한 질문수 12

0

llama2 를 fine-tuning 했을때, 다른 모델들 처럼 f1 스코어나 혹은 다른 성능 지표를 이용해 성능을 정량화 할 수 있나요?

어떤 방법이 있고 어떻게해야 fine-tuning 한 모델의 성능을 정량적으로 지표화 할 수 있을까요?

딥러닝 pytorch chatgpt llm llama

답변 2

0

AISchool

안녕하세요~. 반갑습니다.

Fine-Tuning 결과를 정량적으로 측정하는 지표는 어떤 task를 목적으로 fine-tuning하느냐에 따라 달라집니다.

예를 들어 번역 task에 fine-tuning할 경우 번역결과에 대한 성능을 측정할때 일반적으로 사용하는 BLEU 지표가 얼마나 개선되는지 정량적으로 측정하고,

Language Modeling task에 fine-tuning할 경우 Language Modeling에 대한 성능을 측정할때 일반적으로 사용하는 Perplexity 지표가 얼마나 개선되는지를 정량적으로 측정합니다.

다양한 NLP 각 task 별로 어떤 지표가 정량적 지표로 주로 활용되는지는 아래 강의 영상들을 참조하세요.

  • GPT-2 (2019) 모델 논문 리뷰 - Experiments

  • GPT-3 (2020) 모델 논문 리뷰 - Results 1

좋은 하루 되세요.

감사합니다.

0

인프런 AI 인턴

안녕하세요, 인프런 AI 인턴입니다.
llama2 모델을 fine-tuning할 때, 다른 모델처럼 F1 스코어와 같은 다양한 성능 지표를 사용하여 성능을 정량화 할 수 있습니다.
Fine-tuning된 모델의 성능을 정량적으로 평가하기 위해서는 다음과 같은 방법을 사용할 수 있습니다:

  1. 평가 데이터셋 준비: 모델의 성능을 평가하기 위해 별도의 테스트셋을 준비합니다. 이 데이터셋은 모델이 학습 과정에서 보지 못한 새로운 데이터로 구성되어야 합니다.
  2. 성능 지표 선택: F1 스코어, 정확도(accuracy), 정밀도(precision), 재현율(recall), ROC-AUC 등 특정 태스크에 적합한 성능 지표를 선택합니다. 예를 들어, 클래스 불균형이 있는 경우 F1 스코어가 더 유용할 수 있습니다.
  3. 평가 실행: 모델을 테스트셋에 적용하여 예측을 수행하고, 실제 라벨(label)과의 비교를 통해 선정한 지표에 따른 성능을 계산합니다.
  4. 하이퍼파라미터 튜닝: 필요한 경우 다양한 하이퍼파라미터를 조정하며 모델의 성능을 개선합니다. 이 과정에서는 교차 검증(cross-validation)을 통해 모델의 일반화 능력을 평가할 수 있습니다.

모델의 성능을 개선하기 위해 데이터 전처리, 더 많은 데이터 추가, 다른 모델 아키텍처 시도 등의 추가적인 방법도 고려해볼 수 있습니다.

섹션22 퀴즈 질문

0

28

1

LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다

0

124

1

『6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)』에 대한 문의

0

413

2

trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ

0

141

2

open api 이용 방법

0

185

2

Llama vision 이미지 해상도

0

215

1

API 특정 짓는 법

0

141

2

소량의 fineTuning 이 미치는 영향

0

240

2

파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증

0

222

2

모델에 대한 성능평가 방법

0

243

1

데이터셋을 파인튜닝 하는 것과 반대로 필요없는 데이터를 제거하는 방법도 있나요?

0

303

2

Lora 기법 질문

0

173

1

소스코드 다운받을 장소를 알려 주셔요.

0

150

1

섹션 20~23 강의자료가 없습니다.

0

139

1

학습시 API Key를 입력하라고 합니다.

0

961

2

OpenAI Assistants tools 중 retrieval 기능

0

140

0

OpenAI Assistants API 기초 예제 중 client.beta.threads.message.list 함수

0

135

1

Fine Tuning 후 inference 하는 예시(코드) 질문

0

245

1

PEFT_P-Tuning semantic similarity 예제 실행 오류

0

302

4

강사님 Step-back 학습자료가 없습니다.

0

163

2

학습 중지 후 재학습 방법(autotrain 최신 버전)

0

280

1

Fine-tuning 데이터셋 질문

0

299

1

Llama3 response 시간

0

499

2

fine-tuning 완료된 모델 관련 질문

0

229

2