inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기

PEFT 실습 1 - RoBERTa Token Classification 모델에 LoRA 적용하기 (BioNLP2004 데이터셋)

Lora 기법 질문

167

송정준

작성한 질문수 3

0

Lora 기법으로 인해서 전체 모델의 56%의 파라미터만 fine tuning에 사용됐다고 하는데, 로직 내에서 fine tuning하겠다고 결정하는 기준이 있는건가요?

딥러닝 pytorch chatgpt llm llama

답변 1

0

AISchool

안녕하세요~. 반갑습니다.

먼저 답신이 늦어서 죄송합니다.


로직내에서 fine-tuning을 하겠다고 결정하는 기준이 있다는게 무슨 뜻인지 정확히 이해하지 못했습니다.


LoRA의 작동과정에 대해 다시 설명드리면 기존에 학습이 끝난 pre-trained Weight를 고정시켜놓고 저차원의 Low-rank로 분해된 새로운 최적화의 목적이되는 저차원의 Weight A,B를 새로 만들어서 새로 만든 Weight A,B를 최적화하면서 학습시키는 것입니다. (이때 새로 만든 Weight A,B의 차원이 작기 때문에 전체 파라미터를 재학습하는 것 대비 fine-tuning 할 파라미터의 양이 줄어드는 원리입니다.)

이때 새로 만든 weight A,B를 어느 레이어에 적용할지는 상황에 따라 다를수 있지만 기본적으로는 Transformer의 Attention Weight 쪽에 새로 만든 weight A,B를 적용합니다.

 

혹시 원래 질문하신 바에 대한 답변이 아니라면 좀더 구체적으로 말씀해주시면 다시 답변드리겠습니다~.

 

좋은 하루되세요.

감사합니다.

LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다

0

118

1

『6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)』에 대한 문의

0

396

2

trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ

0

137

2

open api 이용 방법

0

184

2

Llama vision 이미지 해상도

0

211

1

API 특정 짓는 법

0

139

2

소량의 fineTuning 이 미치는 영향

0

239

2

파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증

0

221

2

모델에 대한 성능평가 방법

0

242

1

데이터셋을 파인튜닝 하는 것과 반대로 필요없는 데이터를 제거하는 방법도 있나요?

0

301

2

소스코드 다운받을 장소를 알려 주셔요.

0

146

1

섹션 20~23 강의자료가 없습니다.

0

136

1

학습시 API Key를 입력하라고 합니다.

0

951

2

OpenAI Assistants tools 중 retrieval 기능

0

137

0

OpenAI Assistants API 기초 예제 중 client.beta.threads.message.list 함수

0

130

1

Fine Tuning 후 inference 하는 예시(코드) 질문

0

242

1

PEFT_P-Tuning semantic similarity 예제 실행 오류

0

298

4

강사님 Step-back 학습자료가 없습니다.

0

159

2

학습 중지 후 재학습 방법(autotrain 최신 버전)

0

278

1

Fine-tuning 데이터셋 질문

0

292

1

Llama3 response 시간

0

493

2

fine-tuning 완료된 모델 관련 질문

0

224

2

llama 3 파인튜닝 관련 문의 사항

0

640

1

checkpoint 파일이 안생겨요

0

355

2