inflearn logo
강의

Course

Instructor

Large Language Model for Everyone LLM (Large Language Model) Part 1 - Try Fine-Tuning Llama 2

Llama3 response 시간

491

chanmob929677

1 asked

0

안녕하세요. 수업 잘 듣고 있습니다. 감사합니다.

Llama3 모델 알려주시는 부분에서 모델 성능은 너무 좋은데요

논문 요약을 위한 fine tuning이 끝난 모델에 input을 넣고 response를 받기까지

3분이 걸린다고 말씀하셨는데, 너무 느려서요.

왜 느린 것인지, 혹시 이를 더 빨리할 수 있는 방법으로 어떤 것을 활용할 수 있는지 알려주시면 감사하겠습니다.

 

딥러닝 llama

Answer 2

0

AISchool

안녕하세요~. 반갑습니다.

먼저 수업을 잘 듣고 계시다니 기쁘네요^^.


수업에서 다루는 Llama 3-8B 모델 같은 경우는 80억개의 상당히 큰 파라미터를 가진 LLM이기 때문에 실습에서 사용하는 무료 colab GPU인 T4 GPU를 사용할 경우 추론 시간이 꽤 걸리게 됩니다.


추론 속도를 높이고자 할때 시도해볼 수 있는 선택지는 다음과 같습니다.

  1. 양자화(Quantization)을 진행한 파라미터가 더 작은 모델을 사용 (하지만 이 경우에는 파라미터가 줄어듬에 따라서 성능저하가 있을 수 있습니다.)

  2. 더 고성능 GPU를 사용 - T4 GPU보다 더 고성능의 GPU를 이용해서 추론 속도를 높일 수 있습니다.

  3. Groq ( https://groq.com/ )과 같은 추론 속도에 최적화된 API 서비스를 이용해서 사용 - 빠른 AI 추론 서비스를 제공하는 API를 사용해서 추론속도를 높일 수 있습니다.

 

좋은 하루되세요.

감사합니다.

0

communityai8509

안녕하세요, 인프런 AI 인턴입니다.

해당 질문에 대한 정보는 제공된 자료에 없어 정확한 답변을 드리기 어렵습니다.

하지만 일반적으로 모델의 반응 시간이 느린 경우, 몇 가지 가능한 이유와 해결 방법을 살펴볼 수 있습니다.

  1. 모델의 크기와 복잡도: 대규모 언어 모델은 파라미터의 수가 많고, 계산 복잡도가 높아서 처리 시간이 길어질 수 있습니다. 모델을 더 단순한 구조로 간소화하거나, 모델 크기를 줄이는 방법이 있습니다.
  2. 인프라와 리소스: 사용하는 하드웨어의 성능이나 동시 처리량이 모델을 충분히 지원하지 못할 수 있습니다. 더 높은 사양의 GPU를 사용하거나, 병렬 처리 기술을 활용하는 것이 도움이 될 수 있습니다.
  3. 배치 처리: 입력 데이터를 한 번에 하나씩 처리하는 대신 여러 데이터를 묶어 배치로 처리하는 방법을 사용하면 전체 처리 시간을 단축할 수 있습니다.
  4. 모델 최적화 기법: 양자화(Quantization), 프루닝(Pruning), 텐서 분해(Tensor Factorization) 등 다양한 모델 최적화 기법을 적용하여 계산량을 줄일 수 있습니다.

상황과 필요에 따라 적절한 방법을 선택하여 적용해보시길 권장합니다.

더 자세한 내용이나 구체적인 해결책을 원하신다면 해당 강의 제공자에게 직접 문의하시거나 관련 전문 커뮤니티에 질문을 올려 보시는 것도 좋은 방법입니다.

LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다

0

116

1

『6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)』에 대한 문의

0

380

2

trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ

0

136

2

Llama vision 이미지 해상도

0

208

1

API 특정 짓는 법

0

139

2

소량의 fineTuning 이 미치는 영향

0

236

2

파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증

0

218

2

모델에 대한 성능평가 방법

0

239

1

데이터셋을 파인튜닝 하는 것과 반대로 필요없는 데이터를 제거하는 방법도 있나요?

0

300

2

Lora 기법 질문

0

167

1

소스코드 다운받을 장소를 알려 주셔요.

0

146

1

섹션 20~23 강의자료가 없습니다.

0

136

1

학습시 API Key를 입력하라고 합니다.

0

949

2

OpenAI Assistants tools 중 retrieval 기능

0

137

0

OpenAI Assistants API 기초 예제 중 client.beta.threads.message.list 함수

0

130

1

Fine Tuning 후 inference 하는 예시(코드) 질문

0

240

1

PEFT_P-Tuning semantic similarity 예제 실행 오류

0

298

4

강사님 Step-back 학습자료가 없습니다.

0

156

2

학습 중지 후 재학습 방법(autotrain 최신 버전)

0

277

1

Fine-tuning 데이터셋 질문

0

292

1

fine-tuning 완료된 모델 관련 질문

0

222

2

llama 3 파인튜닝 관련 문의 사항

0

638

1

checkpoint 파일이 안생겨요

0

353

2

고스트 어텐션

0

282

2