inflearn logo
강의

講義

知識共有

すべてのための大規模言語モデル LLM (Large Language Model) Part 1 - Llama 2 Fine-Tuning 試す

PEFT実習 1 - RoBERTa Token ClassificationモデルにLoRAを適用する (BioNLP2004データセット)

학습시 API Key를 입력하라고 합니다.

952

SungHwan Kim

投稿した質問数 1

0

학습 시작하면

wandb: Paste an API key from your profile and hit enter, or press ctrl+c to quit:

하고 입력을 기다리네요.

 

어떤 것을 입력해야 하나요?

딥러닝 pytorch chatgpt llm llama

回答 2

0

AISchool

안녕하세요~. 반갑습니다.

먼저 수강에 불편을 드려서 죄송합니다.

 

강의 영상 촬영 시점 이후로 버전이 업데이트되면서 Weights & Biases(W&B) 설정이 기본으로 포함되도록 변경된 것 같네요.

Weights & Biases(W&B) 설정을 off 하려면 TrainingArguments를 선언할때 아래와 같은 설정 값을 추가해주시면 됩니다.

report_to="none"

따라서 해당 설정값을 추가한 아래 colab 링크로 실습 진행 부탁드립니다.

 

https://colab.research.google.com/drive/17ElQxmE2Babut94oQA4BYGwvQN_tE8bW?usp=sharing

좋은 하루되세요.

감사합니다.

0

communityai8509

안녕하세요, 인프런 AI 인턴입니다.

SungHwan Kim님, 질문 주셔서 감사합니다. 현재 직면하고 계신 상황은 Weights & Biases(W&B)를 이용한 실험 관리와 관련된 것입니다. W&B는 머신러닝 모델 훈련 과정에서의 메트릭 추적, 시각화 및 협업을 위한 툴입니다. 사용하려면 API Key가 필요합니다. 아래 단계에 따라 설정해보세요.

Weights & Biases API Key 설정 방법:

  1. 회원가입: 먼저 Weights & Biases 웹사이트에서 회원가입을 하셔야 합니다. 로그인 후, 대시보드로 이동하실 수 있습니다.

  2. API Key 확인: 로그인 후, 상단 메뉴에서 자신의 프로필로 이동합니다. ‘Settings’ 혹은 프로필 사진을 클릭하면 ‘API Keys’라는 항목이 보일 것입니다. 거기서 API Key를 확인할 수 있습니다.

  3. API Key 입력: 학습 중에 “wandb: Paste an API key from your profile and hit enter, or press ctrl+c to quit:” 라는 메시지가 보이면, 복사한 API Key를 터미널에 붙여넣고 Enter를 누르시면 됩니다.

  4. 설정 지속: API Key가 입력되고 나면, ~/.netrc 파일에 저장되어 이후 동일한 프로젝트에 재사용할 수 있습니다.

참고 사항

  • W&B를 사용하면 모델 학습 성능을 웹 대시보드에서 실시간으로 모니터링하고 분석할 수 있습니다.
  • 이는 선택 사항이며, W&B 기능을 사용하지 않으셔도 학습은 수행될 수 있습니다. 단지 학습 기록을 시각적으로 확인하고 싶지 않을 경우, 터미널에서 메시지를 무시하고 진행하시면 됩니다.

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다

0

118

1

『6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)』에 대한 문의

0

397

2

trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ

0

137

2

open api 이용 방법

0

184

2

Llama vision 이미지 해상도

0

211

1

API 특정 짓는 법

0

139

2

소량의 fineTuning 이 미치는 영향

0

239

2

파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증

0

221

2

모델에 대한 성능평가 방법

0

242

1

데이터셋을 파인튜닝 하는 것과 반대로 필요없는 데이터를 제거하는 방법도 있나요?

0

302

2

Lora 기법 질문

0

167

1

소스코드 다운받을 장소를 알려 주셔요.

0

146

1

섹션 20~23 강의자료가 없습니다.

0

136

1

OpenAI Assistants tools 중 retrieval 기능

0

137

0

OpenAI Assistants API 기초 예제 중 client.beta.threads.message.list 함수

0

130

1

Fine Tuning 후 inference 하는 예시(코드) 질문

0

242

1

PEFT_P-Tuning semantic similarity 예제 실행 오류

0

299

4

강사님 Step-back 학습자료가 없습니다.

0

159

2

학습 중지 후 재학습 방법(autotrain 최신 버전)

0

278

1

Fine-tuning 데이터셋 질문

0

293

1

Llama3 response 시간

0

493

2

fine-tuning 완료된 모델 관련 질문

0

224

2

llama 3 파인튜닝 관련 문의 사항

0

640

1

checkpoint 파일이 안생겨요

0

357

2