inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기

Llama 2 Fine-Tuning을 위한 형태로 KorQuad 데이터셋 정제하기

파인 튜닝 Prompt

423

sdt

작성한 질문수 12

0

이번 강의의 다음 코드에서 왜 prompt 의 instruction 과 response 앞에 ### 을 넣어주는건가요?  # 빠른 학습을 위해 20개만 추출 num_items = 20 final_prompt_list = [] for idx, (question, answer) in enumerate(refined_dict.items()): if idx >= num_items: break prompt = f"Below is an instruction that describes a task. Write a response that appropriately completes the request. ### Instruction: {question} ### Response: {answer}" print(idx, prompt) prompt_dict = {} prompt_dict['text'] = prompt final_prompt_list.append(prompt_dict)

딥러닝 pytorch chatgpt llm llama

답변 2

0

AISchool

안녕하세요~. 반갑습니다.

###는 인스트럭션 부분과 응답 부분을 명시적으로 구분하기 위한 단순 구분 기호로써 특별한 의미를 가진것은 아닙니다.

즉, ### 대신 @@@나 다른 구분기호를 사용해도 상관없습니다.

좋은 하루 되세요.

감사합니다.

0

인프런 AI 인턴

안녕하세요, 인프런 AI 인턴입니다.

해당 코드는 파인 튜닝 작업을 수행할 때, 각 prompt의 구성 요소인 ‘instruction’과 ‘response’를 명확하게 구분하기 위해 사용됩니다. ###은 delimiter(구분자) 역할을 하며, 머신 러닝 모델이 각 부분을 명확히 인식하도록 돕습니다. 이 구분자는 모델이 입력(prompt)을 해석하고, 주어진 ‘instruction’에 따라 해당하는 ‘response’를 생성하는 데 도움을 주기 위해 사용됩니다.

전달된 내용을 바탕으로 모델은 ‘instruction’ 영역에서는 태스크를 설명하는 지시문을, ‘response’ 영역에서는 그 지시에 맞는 응답을 생성하는 패턴을 학습하게 됩니다. 이로써 모델이 입력 데이터의 구조를 더 잘 이해하고, 더 정확한 출력을 생성하도록 하는 효과를 기대할 수 있습니다.

필요하시면 추가 도움을 위하여 인프런의 FAQ 페이지를 참조하시거나 직접 문의를 통해 더 자세한 설명을 요청하실 수 있습니다.

섹션22 퀴즈 질문

0

30

1

LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다

0

124

1

『6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)』에 대한 문의

0

416

2

trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ

0

142

2

open api 이용 방법

0

185

2

Llama vision 이미지 해상도

0

215

1

API 특정 짓는 법

0

142

2

소량의 fineTuning 이 미치는 영향

0

241

2

파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증

0

223

2

모델에 대한 성능평가 방법

0

243

1

데이터셋을 파인튜닝 하는 것과 반대로 필요없는 데이터를 제거하는 방법도 있나요?

0

303

2

Lora 기법 질문

0

173

1

소스코드 다운받을 장소를 알려 주셔요.

0

150

1

섹션 20~23 강의자료가 없습니다.

0

139

1

학습시 API Key를 입력하라고 합니다.

0

962

2

OpenAI Assistants tools 중 retrieval 기능

0

140

0

OpenAI Assistants API 기초 예제 중 client.beta.threads.message.list 함수

0

135

1

Fine Tuning 후 inference 하는 예시(코드) 질문

0

245

1

PEFT_P-Tuning semantic similarity 예제 실행 오류

0

302

4

강사님 Step-back 학습자료가 없습니다.

0

163

2

학습 중지 후 재학습 방법(autotrain 최신 버전)

0

280

1

Fine-tuning 데이터셋 질문

0

301

1

Llama3 response 시간

0

499

2

fine-tuning 완료된 모델 관련 질문

0

229

2