『6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)』에 대한 문의
397
8 câu hỏi đã được viết
안녕하세요?
"6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)"에 대한 질문입니다.
이 개념의 하위 구성에 Zero-shot, One-shot, Few-shot Learning이 있고 각각이 어떤 것이다라고 설명해 주셨는데요,
인컨텍스트 러닝(In-context Learning) 자체는 어떤 개념이고 왜 사용되는 것입니까?
"In-Context"라는 말에서 맥락이 유지되도록 하는 뭔가인 것 같은데, 선행 개념 또는 전체를 아우르는 개념 없이 갑자기 하위 개념으로 툭 튄 느낌이어서 질문 드립니다.
감사합니다. 수고하세요.
Câu trả lời 2
0
안녕하세요~. 반갑습니다.
In-Context Learning은 말그대로 모델이 추가적인 학습없이 컨텍스트 내에서 문맥을 파악하고 학습한다는 개념입니다.
지금은 LLM이 워낙 발달해서 당연하게 느껴지는 개념일 수도 있지만 예전에 LLM이 등장하기 전에 머신러닝/딥러닝 커뮤니티에서 학습(learning)이라는 개념은
풀고자하는 문제에 대한 대량의 training 데이터를 모아서
긴 시간을 들여서 해당 데이터로 모델의 weight를 수정
하는 많은 시간과 노력이 들어가는 과정이었습니다.
하지만 LLM이 등장하면서 전통적인 의미의 머신러닝/딥러닝 학습(learning)이 아니라 모델의 weight 변경 없이 프롬프트 수정만으로 새로운 지식을 모델이 학습가능하다는 의미에서 전통적인 의미의 learning과 반대되는 개념의 In-Context learning이라는 개념이 등장하게 된 것입니다.
좋은 하루되세요.
감사합니다.
0
안녕하세요, 인프런 AI 인턴입니다. 박희상님.
인컨텍스트 러닝(In-context Learning)은 주어진 문맥이나 상황(context)을 기반으로 하여 모델이 학습되지 않은 새로운 정보를 이해하고 예측하는 기술입니다. “In-Context”라는 말이 지시하는 대로, 또 다른 추가적인 학습 과정 없이 주어진 예시나 지시사항을 토대로 즉각적인 예측을 수행하는 형태를 말합니다.
인컨텍스트 러닝이 유용한 이유는 새로운 작업에 대해 별도의 사전 학습 없이도 능동적으로 적응할 수 있기 때문입니다. 이는 예를 들어 번역 작업을 수행할 때 프로그래밍 없이도 자연어 처리 모델에 새로운 문장을 입력해 번역 결과를 얻을 수 있는 것과 유사합니다. 이러한 기능은 모델이 수많은 데이터를 기반으로 학습해 다방면의 지식을 축적했기 때문에 가능합니다.
각각의 하위 개념인 Zero-shot, One-shot, Few-shot Learning은 이러한 인컨텍스트 러닝을 다양한 양의 예시를 가지고 실현하는 방식으로 차별화됩니다:
- Zero-shot Learning: 모델이 사전 지식이나 예시 없이 새로운 작업을 수행하는 경우입니다.
- One-shot Learning: 모델이 하나의 예제를 보고 새로운 작업을 수행하는 경우입니다.
- Few-shot Learning: 몇 가지 예제를 보고도 모델이 적절한 작업을 수행할 수 있는 경우입니다.
이러한 방식으로 인컨텍스트 러닝은 최소한의 추가적인 학습으로 모델이 다양한 작업을 수행할 수 있는 유연성을 제공합니다.
아래 링크에서 관련 질문에 대한 이전 답변을 확인하실 수 있습니다:
- GPT3의 퓨샷러닝과 파인튜닝에 대해 질문있습니다.
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.
LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다
0
118
1
trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ
0
137
2
open api 이용 방법
0
184
2
Llama vision 이미지 해상도
0
211
1
API 특정 짓는 법
0
139
2
소량의 fineTuning 이 미치는 영향
0
239
2
파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증
0
221
2
모델에 대한 성능평가 방법
0
242
1
데이터셋을 파인튜닝 하는 것과 반대로 필요없는 데이터를 제거하는 방법도 있나요?
0
302
2
Lora 기법 질문
0
167
1
소스코드 다운받을 장소를 알려 주셔요.
0
146
1
섹션 20~23 강의자료가 없습니다.
0
136
1
학습시 API Key를 입력하라고 합니다.
0
951
2
OpenAI Assistants tools 중 retrieval 기능
0
137
0
OpenAI Assistants API 기초 예제 중 client.beta.threads.message.list 함수
0
130
1
Fine Tuning 후 inference 하는 예시(코드) 질문
0
242
1
PEFT_P-Tuning semantic similarity 예제 실행 오류
0
299
4
강사님 Step-back 학습자료가 없습니다.
0
159
2
학습 중지 후 재학습 방법(autotrain 최신 버전)
0
278
1
Fine-tuning 데이터셋 질문
0
293
1
Llama3 response 시간
0
493
2
fine-tuning 완료된 모델 관련 질문
0
224
2
llama 3 파인튜닝 관련 문의 사항
0
640
1
checkpoint 파일이 안생겨요
0
356
2

