모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
LLM(Large Language Model)의 기초 개념부터 고성능 LLM인 Llama 2 모델을 내가 원하는 데이터셋에 Fine-Tuning하는 방법까지 차근차근 학습합니다.
수강생 1,363명
난이도 중급이상
수강기한 무제한

- 미해결
LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다
안녕하세요.LLM 관련 강의 잘 듣고 있습니다. 실무 적용에 많은 도움이 되고 있어 감사드립니다.강의 내용과 직접적인 연계는 아니지만, 강의를 듣는 중 궁
딥러닝pytorchchatgptllmllamadwkim401
・
4달 전
0
95
1
- 미해결
『6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)』에 대한 문의
안녕하세요? "6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)"에 대한 질문입니다. <p style=
딥러닝pytorchchatgptllmllama박희상
・
4달 전
0
284
2
- 미해결
trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ
trainer = Trainer( model=model, args=training_args, train_dataset=tokenized_bionlp["train"],
딥러닝pytorchchatgptllmllama작성자 없음
・
7달 전
0
111
2
- 미해결
open api 이용 방법
OpenAI API를 이용한 임베딩(Emedding)의 7가지 활용사례(Use cases) 살펴보기 (1/4)<p style
llm이람
・
일 년 전
0
176
2
- 미해결
Llama vision 이미지 해상도
안녕하세요, 지금 한번 llama3.2 vision을 다른 이미지와 테스트를 해보고 있는데, vision이 인식하기 위한 최소 이미지 사이즈나 해상도가 있나요? <a target="_blank" rel="noopener noreferrer nofollow"
딥러닝pytorchchatgptllmllama송정준
・
0
187
1
- 미해결
API 특정 짓는 법
안녕하세요 선생님1. GPT가 질문에 대한 적절한 답변을 하기 위해서 API 호출하는 것이 어떤 원리인지 잘 모르겠습니다.2. 정해진 API 만 사용할 수 있도록 정하는 방법이 있다면 무엇인가요? (예. 기상청 데이터만 사용하고 싶을
딥러닝pytorchchatgptllmllamaAlex
・
0
129
2
- 미해결
소량의 fineTuning 이 미치는 영향
주어진 메세지를 학습할 때 20 개의 데이터를 학습시키는데 이미 엄청난 양의 데이터가 학습이 되어 있는데 이런 자아(system)이 반영될 수 있는건가요?
딥러닝pytorchchatgptllmllamaAlex
・
0
221
2
- 미해결
파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증
Llama2 Fine-Tuning 예제를 보며 meta-llama/Llama-3.1-8BLlama-3.1을 파인튜닝을 하였습니다.파인튜닝한 모델과 Lla
딥러닝pytorchchatgptllmllamawoogeun.choi
・
0
208
2
- 미해결
모델에 대한 성능평가 방법
다른 모델들에 대한 성능을 어떤 방법으로 비교 하였나요?
딥러닝pytorchchatgptllmllamaAlex
・
0
219
1
- 미해결
데이터셋을 파인튜닝 하는 것과 반대로 필요없는 데이터를 제거하는 방법도 있나요?
지금 fine tuning 단계에서 어떤 데이터셋을 기존의 Llama에 학습을 추가로 시켜서 정보를 더 추가하는 방법 부분을 학습하고 있습니다.혹시 이 반대와 같은 경우가 가능할까요? 예를들어서 Llama모델에서 한국어로 이루어진 모든 데이터를 전부
딥러닝pytorchchatgptllmllama송정준
・
0
283
2
- 미해결
Lora 기법 질문
Lora 기법으로 인해서 전체 모델의 56%의 파라미터만 fine tuning에 사용됐다고 하는데, 로직 내에서 fine tuning하겠다고 결정하는 기준이 있는건가요?
딥러닝pytorchchatgptllmllama송정준
・
0
160
1
- 미해결
소스코드 다운받을 장소를 알려 주셔요.
강의에 사용된 소스코드는 어디에 있는지 문의드립니다.PDF파일은 있지만, 예제 풀이에 사용되는 colab에서 동작시키는 소스코드를 다운 받을 위치를 가르쳐 주셨으면 합니다.
딥러닝pytorchchatgptllmllama조의현
・
0
139
1
- 미해결
섹션 20~23 강의자료가 없습니다.
안녕하세요. 섹션 20~23 colab링크는 있는데요. 강의자료 pdf가 없어서 문의 드립니다.llama 3.1, 3.2 / LLM최적화등.<img src="https://cdn.inflearn.com/public/files/posts/a
딥러닝pytorchchatgptllmllamatorres
・
0
130
1
- 미해결
학습시 API Key를 입력하라고 합니다.
학습 시작하면 wandb: Paste an API key from your profile and hit enter, or press ctrl+c to quit: 하고 입력을
딥러닝pytorchchatgptllmllamaSungHwan Kim
・
0
900
2
- 미해결
OpenAI Assistants tools 중 retrieval 기능
안녕하세요OpenAI Assistants tools 기능중 retrieval 기능 대신 File Search 기능이 doc 페이지에서 보이는데 사용자가 upload 한 pdf file 을 기반으로 QnA 를 할 수 있는 기능은 이젠 제공되지 않나요?
딥러닝pytorchchatgptllmllamaokputto
・
0
129
0
- 미해결
OpenAI Assistants API 기초 예제 중 client.beta.threads.message.list 함수
안녕하세요 수업노트의 코드를 실행했을때 Assistant's Response message value 에서 중간 풀이 과정이 출력되지 않는데 동영상과 차이가 뭘까요?ㅇ 동영상 Value = "I need to s
딥러닝pytorchchatgptllmllamaokputto
・
0
127
1
- 해결
Fine Tuning 후 inference 하는 예시(코드) 질문
안녕하세요 우선 커리큘럼을 차례대로 재밌게 학습하고 있습니다LLM finetuning 후 추론하는 예시를 따라하고 있는데요아래 박스는 혹시 필요 없는 문장이 아닌가 해서 질문 드립니다감사합니다 <img s
딥러닝pytorchchatgptllmllamaokputto
・
0
222
1
- 해결
PEFT_P-Tuning semantic similarity 예제 실행 오류
딥러닝pytorchchatgptllmllamap-tuningokputto
・
0
284
4
- 미해결
강사님 Step-back 학습자료가 없습니다.
주신 자료 중에 Step-back 자료가 없어서. 부탁드릴수 있는지요?
딥러닝pytorchchatgptllmllama내일은 한걸음 더 나아갈거야
・
0
150
2
- 미해결
학습 중지 후 재학습 방법(autotrain 최신 버전)
autotrain 최신버전에서는 --merge-adapter 옵션을 추가하여도 학습이 중단되거나 이미 학습된 모델이 재학습 또는 추가학습이 안되나요?--merge-adapter 옵션을 추가한
딥러닝pytorchchatgptllmllamasdt
・
0
267
1






