Large Language Model for Everyone LLM (Large Language Model) Part 1 - Try Fine-Tuning Llama 2
We will learn step by step from the basic concepts of LLM (Large Language Model) to how to fine-tune the Llama 2 model, a high-performance LLM, on the dataset of your choice.
1,363 learners
Level Intermediate
Course period Unlimited

- Unresolved
LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다
안녕하세요.LLM 관련 강의 잘 듣고 있습니다. 실무 적용에 많은 도움이 되고 있어 감사드립니다.강의 내용과 직접적인 연계는 아니지만, 강의를 듣는 중 궁
딥러닝pytorchchatgptllmllamadwkim401
・
4 months ago
0
99
1
- Unresolved
『6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)』에 대한 문의
안녕하세요? "6. LLM 용어 정리 - 인컨텍스트 러닝(In-context learning)"에 대한 질문입니다. <p style=
딥러닝pytorchchatgptllmllamaparkheesang
・
5 months ago
0
317
2
- Unresolved
trainer.train() 실행했는데 API key를 입력하라고 합니다. ㅠ
trainer = Trainer( model=model, args=training_args, train_dataset=tokenized_bionlp["train"],
딥러닝pytorchchatgptllmllamaNo Author
・
7 months ago
0
123
2
- Unresolved
open api 이용 방법
OpenAI API를 이용한 임베딩(Emedding)의 7가지 활용사례(Use cases) 살펴보기 (1/4)<p style
llmlamlee3275
・
0
180
2
- Unresolved
Llama vision 이미지 해상도
안녕하세요, 지금 한번 llama3.2 vision을 다른 이미지와 테스트를 해보고 있는데, vision이 인식하기 위한 최소 이미지 사이즈나 해상도가 있나요? <a target="_blank" rel="noopener noreferrer nofollow"
딥러닝pytorchchatgptllmllamasongjeongjun3204362
・
0
191
1
- Unresolved
API 특정 짓는 법
안녕하세요 선생님1. GPT가 질문에 대한 적절한 답변을 하기 위해서 API 호출하는 것이 어떤 원리인지 잘 모르겠습니다.2. 정해진 API 만 사용할 수 있도록 정하는 방법이 있다면 무엇인가요? (예. 기상청 데이터만 사용하고 싶을
딥러닝pytorchchatgptllmllamacanflight0080096
・
0
132
2
- Unresolved
소량의 fineTuning 이 미치는 영향
주어진 메세지를 학습할 때 20 개의 데이터를 학습시키는데 이미 엄청난 양의 데이터가 학습이 되어 있는데 이런 자아(system)이 반영될 수 있는건가요?
딥러닝pytorchchatgptllmllamacanflight0080096
・
0
229
2
- Unresolved
파인튜닝모델에게 일반적인 질문 할 경우에 대한 궁금증
Llama2 Fine-Tuning 예제를 보며 meta-llama/Llama-3.1-8BLlama-3.1을 파인튜닝을 하였습니다.파인튜닝한 모델과 Lla
딥러닝pytorchchatgptllmllamawoogeunchoi3741
・
0
212
2
- Unresolved
모델에 대한 성능평가 방법
다른 모델들에 대한 성능을 어떤 방법으로 비교 하였나요?
딥러닝pytorchchatgptllmllamacanflight0080096
・
0
226
1
- Unresolved
데이터셋을 파인튜닝 하는 것과 반대로 필요없는 데이터를 제거하는 방법도 있나요?
지금 fine tuning 단계에서 어떤 데이터셋을 기존의 Llama에 학습을 추가로 시켜서 정보를 더 추가하는 방법 부분을 학습하고 있습니다.혹시 이 반대와 같은 경우가 가능할까요? 예를들어서 Llama모델에서 한국어로 이루어진 모든 데이터를 전부
딥러닝pytorchchatgptllmllamasongjeongjun3204362
・
0
292
2
- Unresolved
Lora 기법 질문
Lora 기법으로 인해서 전체 모델의 56%의 파라미터만 fine tuning에 사용됐다고 하는데, 로직 내에서 fine tuning하겠다고 결정하는 기준이 있는건가요?
딥러닝pytorchchatgptllmllamasongjeongjun3204362
・
0
163
1
- Unresolved
소스코드 다운받을 장소를 알려 주셔요.
강의에 사용된 소스코드는 어디에 있는지 문의드립니다.PDF파일은 있지만, 예제 풀이에 사용되는 colab에서 동작시키는 소스코드를 다운 받을 위치를 가르쳐 주셨으면 합니다.
딥러닝pytorchchatgptllmllamahddstarcho2056
・
0
141
1
- Unresolved
섹션 20~23 강의자료가 없습니다.
안녕하세요. 섹션 20~23 colab링크는 있는데요. 강의자료 pdf가 없어서 문의 드립니다.llama 3.1, 3.2 / LLM최적화등.<img src="https://cdn.inflearn.com/public/files/posts/a
딥러닝pytorchchatgptllmllamatorreswoo
・
0
133
1
- Unresolved
학습시 API Key를 입력하라고 합니다.
학습 시작하면 wandb: Paste an API key from your profile and hit enter, or press ctrl+c to quit: 하고 입력을
딥러닝pytorchchatgptllmllamakgmyh
・
0
925
2
- Unresolved
OpenAI Assistants tools 중 retrieval 기능
안녕하세요OpenAI Assistants tools 기능중 retrieval 기능 대신 File Search 기능이 doc 페이지에서 보이는데 사용자가 upload 한 pdf file 을 기반으로 QnA 를 할 수 있는 기능은 이젠 제공되지 않나요?
딥러닝pytorchchatgptllmllamaokputto3340
・
0
131
0
- Unresolved
OpenAI Assistants API 기초 예제 중 client.beta.threads.message.list 함수
안녕하세요 수업노트의 코드를 실행했을때 Assistant's Response message value 에서 중간 풀이 과정이 출력되지 않는데 동영상과 차이가 뭘까요?ㅇ 동영상 Value = "I need to s
딥러닝pytorchchatgptllmllamaokputto3340
・
0
128
1
- Resolved
Fine Tuning 후 inference 하는 예시(코드) 질문
안녕하세요 우선 커리큘럼을 차례대로 재밌게 학습하고 있습니다LLM finetuning 후 추론하는 예시를 따라하고 있는데요아래 박스는 혹시 필요 없는 문장이 아닌가 해서 질문 드립니다감사합니다 <img s
딥러닝pytorchchatgptllmllamaokputto3340
・
0
228
1
- Resolved
PEFT_P-Tuning semantic similarity 예제 실행 오류
딥러닝pytorchchatgptllmllamap-tuningokputto3340
・
0
287
4
- Unresolved
강사님 Step-back 학습자료가 없습니다.
주신 자료 중에 Step-back 자료가 없어서. 부탁드릴수 있는지요?
딥러닝pytorchchatgptllmllamakimsc
・
0
155
2
- Unresolved
학습 중지 후 재학습 방법(autotrain 최신 버전)
autotrain 최신버전에서는 --merge-adapter 옵션을 추가하여도 학습이 중단되거나 이미 학습된 모델이 재학습 또는 추가학습이 안되나요?--merge-adapter 옵션을 추가한
딥러닝pytorchchatgptllmllamasdt5220
・
0
273
1

