Tinh chỉnh LLM : Thực hành RunPod và Multi-GPU
Đúc kết đầy đủ bí quyết LLM Fine-Tuning, học từ chuyên gia dự án LLM ở Silicon Valley.
43 học viên
Độ khó Cơ bản
Thời gian Không giới hạn
- Chưa giải quyết
fine tuning에 대한 개념적 이해
안녕하세요 강사님강의 잘 듣고 있습니다.강의 내용중 좀 더 이해하고 싶은 부분이 생겨 질문드립니다.</p
dockergpu병렬-처리llmopenai-apifine-tuningrunpodhellonewworld
・
3 tháng trước
0
54
0
- Chưa giải quyết
gemma 2 2b runpod 로컬 PC 사양
gemma 2b 모델 runpod 클라우드 사용하지 않고도 로컬 runpod 을 띄워서 구동이 가능할거 같은데 가능할까요?클라우드 비용을 지불 하고 찾아보니 16GB 정도면 넉넉하다고 하네요ㅠ <a target=
dockergpu병렬-처리llmopenai-apifine-tuningrunpodknoa0405
・
5 tháng trước
0
55
2
- Chưa giải quyết
stop button 이 안보이는데요?
<img src="https://cdn.inflearn.com/public/files/posts/12835e2d-c622-491f-ace8-c8c162207206/0acb59f9-36bc-4571-918a-4f1af36981ee.png" media-type="img"
dockergpu병렬-처리llmopenai-apifine-tuningrunpodnajongjine7321
・
6 tháng trước
0
37
1
- Chưa giải quyết
이 강의를 들으면 쇼핑몰 챗봇도 커버가 가능하나요?
LLM 파인튜닝을 해본적이 없어서 궁금한점이 많습니다.현재 강의의 목적이 shakepeare 스타일의 번역이라고 하셨는데, 그러면 이 강의를 들으면 번역에만 국한 되는건지, 아니면 사용자의 질문에 대답하는
dockergpu병렬-처리llmopenai-apifine-tuningrunpodnajongjine7321
・
6 tháng trước
0
50
1

