LLM Finetuning : RunPod와 Multi-GPU 실습
실리콘밸리 LLM 프로젝트 현업자에게 배우는 LLM Fine-Tuning 노하우를 가득 담았습니다
- 미해결
fine tuning에 대한 개념적 이해
안녕하세요 강사님강의 잘 듣고 있습니다.강의 내용중 좀 더 이해하고 싶은 부분이 생겨 질문드립니다.</p
dockergpu병렬-처리llmopenai-apifine-tuningrunpod유준모
・
5달 전
0
63
0
- 미해결
gemma 2 2b runpod 로컬 PC 사양
gemma 2b 모델 runpod 클라우드 사용하지 않고도 로컬 runpod 을 띄워서 구동이 가능할거 같은데 가능할까요?클라우드 비용을 지불 하고 찾아보니 16GB 정도면 넉넉하다고 하네요ㅠ <a target=
dockergpu병렬-처리llmopenai-apifine-tuningrunpodmike1124
・
7달 전
0
77
2
- 미해결
stop button 이 안보이는데요?
<img src="https://cdn.inflearn.com/public/files/posts/12835e2d-c622-491f-ace8-c8c162207206/0acb59f9-36bc-4571-918a-4f1af36981ee.png" media-type="img"
dockergpu병렬-처리llmopenai-apifine-tuningrunpodJong Park
・
8달 전
0
44
1
- 미해결
이 강의를 들으면 쇼핑몰 챗봇도 커버가 가능하나요?
LLM 파인튜닝을 해본적이 없어서 궁금한점이 많습니다.현재 강의의 목적이 shakepeare 스타일의 번역이라고 하셨는데, 그러면 이 강의를 들으면 번역에만 국한 되는건지, 아니면 사용자의 질문에 대답하는
dockergpu병렬-처리llmopenai-apifine-tuningrunpodJong Park
・
8달 전
0
58
1






