Hướng dẫn sử dụng LLM cục bộ (Local LLM) Phần 1 - Sử dụng small LLM(sLLM) & Đánh giá hiệu suất (Evaluation) và cải thiện LLM

Học cách sử dụng các LLM cục bộ đa dạng (Qwen, Gemma) và tìm hiểu các kỹ thuật khác nhau để đánh giá (Evaluation) và cải thiện hiệu suất của hệ thống LLM một cách hiệu quả.

(4.0) 2 đánh giá

31 học viên

Độ khó Trung cấp trở lên

Thời gian Không giới hạn

AI
AI
LLM
LLM
LangChain
LangChain
AI Agent
AI Agent
LangGraph
LangGraph
AI
AI
LLM
LLM
LangChain
LangChain
AI Agent
AI Agent
LangGraph
LangGraph

Bạn sẽ nhận được điều này sau khi học.

  • Cách triển khai AI agent sử dụng LLM cục bộ (Qwen, Gemma)

  • Cách đánh giá (Evaluation) và cải thiện hiệu suất của hệ thống LLM

  • Cách triển khai AI Agent chất lượng cao

Học cách sử dụng LLM cục bộ (Qwen, Gemma) và triển khai các AI agent với nhiều LLM cục bộ khác nhau.

Thông qua thực hành, chúng ta sẽ triển khai các AI agent đa dạng bằng cách sử dụng LLM cục bộ (Local LLM).

  • Cách sử dụng hiệu quả Local LLM (Qwen, Gemma)

  • Cách đánh giá (Evaluation) và cải thiện hiệu suất của hệ thống LLM một cách hiệu quả


Khóa học này phù hợp với

Sử dụng LLM cục bộ (Qwen, Gemma) để xây dựng AI Agent

muốn tự tay xây dựng

Những người muốn triển khai AI agent bằng LLM cục bộ thay vì OpenAI API

Khả năng triển khai hệ thống LLM

muốn nâng cao năng lực

Người muốn học cách đánh giá (Evaluation) và cải thiện hiệu suất LLM một cách hiệu quả

xu hướng AI mới nhất

Những người không muốn bỏ lỡ xu hướng AI mới nhất

Những người muốn theo dõi (follow-up) các mô hình LLM mới nhất và không muốn bỏ lỡ xu hướng AI mới nhất

Khóa học tiên quyết✅

👋 Khóa học này yêu cầu kiến thức tiên quyết về Python, xử lý ngôn ngữ tự nhiên (NLP), LLM, LangChain và LangGraph. Vui lòng hoàn thành các khóa học dưới đây trước hoặc có kiến thức tương đương trước khi tham gia khóa học này.

Mô hình Ngôn ngữ Lớn LLM cho Mọi người Phần 5 - Tạo AI Agent của riêng bạn với LangGraph

Q&A 💬

Q. LLM cục bộ (Local LLM) là gì?

LLM cục bộ (Local LLM) có nghĩa là "mô hình ngôn ngữ lớn (LLM) chạy trực tiếp trên PC/máy chủ của bạn (môi trường cục bộ)". Tức là, thay vì gửi yêu cầu đến đám mây (máy chủ từ xa) như OpenAI API, bạn chạy mô hình trên CPU/GPU của máy tính để thực hiện các tác vụ như tạo văn bản/tóm tắt/dịch thuật/hỗ trợ lập trình. Các mô hình LLM cục bộ tiêu biểu bao gồm Qwen và Gemma.


Q. Ưu điểm khi sử dụng LLM cục bộ (Local LLM) là gì?

Những ưu điểm khi sử dụng LLM cục bộ mã nguồn mở như sau.

  1. Kiểm soát dữ liệu/Quyền riêng tư

  • Có thể xử lý dữ liệu nhạy cảm (tài liệu nội bộ, thông tin khách hàng) trong môi trường on-premise/VPC nội bộ mà không cần gửi đến API bên ngoài.

  • Có lợi trong kiểm toán bảo mật/tuân thủ quy định (tài chính, y tế, v.v.).

  1. Có thể làm cho cấu trúc chi phí 'dự đoán được'

  • Không phải tính phí "theo token" như API mà có thể cố định bằng chi phí GPU/server (càng có lưu lượng lớn càng dễ có lợi).

  • Có thể trực tiếp giảm đơn giá thông qua cache/batch/lượng tử hóa.

  1. Dễ dàng tùy chỉnh (tinh chỉnh/chuyên biệt hóa theo lĩnh vực)

  • LoRA/QLoRA, DPO, RAG tuning, cố định system prompt, v.v. có thể tối ưu hóa tùy chỉnh theo lĩnh vực nghiệp vụ.

  • Dễ dàng nâng cao tỷ lệ tuân thủ định dạng đầu ra (ví dụ: JSON nghiêm ngặt), thuật ngữ/giọng điệu/quy tắc theo tiêu chuẩn thực tế.

  1. Giảm phụ thuộc vào nhà cung cấp

  • Ít bị ảnh hưởng bởi thay đổi chính sách, tăng giá, ngừng hỗ trợ mô hình, hoặc thay đổi giới hạn tốc độ của một công ty cụ thể.

  • Có thể chuyển sang mô hình khác bất cứ lúc nào khi cần thiết.

  1. Lợi ích về tính minh bạch/gỡ lỗi

  • Thông tin về trọng số/kiến trúc thường được công개, giúp chẩn đoán các vấn đề về hiệu suất một cách có hệ thống hơn.

  • Dễ dàng thực hiện kiểm tra an toàn/thiên lệch theo tiêu chuẩn nội bộ.


Q. Có cần kiến thức tiên quyết không?

Khóa học [Hướng dẫn sử dụng LLM cục bộ (Local LLM) Phần 1 - Sử dụng small LLM(sLLM) & Đánh giá (Evaluation) và cải thiện hiệu suất của LLM] này đề cập đến LangChain, thực hành dự án triển khai AI Agent sử dụng thư viện LangGraph và LLM. Do đó, khóa học được tiến hành với giả định rằng bạn đã có kiến thức cơ bản về Python, xử lý ngôn ngữ tự nhiên, LLM, LangChain và LangGraph. Vì vậy, nếu thiếu kiến thức tiên quyết, bạn nhất định phải học khóa học tiên quyết [Mô hình Ngôn ngữ Lớn LLM cho mọi người Phần 5 - Tạo AI Agent của riêng bạn với LangGraph] trước.

Khuyến nghị cho
những người này

Khóa học này dành cho ai?

  • Người muốn học cách sử dụng LLM cục bộ (Local LLM)

  • Những người muốn thử tạo AI agent với LLM cục bộ (Qwen, Gemma)

Cần biết trước khi bắt đầu?

  • Kinh nghiệm sử dụng Python

  • Kinh nghiệm học trước khóa học [Mô hình Ngôn ngữ Lớn LLM cho Mọi người Phần 5 - Tạo AI Agent của riêng bạn với LangGraph]

Xin chào
Đây là AISchool

9,933

Học viên

787

Đánh giá

359

Trả lời

4.6

Xếp hạng

32

Các khóa học

Thêm

Chương trình giảng dạy

Tất cả

45 bài giảng ∙ (8giờ 40phút)

Ngày đăng: 
Cập nhật lần cuối: 

Đánh giá

Tất cả

2 đánh giá

4.0

2 đánh giá

  • carpelbr4323님의 프로필 이미지
    carpelbr4323

    Đánh giá 3

    Đánh giá trung bình 4.3

    3

    31% đã tham gia

    Đúng kiểu người đàn ông chuyên đọc code luôn ấy

    • simon10074118님의 프로필 이미지
      simon10074118

      Đánh giá 1

      Đánh giá trung bình 5.0

      5

      100% đã tham gia

      Khóa học khác của AISchool

      Hãy khám phá các khóa học khác của giảng viên!

      Khóa học tương tự

      Khám phá các khóa học khác trong cùng lĩnh vực!