강의

멘토링

커뮤니티

NEW
AI Technology

/

AI Agent Development

Hướng dẫn sử dụng LLM cục bộ (Local LLM) Phần 1 - Sử dụng small LLM(sLLM) & Đánh giá hiệu suất (Evaluation) và cải thiện LLM

Học cách sử dụng các LLM cục bộ đa dạng (Qwen, Gemma) và tìm hiểu các kỹ thuật khác nhau để đánh giá (Evaluation) và cải thiện hiệu suất của hệ thống LLM một cách hiệu quả.

14 học viên đang tham gia khóa học này

Độ khó Trung cấp trở lên

Thời gian Không giới hạn

  • AISchool
AI
AI
LLM
LLM
LangChain
LangChain
AI Agent
AI Agent
LangGraph
LangGraph
AI
AI
LLM
LLM
LangChain
LangChain
AI Agent
AI Agent
LangGraph
LangGraph

Bạn sẽ nhận được điều này sau khi học.

  • Cách triển khai AI agent sử dụng LLM cục bộ (Qwen, Gemma)

  • Cách đánh giá (Evaluation) và cải thiện hiệu suất của hệ thống LLM

  • Cách triển khai AI Agent chất lượng cao

Học cách sử dụng LLM cục bộ (Qwen, Gemma) và triển khai các AI agent với nhiều LLM cục bộ khác nhau.

Thông qua thực hành, chúng ta sẽ triển khai các AI agent đa dạng bằng cách sử dụng LLM cục bộ (Local LLM).

  • Cách sử dụng hiệu quả Local LLM (Qwen, Gemma)

  • Cách đánh giá (Evaluation) và cải thiện hiệu suất của hệ thống LLM một cách hiệu quả


Khóa học này phù hợp với

Sử dụng LLM cục bộ (Qwen, Gemma) để xây dựng AI Agent

muốn tự tay xây dựng

Những người muốn triển khai AI agent bằng LLM cục bộ thay vì OpenAI API

Khả năng triển khai hệ thống LLM

muốn nâng cao năng lực

Người muốn học cách đánh giá (Evaluation) và cải thiện hiệu suất LLM một cách hiệu quả

xu hướng AI mới nhất

Những người không muốn bỏ lỡ xu hướng AI mới nhất

Những người muốn theo dõi (follow-up) các mô hình LLM mới nhất và không muốn bỏ lỡ xu hướng AI mới nhất

Khóa học tiên quyết✅

👋 Khóa học này yêu cầu kiến thức tiên quyết về Python, xử lý ngôn ngữ tự nhiên (NLP), LLM, LangChain và LangGraph. Vui lòng hoàn thành các khóa học dưới đây trước hoặc có kiến thức tương đương trước khi tham gia khóa học này.

Mô hình Ngôn ngữ Lớn LLM cho Mọi người Phần 5 - Tạo AI Agent của riêng bạn với LangGraph

Q&A 💬

Q. LLM cục bộ (Local LLM) là gì?

LLM cục bộ (Local LLM) có nghĩa là "mô hình ngôn ngữ lớn (LLM) chạy trực tiếp trên PC/máy chủ của bạn (môi trường cục bộ)". Tức là, thay vì gửi yêu cầu đến đám mây (máy chủ từ xa) như OpenAI API, bạn chạy mô hình trên CPU/GPU của máy tính để thực hiện các tác vụ như tạo văn bản/tóm tắt/dịch thuật/hỗ trợ lập trình. Các mô hình LLM cục bộ tiêu biểu bao gồm Qwen và Gemma.


Q. Ưu điểm khi sử dụng LLM cục bộ (Local LLM) là gì?

Những ưu điểm khi sử dụng LLM cục bộ mã nguồn mở như sau.

  1. Kiểm soát dữ liệu/Quyền riêng tư

  • Có thể xử lý dữ liệu nhạy cảm (tài liệu nội bộ, thông tin khách hàng) trong môi trường on-premise/VPC nội bộ mà không cần gửi đến API bên ngoài.

  • Có lợi trong kiểm toán bảo mật/tuân thủ quy định (tài chính, y tế, v.v.).

  1. Có thể làm cho cấu trúc chi phí 'dự đoán được'

  • Không phải tính phí "theo token" như API mà có thể cố định bằng chi phí GPU/server (càng có lưu lượng lớn càng dễ có lợi).

  • Có thể trực tiếp giảm đơn giá thông qua cache/batch/lượng tử hóa.

  1. Dễ dàng tùy chỉnh (tinh chỉnh/chuyên biệt hóa theo lĩnh vực)

  • LoRA/QLoRA, DPO, RAG tuning, cố định system prompt, v.v. có thể tối ưu hóa tùy chỉnh theo lĩnh vực nghiệp vụ.

  • Dễ dàng nâng cao tỷ lệ tuân thủ định dạng đầu ra (ví dụ: JSON nghiêm ngặt), thuật ngữ/giọng điệu/quy tắc theo tiêu chuẩn thực tế.

  1. Giảm phụ thuộc vào nhà cung cấp

  • Ít bị ảnh hưởng bởi thay đổi chính sách, tăng giá, ngừng hỗ trợ mô hình, hoặc thay đổi giới hạn tốc độ của một công ty cụ thể.

  • Có thể chuyển sang mô hình khác bất cứ lúc nào khi cần thiết.

  1. Lợi ích về tính minh bạch/gỡ lỗi

  • Thông tin về trọng số/kiến trúc thường được công개, giúp chẩn đoán các vấn đề về hiệu suất một cách có hệ thống hơn.

  • Dễ dàng thực hiện kiểm tra an toàn/thiên lệch theo tiêu chuẩn nội bộ.


Q. Có cần kiến thức tiên quyết không?

Khóa học [Hướng dẫn sử dụng LLM cục bộ (Local LLM) Phần 1 - Sử dụng small LLM(sLLM) & Đánh giá (Evaluation) và cải thiện hiệu suất của LLM] này đề cập đến LangChain, thực hành dự án triển khai AI Agent sử dụng thư viện LangGraph và LLM. Do đó, khóa học được tiến hành với giả định rằng bạn đã có kiến thức cơ bản về Python, xử lý ngôn ngữ tự nhiên, LLM, LangChain và LangGraph. Vì vậy, nếu thiếu kiến thức tiên quyết, bạn nhất định phải học khóa học tiên quyết [Mô hình Ngôn ngữ Lớn LLM cho mọi người Phần 5 - Tạo AI Agent của riêng bạn với LangGraph] trước.

Khuyến nghị cho
những người này

Khóa học này dành cho ai?

  • Người muốn học cách sử dụng LLM cục bộ (Local LLM)

  • Những người muốn thử tạo AI agent với LLM cục bộ (Qwen, Gemma)

Cần biết trước khi bắt đầu?

  • Kinh nghiệm sử dụng Python

  • Kinh nghiệm học trước khóa học [Mô hình Ngôn ngữ Lớn LLM cho Mọi người Phần 5 - Tạo AI Agent của riêng bạn với LangGraph]

Xin chào
Đây là

9,518

Học viên

726

Đánh giá

354

Trả lời

4.6

Xếp hạng

31

Các khóa học

Chương trình giảng dạy

Tất cả

42 bài giảng ∙ (8giờ 5phút)

Ngày đăng: 
Cập nhật lần cuối: 

Đánh giá

Chưa có đủ đánh giá.
Hãy trở thành tác giả của một đánh giá giúp mọi người!

Ưu đãi có thời hạn

6.290 ₫

23%

1.381.331 ₫

Khóa học khác của AISchool

Hãy khám phá các khóa học khác của giảng viên!

Khóa học tương tự

Khám phá các khóa học khác trong cùng lĩnh vực!