강의

멘토링

커뮤니티

BEST
AI Technology

/

Deep Learning & Machine Learning

Tạo LLM tùy chỉnh lần đầu tiên – Nhập môn Fine-tuning LoRA & QLoRA

"Bước đầu tiên để tạo LLM tùy chỉnh của riêng bạn với Fine-tuning nhẹ dựa trên LoRA!" Đây là khóa học thực hành nhập môn được thiết kế để những người mới tiếp xúc với LLM cũng có thể dễ dàng theo dõi. Giảm thiểu lý thuyết phức tạp, hướng dẫn từng bước toàn bộ quy trình từ tải mô hình → áp dụng dữ liệu → huấn luyện → so sánh kết quả. Trong thời gian ngắn, bạn sẽ trực tiếp trải nghiệm quy trình của các kỹ thuật fine-tuning nhẹ hiện đại như LoRA·QLoRA, và có thể nắm bắt được cảm giác "À, fine-tuning LLM hoạt động như thế này". Hãy tự mình cảm nhận thành tựu tạo ra LLM chuyên biệt cho lĩnh vực của bạn, ngay cả khi không có nhiều tài nguyên!

(4.7) 35 đánh giá

294 học viên

Độ khó Nhập môn

Thời gian Không giới hạn

  • HappyAI
Deep Learning(DL)
Deep Learning(DL)
NLP
NLP
AI
AI
LLM
LLM
Fine-Tuning
Fine-Tuning
Deep Learning(DL)
Deep Learning(DL)
NLP
NLP
AI
AI
LLM
LLM
Fine-Tuning
Fine-Tuning

Đánh giá từ những học viên đầu tiên

Đánh giá từ những học viên đầu tiên

4.7

5.0

dlstjd6401

100% đã tham gia

"Bài giảng ở mức độ trải nghiệm thử về Fine-tuning dành cho người mới bắt đầu" - Đề xuất cho những ai muốn tìm hiểu xem Fine-tuning là gì - Không đề xuất cho các nhà phát triển đang làm việc muốn áp dụng trực tiếp Fine-tuning vào thực tế Vì là bài giảng dành cho người mới bắt đầu nên nội dung không quá sâu và khá dễ hiểu. Mã thực hành cũng rất đơn giản và ngắn gọn.

5.0

ogu0312

32% đã tham gia

Thú vị quá

5.0

bigdata01

32% đã tham gia

Với tư cách là người trước đây cũng đã giảng dạy nhiều, tôi thấy anh giải thích rất hay cả về review paper lẫn các phần khác. Đang giúp ích rất nhiều cho tôi!! Cảm ơn anh.

Bạn sẽ nhận được điều này sau khi học.

  • Bạn có thể dễ dàng hiểu fine-tuning là gì và tại sao cần LoRA·QLoRA.

  • Trải nghiệm quá trình thực thi code đã chuẩn bị sẵn, trực tiếp tải và huấn luyện mô hình ngôn ngữ nhỏ (sLLM).

  • Làm quen với quy trình tạo LLM tùy chỉnh phù hợp với lĩnh vực của mình mà không cần nhiều tài nguyên hay lý thuyết phức tạp.

Mô hình ngôn ngữ lớn (LLM), tinh chỉnh LLM, nên bắt đầu từ đâu?

"Fine-tuning LLM, nên bắt đầu từ đâu?"

Khóa học này được thiết kế để người mới bắt đầu có thể nhanh chóng nắm bắt khái niệm và quy trình tổng thể của fine-tuning, đồng thời thực hành trực tiếp.

Chúng tôi đã cắt giảm mạnh mẽ các lý thuyết toán học phức tạp và lý thuyết nâng cao, thay vào đó bạn sẽ trải nghiệm từng bước từ tải mô hình → huấn luyện → so sánh kết quả, để có thể cảm nhận được "À, fine-tuning hoạt động như thế này đấy" một cách trực quan.

Quan trọng nhất là khóa học được cấu trúc ngắn gọn và súc tích với tổng cộng 22 bài giảng, khoảng 1 giờ, giúp những người mới tiếp cận cũng có thể theo dõi một cách dễ dàng mà không cảm thấy áp lực.

👉 Lưu ý rằng, phương pháp xây dựng dataset hoặc cách sử dụng nâng cao Huggingface/Unsloth vượt quá phạm vi của khóa học này, nhưng sẽ được đề cập trong các khóa học nâng cao và chuyên sâu sau này. Do đó, khóa học này tập trung vào việc giúp người mới bắt đầu cảm thấy có thành tựu và nắm bắt được bức tranh tổng thể.

Đặc điểm của khóa học này

📌Làm chủ hoàn toàn các kỹ thuật fine-tuning nhẹ mới nhất

Giải thích từng bước từ cơ bản các kỹ thuật mới nhất như LoRA, QLoRA, PEFT.

📌Thực hành áp dụng trên nhiều mô hình khác nhau

Áp dụng trực tiếp từ các mô hình cổ điển như GPT-2, BERT đến các mô hình mới nhất như OPT-350M, Llama 3.1.

📌Bao gồm phân tích so sánh hiệu suất

So sánh trực tiếp hiệu suất giữa phương pháp Full Fine-tuning và LoRA để hiểu rõ sự khác biệt.

📌Cấu trúc thân thiện với người mới bắt đầu

Cung cấp quy trình học tập từng bước để ngay cả người mới tiếp xúc lần đầu cũng có thể dễ dàng theo kịp.

📌Khóa học tập trung vào thực hành

Làm quen với cảm giác tinh chỉnh LLM thông qua thực hành dựa trên Hugging Face và PyTorch.

📌Tinh chỉnh LLM trong nháy mắt

Không có phần thừa không cần thiết, chỉ tập trung vào cốt lõi, bạn có thể nắm bắt toàn bộ quy trình trong vòng khoảng 1 giờ.

Khóa học này phù hợp với

Đã sử dụng ChatGPT nhưng muốn tự tay tinh chỉnh với dữ liệu của mình - Dành cho lập trình viên mới vào nghề

Nhà phát triển mới bắt đầu với AI muốn hiểu LLM thông qua thực hành trực tiếp

Những người muốn nắm bắt bức tranh toàn cảnh về Fine-tuning LLM trong thời gian ngắn
Những người tò mò về các kỹ thuật mới nhất như LoRA·QLoRA nhưng vẫn còn ngại ngùng với lý thuyết khó. Những người muốn có bước khởi đầu nhẹ nhàng trước khi tiến tới các khóa học nâng cao

Người mới bắt đầu với LLM đã từng nghe về LoRA, QLoRA nhưng chưa hiểu rõ chúng là gì
Bạn có thể học các khái niệm fine-tuning nhẹ một cách tự nhiên thông qua thực hành, không cần lý thuyết phức tạp.

Sau khi hoàn thành khóa học

  • Hiểu được cấu trúc và khái niệm của LoRA, và có thể áp dụng trực tiếp vào các mô hình khác nhau.

  • Bạn sẽ có được toàn bộ quy trình và kinh nghiệm thực hành để tạo ra LLM chuyên biệt cho lĩnh vực của mình.

  • So sánh trực tiếp kết quả fine-tuning và có được nhãn quan để tự lựa chọn chiến lược phù hợp.

  • Bạn sẽ có thể nắm bắt được cảm giác về phát triển LLM dựa trên kiến thức chuyên môn của riêng mình.


Bạn sẽ học những nội dung này.

Hiểu các khái niệm cơ bản về Fine-tuning

  • Học nguyên lý fine-tuning để tối ưu hóa LLM đã được pre-train cho phù hợp với domain của bạn.


Hiểu cấu trúc LoRA & QLoRA

  • Hiểu dễ dàng nguyên lý cốt lõi của fine-tuning nhẹ mà không cần lý thuyết phức tạp.


So sánh hiệu suất Full vs. LoRA

  • Trải nghiệm sự khác biệt về hiệu suất theo phương pháp fine-tuning thông qua thực nghiệm.


Cách sử dụng Huggingface + PyTorch

  • Làm quen với các framework cần thiết cho việc fine-tuning LLM thực tế.

Người tạo ra khóa học này

Xin chào, tôi là Giám đốc Happy AI Lee Jin Kyu,
người nhiệt huyết với thực tiễn AI tạo sinh và Fine-tuning LLM.

Tốt nghiệp chuyên ngành Xử lý Ngôn ngữ Tự nhiên và LLM tại trường Đại học AI, sau đó
đã thực hiện hơn 200 dự án AI·RAG cùng với Samsung Electronics, Đại học Seoul, Tập đoàn Điện lực Hàn Quốc, v.v.
và tích lũy kinh nghiệm thực tế trong việc xây dựng Private LLM, Fine-tuning, Multimodal RAG.

Đặc biệt gần đây, đang tiến hành nhiều
khóa học thực hành về LangChain, RAG, Agent LLM cho các doanh nghiệp và cơ quan công quyền khác nhau.

Khóa học này,
❝ Được thiết kế để ngay cả người mới bắt đầu cũng có thể thực hành fine-tuning dựa trên LoRA mà không cần lý thuyết phức tạp ❞
Dựa trên nhiều kinh nghiệm thực tế, được thiết kế theo cấu trúc học tập thông qua thực hành trực tiếp với mô hình.


📌 Tóm tắt kinh nghiệm chính

  • 2024~ Đại diện Happy AI (Vận hành doanh nghiệp chuyên về AI tạo sinh·RAG)

  • Hoàn thành khóa tiến sĩ tại trường Đại học AI (chuyên ngành LLM & xử lý ngôn ngữ tự nhiên)

  • Chuyên gia viết chuyên mục AI của PublicNews (Viết chuyên mục về LLM, vấn đề thiên kiến, v.v.)

  • hơn 200 dự án thực tế về LLM·RAG


📚 Ví dụ về giảng dạy và hoạt động

  • KT – Giảng dạy phát triển Agent LLM dựa trên LLM

  • Samsung SDS – Khóa học thực hành LangChain & RAG

  • Quỹ Kỹ thuật số Seoul – Lý thuyết LLM và phát triển chatbot RAG

Ngoài ra còn giảng dạy về LLM và Big Data tại nhiều doanh nghiệp


🔗 Liên kết liên quan

Lưu ý trước khi học

Môi trường thực hành

  • Tất cả code thực hành được cung cấp dựa trên Google Colab


  • Tài liệu tham khảo và ghi chú được tổng hợp sẽ được hướng dẫn qua link.

Tài liệu học tập

  • Sẽ được cung cấp qua link Notion!

Kiến thức tiên quyết và lưu ý

  • Cú pháp cơ bản của Python


  • Kiến thức cơ bản về AI và LLM (sẽ tốt nếu bạn biết lý thuyết cơ bản về LLM.)

  • Chỉ cần trình duyệt Chrome và tài khoản Google là có thể học được

Khuyến nghị cho
những người này

Khóa học này dành cho ai?

  • Người mới bắt đầu với LLM đã từng nghe về ChatGPT nhưng chưa từng tự mình thực hiện fine-tuning

  • Các nhà phát triển và nhà nghiên cứu cấp độ sơ cấp muốn tự mình thực hành các kỹ thuật hiện đại như LoRA·QLoRA để nắm vững quy trình cơ bản

  • Những người muốn tự chạy sLLM (mô hình ngôn ngữ nhỏ) và thử tinh chỉnh nhẹ để làm quen với quy trình

Cần biết trước khi bắt đầu?

  • Cú pháp cơ bản của Python (biến, hàm, câu lệnh điều kiện, v.v.)

  • Các khái niệm cơ bản về deep learning (hiểu biết cơ bản về mô hình, học tập, hàm mất mát, v.v.)

  • Sẽ hữu ích nếu bạn có kinh nghiệm sử dụng PyTorch hoặc Colab

Xin chào
Đây là

4,489

Học viên

225

Đánh giá

51

Trả lời

4.6

Xếp hạng

11

Các khóa học

Lee JinKyu | Lee JinKyu

Chuyên gia phân tích AI·LLM·Big Data / Đại diện Happy AI

👉Bạn có thể kiểm tra lý lịch chi tiết tại liên kết bên dưới.
https://bit.ly/jinkyu-profile

Xin chào.
Tôi là Lee JinKyu (Tiến sĩ Kỹ thuật, Trí tuệ nhân tạo), đại diện của Happy AI, người đã không ngừng làm việc với AI và phân tích dữ liệu lớn trong nghiên cứu, phát triển, giáo dục và các dự án thực tế.

Dựa trên xử lý ngôn ngữ tự nhiên (NLP) và khai phá văn bản (text mining),
tôi đã phân tích nhiều loại dữ liệu phi cấu trúc đa dạng như
khảo sát, văn bản, đánh giá, truyền thông, chính sách, dữ liệu học thuật, v.v.
Gần đây, tôi đang truyền đạt phương pháp ứng dụng AI tập trung vào thực tiễn phù hợp với tổ chức và môi trường làm việc
bằng cách tận dụng AI tạo sinh và mô hình ngôn ngữ lớn (LLM).

Tôi đã hợp tác với nhiều cơ quan công quyền, doanh nghiệp và tổ chức giáo dục như Samsung Electronics, Đại học Quốc gia Seoul, Sở Giáo dục, Viện Nghiên cứu Gyeonggi, Cục Lâm nghiệp,
Tổng cục Quản lý Công viên Quốc gia, Thành phố Seoul, v.v.,
và đã thực hiện tổng cộng hơn 200 dự án nghiên cứu và phân tích trong nhiều lĩnh vực khác nhau như y tế, thương mại, sinh thái, luật pháp, kinh tế và văn hóa.


🎒 Yêu cầu diễn thuyết và thuê ngoài (outsourcing)

Chuyên gia Kmong Prime (Top 2%)


📘 Tiểu sử (Tóm tắt)

  • 07/2024 ~ Hiện tại
    Giám đốc HappyAI, doanh nghiệp chuyên về phân tích Big Data và AI tạo sinh

  • Tiến sĩ Kỹ thuật (Trí tuệ nhân tạo)
    Trường Cao học Trí tuệ nhân tạo, Đại học Dongguk

    Chuyên ngành chi tiết: Mô hình ngôn ngữ lớn (LLM)

    (Tháng 03/2022 ~ Tháng 02/2026)

  • 2023 ~ 2025
    Nhà bình luận AI của Public News
    (Các vấn đề về định kiến trong AI tạo sinh, RAG, ứng dụng LLM)

  • 2021 ~ 2023
    Nhà phát triển tại Stellavision, công ty chuyên về AI và Big Data, an AI and Big Data company

  • 2018 ~ 2021
    Nghiên cứu viên về Xử lý ngôn ngữ tự nhiên và Phân tích dữ liệu lớn tại Viện nghiên cứu do Chính phủ tài trợ


🔹 Lĩnh vực chuyên môn (Tập trung vào Giảng dạy · Dự án)

  • AI tạo thế và ứng dụng LLM

    • LLM riêng tư (Private LLM), RAG, Agent

    • Cơ bản về Fine-tuning LoRA·QLoRA

  • Phân tích dữ liệu lớn dựa trên AI

    • Dữ liệu khảo sát, đánh giá, báo chí, chính sách và học thuật

  • Xử lý ngôn ngữ tự nhiên (NLP) · Khai phá văn bản (Text Mining)

    • Phân tích chủ đề, phân tích cảm xúc, mạng lưới từ khóa

  • Tự động hóa công việc bằng AI cho khối công và doanh nghiệp

    • Tóm tắt, phân loại và phân tích tài liệu

      Xử lý ngôn ngữ tự nhiên (NLP) và khai phá văn bản (Text Mining) đối với dữ liệu đánh giá, báo chí, chính sách và học thuật. Phân tích chủ đề (Topic Analysis), phân tích cảm xúc, mạng lưới từ khóa. Tự động hóa công việc bằng AI cho chính phủ và doanh nghiệp: Tóm tắt, phân loại và phân tích văn bản.


🎒 Khóa học & Hoạt động (Chọn lọc)

2025

  • Phát triển ứng dụng LLM/sLLM
    (Dựa trên Fine-tuning·RAG·Agent) – KT

2024

  • Lập trình LLM dựa trên LangChain·RAG – Samsung SDS

  • Lý thuyết LLM và Thực hành phát triển Chatbot RAG – Quỹ Kỹ thuật số Seoul (Seoul Digital Foundation)

  • Nhập môn phân tích dữ liệu lớn dựa trên ChatGPT – LetUin Edu

  • Cơ bản về Trí tuệ nhân tạo · Kỹ thuật Prompt – Viện Phát triển Nghề nghiệp Hàn Quốc

  • LDA·Phân tích cảm xúc với ChatGPT – Inflearn

  • Phân tích văn bản dựa trên Python – Đại học Khoa học và Công nghệ Quốc gia Seoul

  • Xây dựng Chatbot LLM sử dụng LangChain – Inflearn

2023

  • Cơ bản về Python sử dụng ChatGPT – Đại học Kyonggi

  • Bài giảng đặc biệt về khóa học chuyên gia dữ liệu lớn – Đại học Dankook

  • Cơ bản về phân tích dữ liệu lớn – LetUin Edu


💻 Dự án (Tóm tắt)

  • Xây dựng Chatbot RAG dựa trên Private LLM (Tổng công ty Điện lực Hàn Quốc)

  • Phân tích dữ liệu lớn về phục hồi rừng dựa trên LLM (Viện Khoa học Lâm nghiệp Quốc gia)

  • Giải pháp Text Mining Private LLM dành riêng cho mạng nội bộ (Cơ quan chính phủ)

  • Phát triển mô hình LLM dựa trên Instruction Tuning và RLHF

  • Phân tích dữ liệu chăm sóc sức khỏe, luật pháp, chính sách và giáo dục

  • Phân tích AI dữ liệu khảo sát, đánh giá và báo chí

→ Đã thực hiện hơn 200 dự án bao gồm các cơ quan công quyền, doanh nghiệp và viện nghiên cứu, including public institutions, corporations, and research institutes


📖 Ấn bản (Chọn lọc)

  • Improving Commonsense Bias Classification by Mitigating the Influence of Demographic Terms (2024)

  • Improving Generation of Sentiment Commonsense by Bias Mitigation
    – Hội nghị quốc tế về Dữ liệu lớn và Tính toán thông minh (2023)

  • Phân tích nhận thức về công nghệ LLM dựa trên dữ liệu lớn từ các bài báo chí (2024)

  • Nhiều nghiên cứu khai phá dữ liệu văn bản (text mining) dựa trên NLP
    (Lĩnh vực Lâm nghiệp · Môi trường · Xã hội · Chăm sóc sức khỏe)


🔹 Khác

  • Phân tích và trực quan hóa dữ liệu dựa trên Python

  • Phân tích dữ liệu sử dụng LLM

  • Nâng cao năng suất công việc bằng cách sử dụng ChatGPT, LangChain và Agent

Chương trình giảng dạy

Tất cả

22 bài giảng ∙ (1giờ 9phút)

Tài liệu khóa học:

Tài liệu bài giảng
Ngày đăng: 
Cập nhật lần cuối: 

Đánh giá

Tất cả

35 đánh giá

4.7

35 đánh giá

  • dlstjd64012541님의 프로필 이미지
    dlstjd64012541

    Đánh giá 1

    Đánh giá trung bình 5.0

    Đã chỉnh sửa

    5

    100% đã tham gia

    "Bài giảng ở mức độ trải nghiệm thử về Fine-tuning dành cho người mới bắt đầu" - Đề xuất cho những ai muốn tìm hiểu xem Fine-tuning là gì - Không đề xuất cho các nhà phát triển đang làm việc muốn áp dụng trực tiếp Fine-tuning vào thực tế Vì là bài giảng dành cho người mới bắt đầu nên nội dung không quá sâu và khá dễ hiểu. Mã thực hành cũng rất đơn giản và ngắn gọn.

    • motovlim님의 프로필 이미지
      motovlim

      Đánh giá 3

      Đánh giá trung bình 5.0

      5

      64% đã tham gia

      • jameshhjung8294님의 프로필 이미지
        jameshhjung8294

        Đánh giá 2

        Đánh giá trung bình 5.0

        5

        32% đã tham gia

        • mycode200님의 프로필 이미지
          mycode200

          Đánh giá 9

          Đánh giá trung bình 5.0

          5

          100% đã tham gia

          • eomhs231928님의 프로필 이미지
            eomhs231928

            Đánh giá 2

            Đánh giá trung bình 5.0

            5

            32% đã tham gia

            470.240 ₫

            Khóa học khác của HappyAI

            Hãy khám phá các khóa học khác của giảng viên!

            Khóa học tương tự

            Khám phá các khóa học khác trong cùng lĩnh vực!