강의

멘토링

로드맵

NEW
AI Development

/

Deep Learning & Machine Learning

Giải thích code <Xây dựng và học LLM từ cơ bản>

Đây là bài giảng giải thích code của <밑바닥부터 만들면서 배우는 LLM>(길벗, 2025). Code này có thể xem trên github(https://github.com/rickiepark/llm-from-scratch/). <밑바닥부터 만들면서 배우는 LLM> là bản dịch của cuốn sách bestseller <Build a Large Langauge Model (from Scratch)>(Manning, 2024) do Sebastian Raschka viết. Cuốn sách này cung cấp phương pháp học và ứng dụng nguyên lý hoạt động của các mô hình ngôn ngữ lớn thông qua việc tạo ra một mô hình hoàn chỉnh bắt đầu từ con số không với mô hình GPT-2 do OpenAI tạo ra.

3 học viên đang tham gia khóa học này

  • haesunpark
실습 중심
llm
사전훈련
미세튜닝
대규모언어모델
PyTorch
gpt-2
transformer
LLM
Fine-Tuning

Dịch cái này sang tiếng Việt

  • Bắt đầu từ con số không và triển khai hoàn toàn một LLM bằng cách viết code trực tiếp.

  • Học các thành phần cốt lõi cấu thành LLM bao gồm Transformer và Attention.

  • Học cách huấn luyện trước các LLM tương tự như GPT.

  • Học cách tinh chỉnh LLM để phân loại.

  • Học cách tinh chỉnh LLM để phản hồi theo hướng dẫn của con người.

Khóa học này giải thích mã ví dụ được cung cấp cùng với . Kho lưu trữ GitHub (https://github.com/rickiepark/llm-from-scratch/) không chỉ chứa mã ví dụ trong sách mà còn bao gồm nhiều tài liệu bổ sung khác. Giải thích về những nội dung bổ sung này cũng được cung cấp.

Khóa học này có thể được nghe bởi bất kỳ ai mà không cần mua sách. Tuy nhiên, sẽ hiệu quả nhất khi nghe cùng với sách. Một số giải thích về code có thể khó hiểu nếu không xem cùng với sách. Kiến thức tiên quyết cần thiết là lập trình Python. Sẽ có ích nếu bạn đã từng sử dụng deep learning và PyTorch. Nếu bạn mới tiếp xúc với hai khái niệm này lần đầu, hãy đọc Phụ lục A trước.

<Xây dựng và học LLM từ đầu>의 nội dung được đề cập trong bài gi강의 có thể xem miễn phí trên YouTube. Vui lòng tham khảo blog của người dịch để biết thông tin về lỗi.

Giới thiệu sách

Theo từng dòng code một, bạn sẽ hoàn thành GPT của riêng mình!
Hướng dẫn thực hành triển khai GPT từ đầu và nắm vững nguyên lý LLM qua đầu ngón tay

Các khái niệm khó được giải thích bằng hình ảnh, và LLM được học thông qua việc tự tay xây dựng. Cuốn sách này là một hướng dẫn thực hành về LLM giúp bạn học hỏi bằng cách trực tiếp triển khai cấu trúc và nguyên lý hoạt động của các mô hình ngôn ngữ lớn từ đầu đến cuối. Không chỉ dừng lại ở việc giải thích các khái niệm, cuốn sách lấy tiền xử lý văn bản và tokenization, quá trình embedding làm điểm khởi đầu, sau đó từng bước xây dựng self-attention và multi-head attention, các transformer block. Tiếp theo, tích hợp những thành phần này để hoàn thiện mô hình GPT thực tế, và trực tiếp làm việc với các yếu tố cốt lõi của thiết kế kiến trúc hiện đại như số lượng tham số của mô hình, kỹ thuật ổn định hóa huấn luyện, hàm kích hoạt và phương pháp chuẩn hóa. Ngoài ra, cuốn sách còn hướng dẫn sâu sắc về quá trình pre-training và fine-tuning. Bạn có thể tiến hành pre-training từ dữ liệu không có nhãn, tuning mô hình cho các tác vụ downstream như phân loại văn bản, và thực hành cả kỹ thuật học dựa trên chỉ dẫn đang được chú ý gần đây. Cuốn sách cũng bao gồm nội dung mới nhất như Parameter Efficient Fine-Tuning (PEFT) dựa trên LoRA, đưa ra nhiều phương pháp để kết nối LLM với dịch vụ thực tế và nghiên cứu. Tất cả các khái niệm đều được triển khai bằng mã PyTorch và được tối ưu hóa để có thể thực hành ngay cả trong môi trường laptop thông thường. Theo dõi quá trình triển khai trong cuốn sách này, bạn sẽ tự nhiên hiểu được những gì diễn ra bên trong LLM và nắm bắt được cách thức hoạt động của cơ chế mô hình ngôn ngữ lớn thông qua trải nghiệm thực tế.

Khuyến nghị cho
những người này

Khóa học này dành cho ai?

  • Những người muốn tìm hiểu chi tiết nguyên lý hoạt động của mô hình ngôn ngữ lớn (LLM)

  • Những người muốn sử dụng PyTorch và gói transformers để tiền huấn luyện và tinh chỉnh LLM

  • Những người muốn tìm hiểu về cấu trúc của mô hình GPT-2 của OpenAI

  • Người mà phải tự tay làm mọi thứ mới thấy thỏa mãn!

Cần biết trước khi bắt đầu?

  • Tôi cần kiến thức cơ bản về lập trình Python.

Xin chào
Đây là

20,145

Học viên

190

Đánh giá

63

Trả lời

4.8

Xếp hạng

6

Các khóa học

기계공학을 전공했지만 졸업 후엔 줄곧 코드를 읽고 쓰는 일을 했습니다. Google AI/Cloud GDE, Microsoft AI MVP입니다. 텐서 플로우 블로그(tensorflow.blog)를 운영하고 있고, 머신러닝과 딥러닝에 관한 책을 집필하고 번역하면서 소프트웨어와 과학의 경계를 흥미롭게 탐험하고 있습니다.

『혼자 만들면서 공부하는 딥러닝』(한빛미디어, 2025), 『혼자 공부하는 머신러닝+딥러닝(개정판)』(한빛미디어, 2025), 『혼자 공부하는 데이터 분석 with 파이썬』(한빛미디어, 2023), 『챗GPT로 대화하는 기술』(한빛미디어, 2023), 『Do it! 딥러닝 입문』(이지스퍼블리싱, 2019)을 집필했습니다.

『밑바닥부터 만들면서 배우는 LLM』(길벗, 2025), 『핸즈온 LLM』(한빛미디어, 2025), 『머신 러닝 Q & AI』(길벗, 2025), 『개발자를 위한 수학』(한빛미디어, 2024), 『실무로 통하는 ML 문제 해결 with 파이썬』(한빛미디어, 2024), 『머신러닝 교과서: 파이토치 편』(길벗, 2023), 『스티븐 울프럼의 챗GPT 강의』(한빛미디어, 2023), 『핸즈온 머신러닝 3판』(한빛미디어, 2023), 『만들면서 배우는 생성 딥러닝 2판』(한빛미디어, 2023), 『코딩 뇌를 깨우는 파이썬』(한빛미디어, 2023), 『트랜스포머를 활용한 자연어 처리』(한빛미디어, 2022), 『케라스 창시자에게 배우는 딥러닝 2판』(길벗, 2022), 『개발자를 위한 머신러닝&딥러닝』(한빛미디어, 2022), 『XGBoost와 사이킷런을 활용한 그레이디언트 부스팅』(한빛미디어, 2022), 『구글 브레인 팀에게 배우는 딥러닝 with TensorFlow.js』(길벗, 2022), 『(개정2판)파이썬 라이브러리를 활용한 머신러닝』(한빛미디어, 2022)을 포함하여 수십여 권의 책을 우리말로 옮겼습니다.

Chương trình giảng dạy

Tất cả

44 bài giảng ∙ (57phút)

Ngày đăng: 
Cập nhật lần cuối: 

Đánh giá

Chưa có đủ đánh giá.
Hãy trở thành tác giả của một đánh giá giúp mọi người!

Ưu đãi có thời hạn

5.513 ₫

29%

1.405.028 ₫

Khóa học khác của haesunpark

Hãy khám phá các khóa học khác của giảng viên!

Khóa học tương tự

Khám phá các khóa học khác trong cùng lĩnh vực!