강의

멘토링

커뮤니티

BEST
AI Technology

/

Deep Learning & Machine Learning

<밑바닥부터 만들면서 배우는 LLM> Khóa học giải thích

<밑바닥부터 만들면서 배우는 LLM>(길벗, 2025)의 깃허브 노트북과 보너스 콘텐츠를 다루는 강의입니다. 깃허브: https://github.com/rickiepark/llm-from-scratch/ <밑바닥부터 만들면서 배우는 LLM>은 세바스찬 라시카(Sebastian Raschka)가 쓴 베스트셀러 <Build a Large Langauge Model (from Scratch)>(Manning, 2024)의 번역서입니다. 이 책은 오픈AI가 만든 GPT-2 모델을 밑바닥에서부터 시작해서 완전한 모델을 만들어 보면서 대규모 언어 모델의 작동 원리를 배우고 활용하는 방법을 제공합니다.

(5.0) 14 đánh giá

482 học viên

  • haesunpark
실습 중심
llm
사전훈련
미세튜닝
대규모언어모델
PyTorch
gpt-2
transformer
LLM
Fine-Tuning

Đánh giá từ những học viên đầu tiên

Bạn sẽ nhận được điều này sau khi học.

  • Bắt đầu từ con số không và triển khai hoàn toàn một LLM bằng cách viết code trực tiếp.

  • Học các thành phần cốt lõi cấu thành LLM bao gồm Transformer và Attention.

  • Học cách huấn luyện trước các LLM tương tự như GPT.

  • Học cách tinh chỉnh LLM để phân loại.

  • Học cách tinh chỉnh LLM để phản hồi theo hướng dẫn của con người.

Khóa học này giải thích mã ví dụ được cung cấp cùng với . Kho lưu trữ GitHub (https://github.com/rickiepark/llm-from-scratch/) không chỉ chứa mã ví dụ trong sách mà còn bao gồm nhiều tài liệu bổ sung khác. Khóa học cũng cung cấp giải thích về những nội dung bổ sung này.

Khóa học này có thể được nghe bởi bất kỳ ai mà không cần mua sách. Tuy nhiên, sẽ hiệu quả nhất khi nghe cùng với sách. Một số giải thích về code có thể khó hiểu nếu không xem cùng với sách. Kiến thức tiên quyết cần thiết là lập trình Python. Sẽ có ích nếu bạn đã từng sử dụng deep learning và PyTorch. Nếu bạn mới tiếp xúc với hai khái niệm này lần đầu, hãy đọc Phụ lục A trước.

Bạn có thể xem miễn phí các bài giảng về nội dung của <Build a Large Language Model (From Scratch)> trên YouTube. Vui lòng tham khảo blog của người dịch để biết thông tin về errata.

Giới thiệu sách

Theo từng dòng code một, bạn sẽ hoàn thành GPT của riêng mình!
Hướng dẫn thực hành triển khai GPT từ đầu và nắm vững nguyên lý LLM qua đầu ngón tay

Các khái niệm khó được giải thích bằng hình ảnh, và LLM được học thông qua việc tự tay xây dựng. Cuốn sách này là một hướng dẫn thực hành về LLM dành cho người mới bắt đầu, cho phép học tập thông qua việc trực tiếp triển khai cấu trúc và nguyên lý hoạt động của các mô hình ngôn ngữ lớn từ đầu đến cuối. Không chỉ dừng lại ở việc giải thích các khái niệm, cuốn sách lấy tiền xử lý văn bản và tokenization, quá trình embedding làm điểm khởi đầu, rồi từng bước xây dựng self-attention và multi-head attention, các khối transformer. Tiếp theo, tích hợp các thành phần này để hoàn thiện mô hình GPT thực tế, và trực tiếp làm việc với các yếu tố cốt lõi của thiết kế kiến trúc hiện đại như số lượng tham số của mô hình, kỹ thuật ổn định hóa huấn luyện, hàm kích hoạt và phương pháp chuẩn hóa. Ngoài ra, cuốn sách còn hướng dẫn sâu sắc về quá trình pre-training và fine-tuning. Tiến hành pre-training từ dữ liệu không có nhãn, tuning mô hình cho các tác vụ downstream như phân loại văn bản, và thực hành cả kỹ thuật học tập dựa trên chỉ dẫn đang được chú ý gần đây. Cũng bao gồm nội dung mới nhất như fine-tuning hiệu quả tham số (PEFT) dựa trên LoRA, đưa ra phương pháp kết nối LLM với dịch vụ thực tế và nghiên cứu một cách toàn diện. Tất cả các khái niệm đều được triển khai bằng mã PyTorch và được tối ưu hóa để có thể thực hành ngay cả trong môi trường laptop thông thường. Theo dõi quá trình triển khai trong cuốn sách này, bạn sẽ tự nhiên hiểu được những gì diễn ra bên trong LLM và nắm bắt được cách thức hoạt động của cơ chế mô hình ngôn ngữ lớn qua đầu ngón tay.

Khuyến nghị cho
những người này

Khóa học này dành cho ai?

  • Những người muốn tìm hiểu chi tiết nguyên lý hoạt động của mô hình ngôn ngữ lớn (LLM)

  • Những người muốn sử dụng PyTorch và gói transformers để tiền huấn luyện và tinh chỉnh LLM

  • Những người muốn tìm hiểu về cấu trúc của mô hình GPT-2 của OpenAI

  • Người mà phải tự tay làm mọi thứ mới thấy thỏa mãn!

Cần biết trước khi bắt đầu?

  • Tôi cần kiến thức cơ bản về lập trình Python.

Xin chào
Đây là

21,854

Học viên

342

Đánh giá

123

Trả lời

4.9

Xếp hạng

10

Các khóa học

기계공학을 전공했지만 졸업 후엔 줄곧 코드를 읽고 쓰는 일을 했습니다. Google AI/Cloud GDE, Microsoft AI MVP입니다. 텐서 플로우 블로그(tensorflow.blog)를 운영하고 있고, 머신러닝과 딥러닝에 관한 책을 집필하고 번역하면서 소프트웨어와 과학의 경계를 흥미롭게 탐험하고 있습니다.

『혼자 만들면서 공부하는 딥러닝』(한빛미디어, 2025), 『혼자 공부하는 머신러닝+딥러닝(개정판)』(한빛미디어, 2025), 『혼자 공부하는 데이터 분석 with 파이썬』(한빛미디어, 2023), 『챗GPT로 대화하는 기술』(한빛미디어, 2023), 『Do it! 딥러닝 입문』(이지스퍼블리싱, 2019)을 집필했습니다.

『밑바닥부터 만들면서 배우는 LLM』(길벗, 2025), 『핸즈온 LLM』(한빛미디어, 2025), 『머신 러닝 Q & AI』(길벗, 2025), 『개발자를 위한 수학』(한빛미디어, 2024), 『실무로 통하는 ML 문제 해결 with 파이썬』(한빛미디어, 2024), 『머신러닝 교과서: 파이토치 편』(길벗, 2023), 『스티븐 울프럼의 챗GPT 강의』(한빛미디어, 2023), 『핸즈온 머신러닝 3판』(한빛미디어, 2023), 『만들면서 배우는 생성 딥러닝 2판』(한빛미디어, 2023), 『코딩 뇌를 깨우는 파이썬』(한빛미디어, 2023), 『트랜스포머를 활용한 자연어 처리』(한빛미디어, 2022), 『케라스 창시자에게 배우는 딥러닝 2판』(길벗, 2022), 『개발자를 위한 머신러닝&딥러닝』(한빛미디어, 2022), 『XGBoost와 사이킷런을 활용한 그레이디언트 부스팅』(한빛미디어, 2022), 『구글 브레인 팀에게 배우는 딥러닝 with TensorFlow.js』(길벗, 2022), 『(개정2판)파이썬 라이브러리를 활용한 머신러닝』(한빛미디어, 2022)을 포함하여 수십여 권의 책을 우리말로 옮겼습니다.

Chương trình giảng dạy

Tất cả

79 bài giảng ∙ (15giờ 24phút)

Ngày đăng: 
Cập nhật lần cuối: 

Đánh giá

Tất cả

14 đánh giá

5.0

14 đánh giá

  • Park Ju Yeong님의 프로필 이미지
    Park Ju Yeong

    Đánh giá 4

    Đánh giá trung bình 5.0

    5

    100% đã tham gia

    아래의 순서로 스터디했습니다. 첼린지 강의 수강 - 도서 읽기 - 소스 해성강의 수강 대규모 언어 모델 핵심만 빠르게로 이어가겠습니다.

    • 박해선
      Giảng viên

      감사합니다. 화이팅입니다!

  • GEONOEMON님의 프로필 이미지
    GEONOEMON

    Đánh giá 1

    Đánh giá trung bình 5.0

    5

    30% đã tham gia

    • Yutae Choi님의 프로필 이미지
      Yutae Choi

      Đánh giá 1

      Đánh giá trung bình 5.0

      5

      30% đã tham gia

      • aboutexo04님의 프로필 이미지
        aboutexo04

        Đánh giá 15

        Đánh giá trung bình 4.9

        5

        30% đã tham gia

      • JungHyun Im님의 프로필 이미지
        JungHyun Im

        Đánh giá 2

        Đánh giá trung bình 5.0

        5

        30% đã tham gia

      2.090.612 ₫

      Khóa học khác của haesunpark

      Hãy khám phá các khóa học khác của giảng viên!

      Khóa học tương tự

      Khám phá các khóa học khác trong cùng lĩnh vực!