강의

멘토링

로드맵

NEW
AI Development

/

Deep Learning & Machine Learning

Lý thuyết tối ưu hóa Bible

Cốt lõi của tất cả AI/Deep Learning cuối cùng đều là tối ưu hóa. Tất nhiên không chỉ riêng AI/Deep Learning mới cần lý thuyết tối ưu hóa. Computer Vision, Robotics & Control Systems, Financial Engineering & Quant, Data Science, Signal Processing... có lẽ dù học lĩnh vực nào, khi đi sâu hơn thì lý thuyết tối ưu hóa là một trong những chủ đề mà bạn chắc chắn sẽ gặp phải. Khóa học này bao gồm từ lý thuyết cơ bản về toán học đến những nội dung sâu sắc một cách có hệ thống. Tôi nghĩ đây chắc chắn là khóa học lý thuyết tối ưu hóa tốt nhất được mở trong nước.

8 học viên đang tham gia khóa học này

  • jhim21
optimization-problem

Dịch cái này sang tiếng Việt

  • Lý thuyết khai triển chuỗi Taylor của hàm nhiều biến được giải thích rất chi tiết ## 1. Giới thiệu về chuỗi Taylor nhiều biến Chuỗi Taylor của hàm nhiều biến là sự mở rộng tự nhiên của chuỗi Taylor một biến. Đối với hàm f(x₁, x₂, ..., xₙ) có đủ tính khả vi, ta có thể khai triển xung quanh điểm a = (

  • Định nghĩa hàm lồi (Convex function) đến các lý thuyết cốt lõi ## 1. Định nghĩa hàm lồi Hàm số f: ℝⁿ → ℝ được gọi là **hàm lồi** nếu miền xác định của nó là tập lồi và thỏa mãn điều kiện sau: Với mọi x, y thuộc miền xác định và λ ∈ [0,1]: ``` f(λx + (1-λ

  • Giải thích rất chi tiết về phương pháp tìm kiếm Gradient Descent ## Gradient Descent là gì? Gradient Descent (Thuật toán Hạ Gradient) là một thuật toán tối ưu hóa được sử dụng để tìm giá trị tối thiểu của một hàm số. Đây là phương pháp cơ bản và quan trọ

  • Giải thích thuật toán lan truyền ngược (Backpropagation) sử dụng phương pháp Gradient Descent

  • Phương pháp tìm kiếm Newton như một thay thế cho Gradient Descent được giải thích chi tiết Phương pháp Newton (Newton's Method) là một thuật toán tối ưu hóa bậc hai sử dụng thông tin về đạo hàm bậc hai (Hessian matrix) để tìm điểm tối ưu, khác với Gradient Descent chỉ sử dụng thông tin đạo hàm bậc nhất. **Nguyên lý cơ bản

  • Phương pháp Newton có Damping kiểu Levenberg-Marquardt kết hợp giữa phương pháp tìm kiếm Gradient Descent và Newton Đây là một phương pháp tối ưu hóa lai ghép kết hợp ưu điểm của cả Gradient Descent và phương pháp Newton. Phương pháp này sử dụng tham số damping để điều chỉnh giữa hai phương pháp: - Khi tham số damping lớn: hoạt động giống như Gradient Descent (hội tụ chậm nhưng ổn định) - Khi tham số damping nhỏ: hoạt động giống như phương pháp Newton (hội tụ nhanh nhưng có thể không ổn định) Công thức

  • Giới thiệu Phương pháp Quasi-Newton

  • Phương pháp Levenberg-Marquardt là một thuật toán tối ưu hóa phi tuyến được sử dụng rộng rãi để giải quyết bài toán bình phương tối thiểu phi tuyến. Đây là sự kết hợp thông minh giữa phương pháp Gradient Descent và phương pháp Gauss-Newton. ## Bối cảnh và Động lực Trong nhiều bài toán thực tế, chúng ta cần tìm tham số t

  • Phương pháp nhân tử Lagrange (Lagrange multiplier method)

  • Phương pháp nhân tử Lagrange (Lagrange multiplier method) trong trường hợp có cả ràng buộc đẳng thức và bất đẳng thức - Giải thích chi tiết ## 1. Khái niệm cơ bản Phương pháp nhân tử Lagrange được mở rộng để xử lý các bài toán tối ưu có cả ràng buộc đẳng thức và bất đẳng thức. Điều này dẫn đến điều kiện Karush-Kuhn-Tucker (KKT). ## 2. Dạng tổng quát của bài toán ``` Tối ưu: f(x) Ràng buộc đẳng thức: gᵢ(x) = 0, i = 1

  • Điều kiện KKT (Karush-Kuhn-Tucker Conditions) là một tập hợp các điều kiện cần thiết để tìm nghiệm tối ưu trong bài toán tối ưu hóa có ràng buộc. Đây là sự mở rộng của phương pháp nhân tử Lagrange cho các bài toán có ràng buộc bất đẳng thức. ## 1. Bài toán tối ưu hóa tổng quát

  • Giải thích lý thuyết về SVM (Support Vector Machine) sử dụng điều kiện KKT SVM là một thuật toán học máy mạnh mẽ được xây dựng dựa trên lý thuyết tối ưu hóa, đặc biệt là điều kiện Karush-Kuhn-Tucker (KKT). Để hiểu rõ SVM, chúng ta cần phân tích từ bài toán tối ưu hóa gốc đến việc á

!!Bạn có thể học các lý thuyết tối ưu hóa cốt lõi trong khóa học Bible lý thuyết tối ưu hóa!!

"Khóa học lý thuyết tối ưu hóa có hệ thống và sâu sắc duy nhất tại Hàn Quốc"

"Dựa trên lý thuyết toán học chính xác"

"Bài giảng lý thuyết tối ưu hóa với khối lượng và độ sâu đầy đủ"

Giải thích chi tiết và sâu sắc về lý thuyết tối ưu hóa thực sự cần thiết.

Nội dung này chứa đầy những điều mà bạn sẽ hối hận nếu không nghe.

Khuyến khích mạnh mẽ cho những ai muốn nghiên cứu sâu về trí tuệ nhân tạo trong thời đại AI

Tôi khuyên bạn nên.

Ngoài ra, cần có lý thuyết tối ưu hóa

Với những người thuộc ngành kỹ thuật

Cũng là điều cần thiết cho những người học kinh tế học hoặc thống kê học

Đây là bài giảng.

Hãy học tập

Hãy biến lý thuyết tối ưu hóa - một công cụ tuyệt vời này - thành của riêng bạn

mong muốn.

Chúng tôi tập trung xử lý các nội dung dưới đây.

Phương pháp tìm kiếm Gradient Descent

Đang giải thích chính xác nền tảng lý thuyết của phương pháp tìm kiếm Gradient Descent.

Giải thích dễ hiểu bằng cách sử dụng các ví dụ phù hợp.

Ví dụ: Phương pháp tìm kiếm Gradient Descent và phân tích hồi quy tuyến tính đa biến

Ví dụ:Phương pháp tìm kiếm Gradient Descent và Deep Neural Network

Thuật toán lan truyền ngược (Backpropagation)

Chúng tôi cũng sẽ giải thích chi tiết về bốn lý thuyết sau đây.

Phương pháp tìm kiếm Newton

Phương pháp Newton có cản Levenberg-Marquardt

Phương pháp Quasi-Newton

Bài toán bình phương tối thiểu phi tuyến (non-linear least squares problem)

Lý thuyết tối ưu hóa có ràng buộc

Phương pháp nhân tử Lagrange (Lagrange multiplier method)

Trường hợp chỉ có điều kiện đẳng thức

Phương pháp nhân tử Lagrange (Lagrange multiplier method)

Trường hợp có điều kiện dấu bằng và dấu bất đẳng thức

-Điều kiện KKT (Karush-Kuhn-Tucker(KKT) conditions)-

Đang giải thích chi tiết nền tảng lý thuyết của điều kiện KKT và suy ra các điều kiện.

Đặc biệt, lý thuyết sử dụng nhiều điều kiện KKT là SVM nên với lý thuyết SVM và các ví dụ cụ thể

Đã giải thích điều kiện KKT và lý thuyết SVM.

Ví dụ: Điều kiện KKT và SVM(Support Vector Machine)

Khuyến nghị cho
những người này

Khóa học này dành cho ai?

  • Những ai muốn nghiên cứu sâu về trí tuệ nhân tạo trong thời đại AI "Cực kỳ khuyến khích"

  • Đặc biệt khuyến khích mạnh mẽ cho những ai đang học ngành kỹ thuật, đặc biệt là Computer Vision và Robotics "cực kỳ khuyến khích"

  • Những bạn đang học thống kê học, kinh tế học mà muốn nghiên cứu sâu về lý thuyết tối ưu hóa thì tôi "cực kỳ khuyến khích"

Cần biết trước khi bắt đầu?

  • Đại số tuyến tính, Giải tích

Xin chào
Đây là

191

Học viên

7

Đánh giá

6

Trả lời

4.7

Xếp hạng

4

Các khóa học

박사 졸업 후 5년 정도 Computer vision를 공부하고 가르치는 계기가 돼서

지금까지 수학전공과 공학이론을 연결한 공부들을 하고 있습니다.

전문분야(공부 분야)

전공: 수학(Topological Geometry), 부전공(컴퓨터 공학)

현) 3D Computer Vision(3D Reconstruction) , Kalman Filter, Lie-group(SO(3)),

Stochastic Differential Equation 연구자

현) 유튜브 채널 운영: 임장환: 3D Computer Vision

현) facebook Spatial AI KR 그룹 (수학전문위원)

출신학교

독일 Kile 대학 이학박사 (Topological Geometry & Lie-group 전공, 컴퓨터 공학 부전공)

중앙대 수학과 학사, 석사(Topology 전공)

경력

전) 대성그룹 자회사 두비비젼 CTO

전) 중앙대학교 첨단영상 대학원 연구교수(3D Computer Vsion연구)

저서:

최적화이론: https://product.kyobobook.co.kr/detail/S000200518524

링크

유튜브: https://www.youtube.com/@3dcomputervision520

블로그: https://blog.naver.com/jang_hwan_im

 

 

 

 

 

 

Chương trình giảng dạy

Tất cả

31 bài giảng ∙ (6giờ 56phút)

Tài liệu khóa học:

Tài liệu bài giảng
Ngày đăng: 
Cập nhật lần cuối: 

Đánh giá

Chưa có đủ đánh giá.
Hãy trở thành tác giả của một đánh giá giúp mọi người!

Ưu đãi có thời hạn

86.620 ₫

25%

2.422.394 ₫

Khóa học khác của jhim21

Hãy khám phá các khóa học khác của giảng viên!