
하루 10분 한달완성 선형대수학
임장환
AI/딥러닝에 필요한 선형대수 내용을 하루 10분 투자 한 달 완성으로 마스터 해봐요
초급
선형대수학, 행렬, 딥러닝
Cốt lõi của tất cả AI/Deep Learning cuối cùng đều là tối ưu hóa. Tất nhiên không chỉ riêng AI/Deep Learning mới cần lý thuyết tối ưu hóa. Computer Vision, Robotics & Control Systems, Financial Engineering & Quant, Data Science, Signal Processing... có lẽ dù học lĩnh vực nào, khi đi sâu hơn thì lý thuyết tối ưu hóa là một trong những chủ đề mà bạn chắc chắn sẽ gặp phải. Khóa học này bao gồm từ lý thuyết cơ bản về toán học đến những nội dung sâu sắc một cách có hệ thống. Tôi nghĩ đây chắc chắn là khóa học lý thuyết tối ưu hóa tốt nhất được mở trong nước.
Lý thuyết khai triển chuỗi Taylor của hàm nhiều biến được giải thích rất chi tiết ## 1. Giới thiệu về chuỗi Taylor nhiều biến Chuỗi Taylor của hàm nhiều biến là sự mở rộng tự nhiên của chuỗi Taylor một biến. Đối với hàm f(x₁, x₂, ..., xₙ) có đủ tính khả vi, ta có thể khai triển xung quanh điểm a = (
Định nghĩa hàm lồi (Convex function) đến các lý thuyết cốt lõi ## 1. Định nghĩa hàm lồi Hàm số f: ℝⁿ → ℝ được gọi là **hàm lồi** nếu miền xác định của nó là tập lồi và thỏa mãn điều kiện sau: Với mọi x, y thuộc miền xác định và λ ∈ [0,1]: ``` f(λx + (1-λ
Giải thích rất chi tiết về phương pháp tìm kiếm Gradient Descent ## Gradient Descent là gì? Gradient Descent (Thuật toán Hạ Gradient) là một thuật toán tối ưu hóa được sử dụng để tìm giá trị tối thiểu của một hàm số. Đây là phương pháp cơ bản và quan trọ
Giải thích thuật toán lan truyền ngược (Backpropagation) sử dụng phương pháp Gradient Descent
Phương pháp tìm kiếm Newton như một thay thế cho Gradient Descent được giải thích chi tiết Phương pháp Newton (Newton's Method) là một thuật toán tối ưu hóa bậc hai sử dụng thông tin về đạo hàm bậc hai (Hessian matrix) để tìm điểm tối ưu, khác với Gradient Descent chỉ sử dụng thông tin đạo hàm bậc nhất. **Nguyên lý cơ bản
Phương pháp Newton có Damping kiểu Levenberg-Marquardt kết hợp giữa phương pháp tìm kiếm Gradient Descent và Newton Đây là một phương pháp tối ưu hóa lai ghép kết hợp ưu điểm của cả Gradient Descent và phương pháp Newton. Phương pháp này sử dụng tham số damping để điều chỉnh giữa hai phương pháp: - Khi tham số damping lớn: hoạt động giống như Gradient Descent (hội tụ chậm nhưng ổn định) - Khi tham số damping nhỏ: hoạt động giống như phương pháp Newton (hội tụ nhanh nhưng có thể không ổn định) Công thức
Giới thiệu Phương pháp Quasi-Newton
Phương pháp Levenberg-Marquardt là một thuật toán tối ưu hóa phi tuyến được sử dụng rộng rãi để giải quyết bài toán bình phương tối thiểu phi tuyến. Đây là sự kết hợp thông minh giữa phương pháp Gradient Descent và phương pháp Gauss-Newton. ## Bối cảnh và Động lực Trong nhiều bài toán thực tế, chúng ta cần tìm tham số t
Phương pháp nhân tử Lagrange (Lagrange multiplier method)
Phương pháp nhân tử Lagrange (Lagrange multiplier method) trong trường hợp có cả ràng buộc đẳng thức và bất đẳng thức - Giải thích chi tiết ## 1. Khái niệm cơ bản Phương pháp nhân tử Lagrange được mở rộng để xử lý các bài toán tối ưu có cả ràng buộc đẳng thức và bất đẳng thức. Điều này dẫn đến điều kiện Karush-Kuhn-Tucker (KKT). ## 2. Dạng tổng quát của bài toán ``` Tối ưu: f(x) Ràng buộc đẳng thức: gᵢ(x) = 0, i = 1
Điều kiện KKT (Karush-Kuhn-Tucker Conditions) là một tập hợp các điều kiện cần thiết để tìm nghiệm tối ưu trong bài toán tối ưu hóa có ràng buộc. Đây là sự mở rộng của phương pháp nhân tử Lagrange cho các bài toán có ràng buộc bất đẳng thức. ## 1. Bài toán tối ưu hóa tổng quát
Giải thích lý thuyết về SVM (Support Vector Machine) sử dụng điều kiện KKT SVM là một thuật toán học máy mạnh mẽ được xây dựng dựa trên lý thuyết tối ưu hóa, đặc biệt là điều kiện Karush-Kuhn-Tucker (KKT). Để hiểu rõ SVM, chúng ta cần phân tích từ bài toán tối ưu hóa gốc đến việc á
Khóa học này dành cho ai?
Những ai muốn nghiên cứu sâu về trí tuệ nhân tạo trong thời đại AI "Cực kỳ khuyến khích"
Đặc biệt khuyến khích mạnh mẽ cho những ai đang học ngành kỹ thuật, đặc biệt là Computer Vision và Robotics "cực kỳ khuyến khích"
Những bạn đang học thống kê học, kinh tế học mà muốn nghiên cứu sâu về lý thuyết tối ưu hóa thì tôi "cực kỳ khuyến khích"
Cần biết trước khi bắt đầu?
Đại số tuyến tính, Giải tích
191
Học viên
7
Đánh giá
6
Trả lời
4.7
Xếp hạng
4
Các khóa học
박사 졸업 후 5년 정도 Computer vision를 공부하고 가르치는 계기가 돼서
지금까지 수학전공과 공학이론을 연결한 공부들을 하고 있습니다.
전문분야(공부 분야)
전공: 수학(Topological Geometry), 부전공(컴퓨터 공학)
현) 3D Computer Vision(3D Reconstruction) , Kalman Filter, Lie-group(SO(3)),
Stochastic Differential Equation 연구자
현) 유튜브 채널 운영: 임장환: 3D Computer Vision
현) facebook Spatial AI KR 그룹 (수학전문위원)
출신학교
독일 Kile 대학 이학박사 (Topological Geometry & Lie-group 전공, 컴퓨터 공학 부전공)
중앙대 수학과 학사, 석사(Topology 전공)
경력
전) 대성그룹 자회사 두비비젼 CTO
전) 중앙대학교 첨단영상 대학원 연구교수(3D Computer Vsion연구)
저서:
최적화이론: https://product.kyobobook.co.kr/detail/S000200518524
링크
유튜브: https://www.youtube.com/@3dcomputervision520
블로그: https://blog.naver.com/jang_hwan_im
Tất cả
31 bài giảng ∙ (6giờ 56phút)
Tài liệu khóa học:
Ưu đãi có thời hạn
86.620 ₫
25%
2.422.394 ₫
Hãy khám phá các khóa học khác của giảng viên!
Khám phá các khóa học khác trong cùng lĩnh vực!