
하루 10분 한달완성 최적화이론 1
임장환
AI/딥러닝, 컴퓨터 비젼, 컴퓨터 그래픽 등에 필요한 최적화이론 입니다. 최적화이론1에서는 중점적으로 다변수함수의 정의와 다변수함수의 미분을 다루고 있습니다. 왜 그럴까요! 모든 최적화 문제는 다변수 함수 형태로 표현되기 때문입니다. 정확한 다변수 함수의 정의와 미분개념을 습득하시면 위 분야의 이론적 접근이 상당히 쉬워집니다.
초급
최적화이론, 선형대수학, 머신러닝
すべてのAI/ディープラーニングの核心は結論的に最適化です。もちろんAI/ディープラーニングでのみ最適化理論が必要なわけではありません。コンピュータビジョン、ロボティクス&制御システム、金融工学&クオンツ、データサイエンス、信号処理...おそらくどの分野を学んでも、もう少し深く入っていくと必ず出会うテーマの一つが最適化理論です。この講義では数学的な基礎理論から始まって深みのある内容まで体系的に扱っています。国内に開設された最適化理論講義の中で断然最高だと思います。
多変数関数のTaylor級数展開理論の詳細説明 ## 1. 基本概念と動機 多変数関数のTaylor級数展開は、1変数関数のTaylor級数を多次元に拡張したものです。関数f(x₁, x₂, ..., xₙ)を点a = (a₁, a₂, ..., aₙ)の近傍で多項式の無限級数として表現する方法です。 ## 2. 1変数から多変数への拡張
コンベックス関数(Convex function)の定義から核心理論まで説明 ## 1. コンベックス関数の定義 ### 基本定義 関数 f: ℝⁿ → ℝ がコンベックス関数であるとは、その定義域がコンベックス集合であり、任意の x, y ∈ dom(f) と 0 ≤ λ ≤ 1 に対して以下が成り立つことです: f(λx + (1-λ)y) ≤
勾配降下法(Gradient Descent)の探索方法について非常に詳しく説明 ## 勾配降下法とは 勾配降下法は機械学習と最適化において最も基本的で重要なアルゴリズムの一つです。関数の最小値を見つけるために、関数の勾配(傾き)情報を利用して反復的に最
Gradient Descent方法を利用した逆伝播アルゴリズム(Backpropagation)の説明
Gradient Descentの代替となるNewton探索方法について詳しく説明 Newton法(ニュートン法)は、最適化問題を解くための強力な手法で、Gradient Descentよりも高速な収束を実現できる二次最適化アルゴリズムです。 ## Newton法の基本原理 Newton法は関数のテイラー展開の二次項まで考慮して最適化を行います: ``` f(x + Δx) ≈ f(x) + ∇
Gradient DescentとNewton探索方法を組み合わせたLevenberg-Marquardt Type Damped Newton Method説明
Quasi-Newton Method 紹介
非線形最小二乗法であるLevenberg-Marquardt法について詳しく説明 Levenberg-Marquardt法(LM法)は、非線形最小二乗問題を解くための反復最適化アルゴリズムです。Gauss-Newton法とgradient descent法の利点を組み合わせた手法として広く使用されています。 ## 基本概念 非線形最小二乗問題は以下の形で表現されます: minimize: S(β) = Σᵢ
ラグランジュ乗数法(Lagrange multiplier method)
ラグランジュ乗数法(Lagrange multiplier method)における等号制約と不等号制約がある場合について非常に詳しく説明 ## 1. 基本概念 ラグランジュ乗数法は制約付き最適化問題を解くための強力な手法です。制約には等号制約と不等号制約の2種類があります。 ### 等号制約のみの場合 目的関数:f(x₁, x₂, ..., xₙ) 等号制約:g(x₁, x₂, ..., xₙ) = 0 ラグランジュ関数:L(x, λ) = f(x) + λg(x) ### 不等号制約が含まれる場合(KKT条件) 目的関数:f(x
KKT条件(Karush-Kuhn-Tucker Conditions)について非常に詳しく説明いたします。 ## KKT条件とは KKT条件は、制約付き最適化問題の最適解が満たすべき必要条件です。1939年にKarush、1951年にKuhnとTuckerによって独立に発見されました。 ## 問題設定 以下の制約付き最適化問題を考えます: **最小化**: f(x) **
KKT条件を利用したSVM(Support Vector Machine)の理論的説明
学習対象は
誰でしょう?
AI時代に人工知能を深く学ぼうとする方々に「強力推薦」
工学系特に、コンピュータビジョン、Robotics勉強されている方「積極推薦」
統計学、経済学を勉強されている方の中で、深く最適化理論を学びたい方に「積極推奨」
前提知識、
必要でしょうか?
線形代数学、微積分学
194
受講生
8
受講レビュー
7
回答
4.8
講座評価
4
講座
박사 졸업 후 5년 정도 Computer vision를 공부하고 가르치는 계기가 돼서
지금까지 수학전공과 공학이론을 연결한 공부들을 하고 있습니다.
전문분야(공부 분야)
전공: 수학(Topological Geometry), 부전공(컴퓨터 공학)
현) 3D Computer Vision(3D Reconstruction) , Kalman Filter, Lie-group(SO(3)),
Stochastic Differential Equation 연구자
현) 유튜브 채널 운영: 임장환: 3D Computer Vision
현) facebook Spatial AI KR 그룹 (수학전문위원)
출신학교
독일 Kile 대학 이학박사 (Topological Geometry & Lie-group 전공, 컴퓨터 공학 부전공)
중앙대 수학과 학사, 석사(Topology 전공)
경력
전) 대성그룹 자회사 두비비젼 CTO
전) 중앙대학교 첨단영상 대학원 연구교수(3D Computer Vsion연구)
저서:
최적화이론: https://product.kyobobook.co.kr/detail/S000200518524
링크
유튜브: https://www.youtube.com/@3dcomputervision520
블로그: https://blog.naver.com/jang_hwan_im
全体
31件 ∙ (6時間 56分)
講座資料(こうぎしりょう):
¥13,822
知識共有者の他の講座を見てみましょう!
同じ分野の他の講座を見てみましょう!