강의

멘토링

로드맵

AI Development

/

Deep Learning & Machine Learning

最適化理論Bible

すべてのAI/ディープラーニングの核心は結論的に最適化です。もちろんAI/ディープラーニングでのみ最適化理論が必要なわけではありません。コンピュータビジョン、ロボティクス&制御システム、金融工学&クオンツ、データサイエンス、信号処理...おそらくどの分野を学んでも、もう少し深く入っていくと必ず出会うテーマの一つが最適化理論です。この講義では数学的な基礎理論から始まって深みのある内容まで体系的に扱っています。国内に開設された最適化理論講義の中で断然最高だと思います。

11名 が受講中です。

  • jhim21
optimization-problem

こんなことが学べます

  • 多変数関数のTaylor級数展開理論の詳細説明 ## 1. 基本概念と動機 多変数関数のTaylor級数展開は、1変数関数のTaylor級数を多次元に拡張したものです。関数f(x₁, x₂, ..., xₙ)を点a = (a₁, a₂, ..., aₙ)の近傍で多項式の無限級数として表現する方法です。 ## 2. 1変数から多変数への拡張

  • コンベックス関数(Convex function)の定義から核心理論まで説明 ## 1. コンベックス関数の定義 ### 基本定義 関数 f: ℝⁿ → ℝ がコンベックス関数であるとは、その定義域がコンベックス集合であり、任意の x, y ∈ dom(f) と 0 ≤ λ ≤ 1 に対して以下が成り立つことです: f(λx + (1-λ)y) ≤

  • 勾配降下法(Gradient Descent)の探索方法について非常に詳しく説明 ## 勾配降下法とは 勾配降下法は機械学習と最適化において最も基本的で重要なアルゴリズムの一つです。関数の最小値を見つけるために、関数の勾配(傾き)情報を利用して反復的に最

  • Gradient Descent方法を利用した逆伝播アルゴリズム(Backpropagation)の説明

  • Gradient Descentの代替となるNewton探索方法について詳しく説明 Newton法(ニュートン法)は、最適化問題を解くための強力な手法で、Gradient Descentよりも高速な収束を実現できる二次最適化アルゴリズムです。 ## Newton法の基本原理 Newton法は関数のテイラー展開の二次項まで考慮して最適化を行います: ``` f(x + Δx) ≈ f(x) + ∇

  • Gradient DescentとNewton探索方法を組み合わせたLevenberg-Marquardt Type Damped Newton Method説明

  • Quasi-Newton Method 紹介

  • 非線形最小二乗法であるLevenberg-Marquardt法について詳しく説明 Levenberg-Marquardt法(LM法)は、非線形最小二乗問題を解くための反復最適化アルゴリズムです。Gauss-Newton法とgradient descent法の利点を組み合わせた手法として広く使用されています。 ## 基本概念 非線形最小二乗問題は以下の形で表現されます: minimize: S(β) = Σᵢ

  • ラグランジュ乗数法(Lagrange multiplier method)

  • ラグランジュ乗数法(Lagrange multiplier method)における等号制約と不等号制約がある場合について非常に詳しく説明 ## 1. 基本概念 ラグランジュ乗数法は制約付き最適化問題を解くための強力な手法です。制約には等号制約と不等号制約の2種類があります。 ### 等号制約のみの場合 目的関数:f(x₁, x₂, ..., xₙ) 等号制約:g(x₁, x₂, ..., xₙ) = 0 ラグランジュ関数:L(x, λ) = f(x) + λg(x) ### 不等号制約が含まれる場合(KKT条件) 目的関数:f(x

  • KKT条件(Karush-Kuhn-Tucker Conditions)について非常に詳しく説明いたします。 ## KKT条件とは KKT条件は、制約付き最適化問題の最適解が満たすべき必要条件です。1939年にKarush、1951年にKuhnとTuckerによって独立に発見されました。 ## 問題設定 以下の制約付き最適化問題を考えます: **最小化**: f(x) **

  • KKT条件を利用したSVM(Support Vector Machine)の理論的説明

!!最適化理論Bible講義で核心的な最適化理論を学ぶことができます!!

"国内唯一の体系的で深みのある最適化理論講義"

「正確な数学的理論に基づく」

「十分な量と深さを持つ最適化理論講義」

必要不可欠な最適化理論を詳細かつ深く解説します。

本当に聞かないと後悔する内容がぎっしり詰まっています。

AI時代の人工知能を深く学習したい方に強く

おすすめします。

また最適化理論が必要な

工学系の方々と

経済学や統計学を学ぶ方にも必須

講義です。

勉強して

最適化理論という良いツールを自分のものにしてください

お願いします。

以下の内容を集中的に扱っています。

Gradient Descent 探索方法

Gradient Descent探索方法の理論的背景を正確に説明しています。

適切な例を使って理解しやすいように説明します。

例題:Gradient Descent探索方法と重回帰分析

例題:Gradient Descentの探索方法とDeep Neural Networkの

逆伝播アルゴリズム (Backpropagation)

次の4つの理論についても詳しく説明します。

Newton探索方法

Levenberg-Marquardt型減衰ニュートン法

準ニュートン法

非線形最小二乗法(non-linear least squares problem)

制約条件付き最適化理論

ラグランジュ乗数法(Lagrange multiplier method)

等号条件のみがある場合

ラグランジュ乗数法(Lagrange multiplier method)

等号と不等号の条件がある場合

-KKT条件(Karush-Kuhn-Tucker(KKT) conditions)-

KKT条件の理論的背景を詳細に説明しながら条件を導出しています。

特に、KKT条件がよく利用される理論がSVMなので、SVM理論と具体的な例を用いて

KKT条件とSVM理論について説明しました。

例題:KKT条件とSVM(Support Vector Machine)

こんな方に
おすすめです

学習対象は
誰でしょう?

  • AI時代に人工知能を深く学ぼうとする方々に「強力推薦」

  • 工学系特に、コンピュータビジョン、Robotics勉強されている方「積極推薦」

  • 統計学、経済学を勉強されている方の中で、深く最適化理論を学びたい方に「積極推奨」

前提知識、
必要でしょうか?

  • 線形代数学、微積分学

こんにちは
です。

194

受講生

8

受講レビュー

7

回答

4.8

講座評価

4

講座

박사 졸업 후 5년 정도 Computer vision를 공부하고 가르치는 계기가 돼서

지금까지 수학전공과 공학이론을 연결한 공부들을 하고 있습니다.

전문분야(공부 분야)

전공: 수학(Topological Geometry), 부전공(컴퓨터 공학)

현) 3D Computer Vision(3D Reconstruction) , Kalman Filter, Lie-group(SO(3)),

Stochastic Differential Equation 연구자

현) 유튜브 채널 운영: 임장환: 3D Computer Vision

현) facebook Spatial AI KR 그룹 (수학전문위원)

출신학교

독일 Kile 대학 이학박사 (Topological Geometry & Lie-group 전공, 컴퓨터 공학 부전공)

중앙대 수학과 학사, 석사(Topology 전공)

경력

전) 대성그룹 자회사 두비비젼 CTO

전) 중앙대학교 첨단영상 대학원 연구교수(3D Computer Vsion연구)

저서:

최적화이론: https://product.kyobobook.co.kr/detail/S000200518524

링크

유튜브: https://www.youtube.com/@3dcomputervision520

블로그: https://blog.naver.com/jang_hwan_im

 

 

 

 

 

 

カリキュラム

全体

31件 ∙ (6時間 56分)

講座資料(こうぎしりょう):

授業資料
講座掲載日: 
最終更新日: 

受講レビュー

まだ十分な評価を受けていない講座です。
みんなの役に立つ受講レビューを書いてください!

¥13,822

jhim21の他の講座

知識共有者の他の講座を見てみましょう!