Thumbnail
학문 · 외국어 수학

하루 10분 한달완성 최적화이론 1 대시보드

19명이 수강하고 있어요.

55,000원

지식공유자: 임장환
총 17개 수업 (3시간 16분)
수강기한: 
무제한
수료증: 발급
난이도: 
입문
-
초급
-
중급이상
지식공유자 답변이 제공되는 강의입니다
폴더에 추가 공유

초급자를 위해 준비한
[수학] 강의입니다.

AI/딥러닝, 컴퓨터 비젼, 컴퓨터 그래픽 등에 필요한 최적화이론 입니다. 최적화이론1에서는 중점적으로 다변수함수의 정의와 다변수함수의 미분을 다루고 있습니다. 왜 그럴까요! 모든 최적화 문제는 다변수 함수 형태로 표현되기 때문입니다. 정확한 다변수 함수의 정의와 미분개념을 습득하시면 위 분야의 이론적 접근이 상당히 쉬워집니다.

✍️
이런 걸
배워요!
최적화이론에 필요한 다변수 함수의 정의를 공부
다변수 함수의 미분공부
다변수 함수의 테일러(Taylor)전개
책: 최적화이론(임장환저)을 바탕으로 강의

이런 분들께 추천드려요!

🎓
학습 대상은
누구일까요?
머신러닝, 딥러닝, 컴퓨터 비젼, 컴퓨터 그래픽, 이공계 분들
다변수 함수의 미분에 대해서 제대로 이해 하시고 싶은 분들 추천해요
본인 전공을 대학원에서 좀 더 깊이 공부하시고자 하시는분들 추천해요
📚
선수 지식,
필요할까요?
선형대수, 미적분학
하고자 하는 의지는 필수
꾸준히 한 달 투자하실 분

안녕하세요
임장환 입니다.
임장환의 썸네일

박사 졸업 후 5년 정도 Computer vision를 공부하고 가르치는 계기가 돼서

지금까지 수학전공과 공학이론을 연결한 공부들을 하고 있습니다.

전문분야(공부 분야)

전공: 수학(Topological Geometry), 부전공(컴퓨터 공학)

현) 3D Computer Vision(3D Reconstruction) , Kalman Filter, Lie-group(SO(3)),

Stochastic Differential Equation 연구자

현) 유튜브 채널 운영: 임장환: 3D Computer Vision

현) facebook Spatial AI KR 그룹 (수학전문위원)

출신학교

독일 Kile 대학 이학박사 (Topological Geometry & Lie-group 전공, 컴퓨터 공학 부전공)

중앙대 수학과 학사, 석사(Topology 전공)

경력

전) 대성그룹 자회사 두비비젼 CTO

전) 중앙대학교 첨단영상 대학원 연구교수(3D Computer Vsion연구)

저서:

최적화이론: https://product.kyobobook.co.kr/detail/S000200518524

링크

유튜브: https://www.youtube.com/@3dcomputervision520

블로그: https://blog.naver.com/jang_hwan_im

 

 

 

 

 

 

커리큘럼 총 17 개 ˙ 3시간 16분의 수업
이 강의는 영상, 첨부 파일이 제공됩니다. 미리보기를 통해 콘텐츠를 확인해보세요.
섹션 0. 최적화이론 소개
섹션 1. 다변수 함수의 미분(differentiation of multivariable functions)
다변수 함수의 이해(Understanding Multivariable Functions ) 17:02
편미분(partial differentiation) 10:48
다변수 함수의 전미분(total differentiation of multivariable functions ) 미리보기 13:45
다변수 함수의 전미분(total differentiation of multivariable functions ) 06:48
섹션 2. 다변수함수의 테일러전개(Taylor expansion of multivariable functions )
다변수함수의 테일러전개(Taylor expansion of multivariable functions ) 미리보기 12:10
다변수함수의 테일러전개(Taylor expansion of multivariable functions ) 13:09
다변수함수의 테일러전개(Taylor expansion of multivariable functions ) 02:44
레벨집합과 그레디언트 방향(Level sets and direction of gradients) 05:13
섹션 3. 컨벡스 함수(Convex Function)
컨벡스 함수(Convex Function) 16:41
컨벡스 함수(Convex Function) 11:12
섹션 4. 최적화이론( Optimization Theory)
경사하강법(Gradient Descent ) 15:54
경사하강법(Gradient Descent ) 10:12
경사하강법(Gradient Descent ) 06:22
섹션 5. 라그랑주 승수법(Lagrange multiplier method)
라그랑주 승수법(Lagrange multiplier method) 11:25
강의 게시일 : 2024년 01월 16일 (마지막 업데이트일 : 2024년 01월 16일)
수강평
수강생분들이 직접 작성하신 수강평입니다.
아직 평가를 충분히 받지 못한 강의 입니다.
모두에게 도움이 되는 수강평의 주인공이 되어주세요!😄️️