Thumbnail
데이터 사이언스 인공지능
[딥러닝 전문가 과정 DL1231] Backpropagation과 야코비안 행렬
33명이 수강하고 있어요.

33,000원

지식공유자 : 공대형아
총 68개 수업˙총 16시간 1분
평생 무제한 수강
수료증 발급 강의
입문 초급 대상 중급이상
내 목록 추가 157 공유
초급자를 위해 준비한
[인공지능, 수학] 강의입니다.

딥러닝에서 가장 중요한 Backpropagation의 원리를 기초부터 심화까지 다루는 강의입니다.

✍️
이런 걸
배워요!
딥러닝 핵심 기초(Backpropagation)
딥러닝 관련 수학
딥러닝을 위한 Matrix Calculus
뉴럴 네트워크의 학습원리

딥러닝의 핵심 Backprogagation(역전파)!
원리부터 깊이있게 학습해 보세요.

학습 전 확인해주세요!

  • 본 강의는 Learning 4 Deep Learning(L4DL)의 모든 강의와 통합된 Private Slack 채널에서 함께 운영되고 있습니다. 강의를 신청하신 뒤 섹션0 - 수업2: 슬랙 (Slack) 커뮤니티 가입 신청에서 가입하실 수 있습니다.
  • 질문&답변은 슬랙 채널에 남겨주시면 보다 빠르게 확인해드리고 있습니다.

오리엔테이션 영상

[L4DL] Project Currimulum 📑

전체화면 보기 (클릭)


강의 목표

"딥러닝의 핵심: Backpropagation!"

딥러닝을 동작시키는 엔진인 Backpropagation은 딥러닝 기초 과정 중 가장 심도있게 배워야 하는 부분입니다.

본 강의에서는 다음과 같이 Backpropagation을 통해 뉴럴 네트워크를 학습시키는 원리어떤 강의보다도 집중적으로 다룹니다.

Backpropagation을 이해하기 위해선 야코비안 행렬을 이해해야 하지만, 수학에서 다루는 야코비안 행렬은 딥러닝의 backpropagation을 표현하기에 부족한 점이 많습니다.

따라서 본 강의에서는 수학에서 다루는 야코비안 행렬을 확장하여 딥러닝의 backpropagation을 설명합니다.


배우는 내용

본 강의에서는 미분의 기초부터

다변수 함수의 미분을 거쳐

벡터함수의 미분을 다루고

딥러닝의 backpropagation을 설명하기 위한 확장된 야코비안을 배웁니다.


Backpropagation 실습

본 강의에서는 이론적으로 배운 backpropagation을 이용하여 간단한 모델을 학습시켜 봅니다.

학습된 모델의 결과를 어렵지 않은 선에서 관찰하고, 학습의 원리를 분석해봅니다.

지식공유자가 알려주는
강의 수강 꿀팁!
🎓
이런 분들께
추천드려요!
딥러닝을 공부하는데 수학능력이 부족한 분
딥러닝의 기초를 완벽히 다지고 싶은 분
Backpropagation의 원리를 완벽히 이해하고 싶은 분
L4DL 커리큘럼 수강자
📚
선수 지식,
필요한가요?
[L4DL 강의] 딥러닝 네트워크의 연산

안녕하세요
공대형아 입니다.
공대형아의 썸네일

강의이력

  • [패스트캠퍼스] 수학적으로 접근하는 딥러닝 강사
  • [Youtube] Shin’s Lab 운영(신호처리, 수학, 머신러닝, 딥러닝 강의)
  • 비전공자를 위한 파이썬 프로그래밍 및 머신러닝 레슨
  • [커텍츠 재단] 커텍츠 마스터
  • Edwith 교수자
  • [광운대학교] 파이썬 및 영상처리 세미나 리더
커리큘럼 총 68 개 ˙ 16시간 1분의 수업
이 강의는 영상, 수업 노트, 첨부 파일이 제공됩니다. 미리보기를 통해 콘텐츠를 확인해보세요.
섹션 0. 오리엔테이션
오리엔테이션 미리보기 13:33
슬랙 (Slack) 커뮤니티 가입 신청
섹션 1. Backpropagation과 딥러닝에서의 야코비안 행렬
학습변수와 그래디언트 25:10
Gradient-based Learning 구현 연습 08:22
Backpropagation 소개 16:01
야코비안 행렬의 필요성 08:47
섹션 2. 기초 미분법
변화율의 개념 17:10
미분과 도함수 09:35
상수함수, 멱함수의 미분 08:10
로그함수와 지수함수의 미분 15:27
삼각함수와 구간별로 정의된 함수의 미분 08:43
상수 곱의 법칙과 합의 법칙 16:18
LTI 시스템과 미분 10:25
곱의 미분법과 몫의 미분법 09:59
합성함수와 채인룰 20:26
Backpropagation 모듈 15:19
섹션 3. 다변수 함수와 야코비안 행렬
다변수 함수 14:58
편미분과 학습변수의 업데이트 미리보기 20:10 편미분과 그래디언트 미리보기 23:46 그래디언트와 학습변수의 업데이트 미리보기 12:15
Affine 함수의 야코비안 12:58
인공신경과 Backpropagation 16:45
미니배치에 대한 야코비안 13:07
MSE와 BCEE의 야코비안 19:05
CCEE의 야코비안 17:32
Softmax의 야코비안 14:50
섹션 4. Linear/Logistic Regression(1)
Linear Regression 이론 09:58
Linear Regression 구현(1 Feature) 미리보기 18:28
Linear Regression 구현(n Features) 18:02
Logistic Regression 이론, 시그모이드 함수의 변수 20:36
시그모이드 함수의 특징 13:16
Logistic Regression 구현(1 Feature) 18:00
Logistic Regression 구현(n Features) 15:57
섹션 5. 벡터함수와 야코비안 행렬
벡터함수 15:06
벡터함수의 야코비안 15:18
벡터함수로서의 Affine 함수1 16:09
벡터함수로서의 Affine 함수2 14:02
벡터함수로서의 Softmax 09:14
섹션 6. 원소별 연산과 야코비안 행렬
대각행렬 13:11
단항 원소별 연산과 야코비안 12:42
Activation 함수의 야코비안 08:16
Dense 레이어 안에서의 Backpropagation 15:35
인공신경과 미니배치 19:14
이항 원소별 연산과 야코비안 12:59
Loss 함수의 야코비안 15:48
섹션 7. Linear/Logistic Regression(2)
Minibatch를 입력받는 Linear Regression(이론) 19:02
Minibatch를 입력받는 Linear Regression(구현) 22:55
Minibatch를 입력받는 Logistic Regression(이론과 구현) 17:25
섹션 8. 전미분(Total Derivative)
함수의 Multipath 13:07
전미분 이론1 13:21
전미분 이론2 13:58
벡터함수와 전미분 11:17
Linear/Logistic Regression과 전미분 13:02
섹션 9. 확장된 야코비안 행렬
확장된 야코비안의 소개 13:04
확장된 야코비안의 핵심 11:41
단항 원소별 연산과 확장된 야코비안 16:23
단항/이항 원소별 연산과 확장된 야코비안 12:01
-
섹션 10. 딥러닝에서의 확장된 야코비안
MSE, BCEE와 확장된 야코비안 10:43
CCEE와 확장된 야코비안 14:40
Softmax 함수와 확장된 야코비안 24:55
행렬의 곱셈 복습 10:10
행렬의 곱셈과 확장된 야코비안 18:00
Bias 덧셈과 확장된 야코비안 12:33
섹션 11. MLP와 확장된 야코비안 적용
MLP 이론 10:58
MLP의 학습과 확장된 야코비안 31:45
-
-
강의 게시일 : 2021년 04월 23일 (마지막 업데이트일 : 2021년 05월 14일)
수강평
수강생분들이 직접 작성하신 수강평입니다. 수강평을 작성 시 300잎이 적립됩니다.
아직 평가를 충분히 받지 못한 강의 입니다.
모두에게 도움이 되는 수강평의 주인공이 되어주세요!😄️️

33,000원

내 목록 추가 157 공유
지식공유자 : 공대형아
총 68개 수업˙총 16시간 1분
평생 무제한 수강
수료증 발급 강의
입문 초급 대상 중급이상
수강 전 궁금한 점이 있나요?
문의하기
연관 로드맵
이 강의가 포함된 잘 짜여진 로드맵을 따라 학습해 보세요!
문의
지식공유자 되기
많은 사람들에게 배움의 기회를 주고,
경제적 보상을 받아보세요.
지식공유참여
기업 교육을 위한 인프런
“인프런 비즈니스” 를 통해 모든 팀원이 인프런의 강의를
자유롭게 학습하는 환경을 제공하세요.
인프런 비즈니스