📱인프런 모바일 App 😆
모두를 위한 딥러닝 - Deep Reinforcement Learning

모두를 위한 딥러닝 - Deep Reinforcement Learning

(26개의 수강평)

5534명의 수강생

무료

평생
초급, 중급
18개 수업, 총 3시간 43분

1. 강좌 소개

Reinforcement Learning(강화학습) 강좌는 홍콩과학기술대학교의 김성훈 교수님의 '모두를 위한 딥러닝' 시리즈의 두번째 강좌입니다. 앞선 강좌로  기본적인 머신러닝과 딥러닝 강좌 가 있습니다. 일주일에 한강좌씩 천천이 업데이트 예정입니다.

알파고와 이세돌의 경기를 보면서 이제 머신 러닝이 인간이 잘 한다고 여겨진 직관과 의사 결정능력에서도 충분한 데이타가 있으면 어느정도 또는 우리보다 더 잘할수도 있다는 생각을 많이 하게 되었습니다. Andrew Ng 교수님이 말씀하신것 처럼 이런 시대에 머신 러닝을 잘 이해하고 잘 다룰수 있다면 그야말로 "Super Power"를 가지게 되는 것이 아닌가 생각합니다.

더 많은 분들이 머신 러닝과 딥러닝에 대해 더 이해하고 본인들의 문제를 이 멋진 도구를 이용해서 풀수 있게 하기위해 비디오 강의를 준비하였습니다. 더 나아가 이론에만 그치지 않고 최근 구글이 공개한 머신러닝을 위한 오픈소스인 TensorFlow를 이용해서 이론을 구현해 볼수 있도록 하였습니다. 이 머신러닝, 딥러닝 강좌는 수학이나 컴퓨터 공학적인 지식이 없이도 쉽게 볼수 있도록 만들려고 노력하였습니다.

2. 도움되는 분들

  • 인공지능에 대해 관심이 있는 누구나
  • 머닝러신, 딥러닝의 개념을 이해하고 싶으신분
  • 머닝러신의 직접 구현해보고 싶으신 분
  • 앞선 기본적인 머신러닝과 딥러닝 강좌 를 학습하신 분
  • 강화학습에 대해 관심이 있는 분

3. 참고자료

이 비디오는 저도 인터넷등을 통해 공부하면서 만든것이며 아래 자료를 많이 사용하였습니다.

4. 지식공유자 소개

김성훈
Hong Kong University of Science and Technology 에서 컴퓨터 공학쪽으로 연구를 하고 있습니다. 비디오나 강의에 대한 의견이 있으시면 아래로 이메일을 보내 주시면 됩니다. hunkim+ml@gmail.com

지식공유자 소개

Sung Kim

교육과정

Lecture 1. 수업의 개요
수업의 개요
13 : 00
Lecture 2. OpenAI GYM 게임해보기
이론 - OpenAI GYM 게임해보기
10 : 00
실습 - OpenAI GYM 게임해보기
09 : 00
Lecture 3: Dummy Q-learning (table)
이론 - Dummy Q-learning (table)
21 : 00
실습 - Dummy Q-learning (table)
13 : 00
Lecture 4: Q-learning exploit&exploration and discounted reward
이론 - Q-learning exploit&exploration and discounted reward
17 : 00
실습 - Q-learning exploit&exploration and discounted reward
07 : 00
Lecture 5: Q-learning in non-deterministic world
이론 - Q-learning in non-deterministic world
14 : 00
실습 - Q-learning in non-deterministic world
09 : 00
실습 - Q-learning (Table) Demo by Jae Hyun Lee
01 : 00
Lecture 6: Q-Network
이론 - Q-Network
16 : 00
실습 1 - Q Network for Frozen Lake
18 : 00
실습 2 - Q Network for Cart Pole
21 : 00
Lecture 7: DQN
이론 - DQN
17 : 00
실습 - DQN 1 (NIPS 2013)
19 : 00
실습 - DQN 2 (Nature 2015)
16 : 00
실습 - DQN Cart Pole Demo
01 : 00
실습 - DQN Simple Pacman Demo (여러분은 최고 몇점까지 갈수 있나요?)
01 : 00

수강 후기

5.0
26개의 수강평
임정섭 2018.08.18
차근차근 충분한 설명 . 최고! 강화학습의 기본인 q function 설명부터 왜 q table이 아니라 q-net을 사용하는 지 q-net에서그 동안 sample correlation 문제와 unstationary target 문제가 있었는데 그것을 딥마인드에서 어떻게 해결했는지 차근차근 설명이 되어 짧은 시간내에 풍부하게 배울 수 있었습니다.
yujin han 1달 전
이해하기 쉽게 너무 잘 설명해주시네요!