Thumbnail
인공지능 딥러닝 · 머신러닝

R로 쉽게 배우는 강화학습 대시보드

(5)
2개의 수강평 ∙  90명의 수강생

55,000원

지식공유자: 코코
총 20개 수업 (4시간 31분)
수강기한: 
무제한
수료증: 발급
난이도: 
입문
-
초급
-
중급이상
지식공유자 답변이 제공되는 강의입니다
폴더에 추가 공유

중급자를 위해 준비한
[데이터 분석, 딥러닝 · 머신러닝] 강의입니다.

Q-learning부터 Deep Q-learning에 대해 배우고, 강화학습을 R로 구현해 보는 시간을 가집니다. Deep Q-network을 넘어서 Self-imitation learning과 Random Netowrk Distillation 까지 전체적인 강화학습 내용을 다룹니다.

✍️
이런 걸
배워요!
강화학습이론
Q-learning부터 Deep Reinforcement Learning까지
Exploration을 위한 여러 강화학습 기법들

🙆🏻‍♀ Q-learning과 Deep Q-learning을 넘어서 RND까지🙆🏻‍♂

🗒 강의소개

알파고로 시작된 강화학습의 붐, 강화학습은 알파고가 나오기 오래전부터 존재했던 알고리즘이라는 사실 알고 계셨나요?

강화학습은 일반적으로 공부를 하기에 진입장벽이 높은 분야로 알려져 있습니다. 알파고가 나오면서부터 많은 사람들이 관심을 가지기 시작했지만, 내용이 쉽지 않아 공부하기가 어렵습니다. 강화학습을 공부하고 싶었지만 어려워서 시작도 못하신 분을 위해 중요한 부분만 골라 요약해서 알려드립니다. Q-learning부터 DQN 그리고 DQN을 넘어서 강화학습의 주된 문제인 sparse reward problem과 이를 해결 하기 위한 여러 아이디어들을 소개합니다. 짧은 시간안에 강화학습을 전체적으로 공부할 수 있는 좋은 강의가 될 것 입니다. 

🌈 강화학습이 대체 무엇인지.

강화학습이 대체 무엇인지, 강화학습엔 어떠한 요소가 있고 어떻게 학습이 진행이 되는지 예를들어 차근차근 설명합니다.

🌈 손으로 직접 풀어보는 Q-learning

말로만 설명해서는 이해가 잘 되지 않아요. 손으로 직접 Q-learing을 풀어보면서 강화학습에 대한 개념을 제대로 이해해 봅시다.


🌈 Deep Reinforcemen learning의 기본이 되는 DQN

Deep reinforcement learning의 기본이는 Deep Q-network (DQN)부터 PerDQN을 포함한 여러 DQN변형들, actorcritic, Self-Imitation learing 까지 중요한 내용을 핵심적으로 요약합니다.

🌈 강화학습의 주된 문제인 Sparse reward problem

강화 학습의 주된 문제인 sparse reward problem에 대해서 이야기 하고 이를 해결하기 위한 여러 기법들에 대해 이야기합니다.

우리는 주로 'curiosity' 또는 'prediction error'에 대해서 이야기 하고 이들을 활용한 여러 알고리즘에 대해 소개합니다.

(SIL,  Random Network Distillation 등)

🌈 R로 직접 구현해보는 DQN/ActorCritic/SIL/RND

직접 코드로 구현해보지 않으면 절반만 알고 있는 거겠죠 ? 가장 중요한 모델들에 대해 R로 직접 강화학습 알고리즘을 짜보고 결과를 같이 확인해 봅니다.

그리고 Exploration 을 위한 RND가 정말 효과가 있는지도 함께 확인해 보시죠.

🙋🏻‍♂️ 강의 관련 예상 질문

Q. 선수 지식이 있나요?
A. 머신러닝, NN에 대한 기본적인 개념이 있으신게 좋습니다.

Q. Python으로 실습을 하지는 않나요?
A. 현재는 R로 실습 코드를 구현해서 강의를 업로드 했고, 추후에 python으로 실습하는 코드를 업로드 할 예정입니다.(타 강의로 여는게 아니라 본 강의에 추가적으로 업로드할 예정입니다)

이런 분들께 추천드려요!

🎓
학습 대상은
누구일까요?
강화학습 쉽게 배우고 싶으신분
짧은 시간안에 전체적인 강화학습을 배우고 싶으신분
📚
선수 지식,
필요할까요?
R프로그래밍 중급 실력
Neural network에 대한 기본적인 이해
머신러닝에 대한 기본적인 지식

안녕하세요
코코 입니다.
코코의 썸네일

학부에서는 통계학을 전공하고 산업공학(인공지능) 박사를 받고 여전히 공부중인 백수입니다.

 

수상

ㆍ 제6회 빅콘테스트 게임유저이탈 알고리즘 개발 / 엔씨소프트상(2018)

ㆍ 제5회 빅콘테스트 대출 연체자 예측 알고리즘개발 / 한국정보통신진흥협회장상(2017)

ㆍ 2016 날씨 빅데이터 콘테스트/ 기상산업 진흥원장상(2016) 

ㆍ 제4회 빅콘테스트 보험사기 예측 알고리즘 개발 / 본선진출(2016)

ㆍ 제3회 빅콘테스트 야구 경기 예측 알고리즘 개발 / 미래창조과학부 장관상(2015)

* blog : https://bluediary8.tistory.com

주로 연구하는 분야는 데이터 사이언스, 강화학습, 딥러닝 입니다.

크롤링과 텍스트마이닝은 현재는 취미로 하고있습니다 :) 

크롤링을 이용해서 인기있는 커뮤니티 글만 수집해서 보여주는 마롱이라는 앱을 개발하였고

전국의 맛집리스트와 블로그를 수집해서 맛집 추천 앱도 만들었었죠 :) (시원하게 말아먹..)

지금은 인공지능을 연구하는 박사과정생입니다.

 

 

 

 

커리큘럼 총 20 개 ˙ 4시간 31분의 수업
이 강의는 영상, 첨부 파일이 제공됩니다. 미리보기를 통해 콘텐츠를 확인해보세요.
섹션 0. 오리엔테이션
섹션 1. 강화학습의 개념이해하기
강화학습이란? 미리보기 17:49
Q-learning의 개념 11:55
손으로 직접 풀어보는 Q-learning 26:57
섹션 2. Deep Reinforcement Learning
Q-learning과 Neural network의 만남 (Q-network) 17:00
Deep Q-network (DQN) 08:30
Deep Q-network (DQN) 실습 - 함수 소개 및 Environment소개 16:24
Deep Q-network (DQN) 실습 - 강화학습진행 23:51
DQN의 변형들 (PerDQN, NoisyNET, RainbowDQN) 16:48
PerDQN 실습 06:04
Policy based Reinforcement Learning (actor critic networK) 09:25
Actor-Critic Network 실습 20:51
Self-imitation Learning 06:17
Self-imitation Learning 실습 19:47
섹션 3. Exploration을 위한 알고리즘들
강화학습의 주된 문제 - Sparse Reward problem이란 13:43
HDQN, Curiosity 를 이용한 강화학습 11:46
Exploration의 끝판왕 Random Network Distillation (RND) 11:21
Self-imitation Learning + RND 실습 10:52
섹션 4. 수업 되돌아보기
Review 14:49
섹션 5. 강의자료
강의자료 + 코드
강의 게시일 : 2020년 01월 31일 (마지막 업데이트일 : 2020년 01월 31일)
수강평 총 2개
수강생분들이 직접 작성하신 수강평입니다.
VIEW 추천 순 최신 순 높은 평점 순 낮은 평점 순 평점 순 높은 평점 순 낮은 평점 순
Sehwan Yoo thumbnail
5
여러 강화학습 강의를 보려고 노력했지만, 저는 개인적으로 이분이 아주 잘 전체적인 설명, 강화학습의 그림을 흥미있게 설명해주시는 분이라고 생각이 듭니다. 아직 섹션2까지밖에 안봤지만 계속 궁금하게 만드네요. 다만 제가 R 에 대한 접근성이 떨어지다보니 코드 이해가 잘 안되서 얼른 Python 코드가 나왔으면 하는 바램이 큽니다.
2021-09-14
chihooi1985 thumbnail
5
많은 도움이 되었습니다
2021-02-25
연관 로드맵
이 강의가 포함된 잘 짜여진 로드맵을 따라 학습해 보세요!