Thumbnail
인공지능 딥러닝 · 머신러닝

TensorFlow로 배우는 심층 강화학습 입문 - Deep Reinforcement Learning 대시보드

(5)
1개의 수강평 ∙  54명의 수강생
88,000원

월 17,600원

5개월 할부 시
지식공유자: AISchool
총 33개 수업 (5시간 21분)
수강기한: 
무제한
수료증: 발급
난이도: 
입문
-
초급
-
중급이상
지식공유자 답변이 제공되는 강의입니다
폴더에 추가 공유

중급자를 위해 준비한
[데이터 분석] 강의입니다.

심층 강화학습(Deep Reinforcement Learning)에 대한 필수 이론 학습을 통해 강화학습 기초 개념을 탄탄히 다지고, TensorFlow를 이용한 실제 코드 구현 실습을 통해 심층 강화학습의 원리를 자세히 학습할 수 있는 강의입니다.

✍️
이런 걸
배워요!
심층 강화학습(Deep Reinforcement Learning)의 기초와 원리
기본 DQN과 Double Q-Learning, Duel Q-Learning, Prioritized Experience Replay(PER) 최신 논문에서 제안된 심화 DQN 기법
Vanila Policy Gradient(REINFORCE) 기법과 Actor-Critic Method 심화 Policy Gradient 기법(Proximal Policy Optimization[PPO])

심층 강화학습 기초 개념부터 최신 기법까지!

심층 강화학습 기본 원리 + Double DQN, Duel DQL, PER 최신 모델

심층 강화학습 기초 개념부터 최신 논문에서 제안된 다양한 기법들을 함께 다룹니다. 자세한 설명과 TensorFlow 코드 실습을 통해 튼튼하게 익혀보세요 😀

자세한 설명, 단계별 학습 +
최신 모델 구현까지 한번에! 

Step 1 ✍️ 
자세한 설명과 단계별 학습을 통해 심층 강화학습(Deep Reinforcement Learning)의 개념과 원리를 탄탄하게 학습합니다.

Step 2 👨🏻‍💻 
Double DQN, Duel DQN, PER와 Actor-Critic까지 최신 심층 강화학습 모델을 TensorFlow(텐서플로) 2.0을 이용해서 구현해 봅시다. 

선수 강의 ✅

👋 본 강의는 TensorFlow 2.0과 딥러닝 기초에 대한 선수 지식이 필요한 강의입니다. 반드시 아래 강의를 먼저 수강하시거나 그에 준하는 지식을 갖춘 뒤 본 강의를 수강하세요.

👉 딥러닝 핵심 이론과 최신 TensorFlow 2.0을 이용한 딥러닝 코드 구현을 한번에 배울 수 있는 강의입니다.

이런 분들께 추천드려요!

🎓
학습 대상은
누구일까요?
심층 강화학습(Deep Reinforcement Learning)의 개념과 원리를 탄탄히 학습하고 싶은 분
심층 강화학습(Deep Reinforcement Learning)의 다양한 알고리즘을 실제 TensorFlow 코드로 구현해보고 싶은 분
심층 강화학습(Deep Reinforcement Learning)의 다양한 최신 논문을 살펴보고 싶은 분
📚
선수 지식,
필요할까요?
Python 사용경험
선수강의 [TensorFlow 2.0으로 배우는 딥러닝 입문] 수강경험

안녕하세요
AISchool 입니다.
AISchool의 썸네일
커리큘럼 총 33 개 ˙ 5시간 21분의 수업
이 강의는 영상, 수업 노트, 첨부 파일이 제공됩니다. 미리보기를 통해 콘텐츠를 확인해보세요.
섹션 0. 강의 슬라이드 다운로드
강의 슬라이드 다운로드
섹션 1. 1강 - 강화학습(Reinforcement Learning)이란
지도학습(Supervised Learning), 비지도학습(Unsupervised Learning), 강화학습(Reinforcement Learning) 12:21
Reward Hypothesis & 강화학습의 장단점 07:19
강화학습 응용사례 Case Study & 강화학습 알고리즘 분류 미리보기 09:01
섹션 2. 2강 - MDP(Markov Decision Process)
MDP(Markov Decision Process), Markov Process(MP), Markov Property 11:48
MRP(Markov Reward Process), MDP(Markov Decision Process), 상태 가치 함수(State-Value Function), 행동 가치 함수(Action-Value Function) 13:32
Grid-World 예제, 최적의 정책(Optimal Policy) 07:21
섹션 3. 3강 - 행동가치함수 추정하기 - MC, SARSA, Q-Learning
행동가치함수 추정하기 - MC, SARSA 16:58
Q-Learning, On-policy vs Off-policy 08:46
Discrete Action space vs Continuous Action space 04:46
OpenAI Gym 소개 - Cartpole 예제 04:58
Google Colab 소개 06:45
OpenAI Gym Cartpole 예제 구현 06:34
Q-Table을 활용한 Q-Learning, OpenAI Gym FrozenLake 미리보기 07:32
Q-Table을 활용한 Q-Learning 에이전트 구현 - FrozenLake 11:26
Q-Table 방식의 한계 02:12
섹션 4. 4강 - 딥러닝과 강화학습의 결합 - DQN(Deep-Q-Networks)
Deep-Q-Networks(DQN) 기법 06:19
입실론-그리디(epsilon-greedy) 기법 04:44
Exploration vs Exploitation 04:08
딥마인드(DeepMind) DQN & 리플레이 메모리(Replay Memory) 미리보기 08:49
TensorFlow를 이용한 DQN 에이전트 구현 - CatchGame 15:48
섹션 5. 5강 - 기본 DQN 개선하기 - Double-Q-Learning, Duel-Q-Learning, PER(Prioritized Experience Replay)
Double Q-Learning 12:49
Duel Q-Learing 10:06
Prioritized Experience Replay(PER) 15:48
Huber Loss(후버 로스) 03:59
TensorFlow를 이용한 Double DQN 구현 - Cartpole 예제 19:00
섹션 6. 6강 - Policy Gradient(정책 경사법)
Policy Gradient (정책 경사법) 소개 & Vanila policy gradient(REINFORCE) 알고리즘 11:36
Vanila policy gradient(REINFORCE) 알고리즘 구현 - Cartpole 예제 11:56
액터-크리틱 메소드(Actor-Critic Method) - Q-Actor-Critic 07:01
Advantage-Actor-Critic 미리보기 06:07
TensorFlow를 이용한 Actor-Critic Networks 구현 - Cartpole 예제 11:50
Proximal Policy Optimization (PPO) 기법 19:50
Proximal Policy Optimization (PPO) 구현 - Cartpole 예제 20:04
강의 게시일 : 2022년 12월 05일 (마지막 업데이트일 : 2022년 12월 18일)
수강평 총 1개
수강생분들이 직접 작성하신 수강평입니다.
VIEW 추천 순 최신 순 높은 평점 순 낮은 평점 순 평점 순 높은 평점 순 낮은 평점 순
dongryeol.kim thumbnail
5
유익한 교육이었습니다.
2023-07-03