88,000원
월 17,600원
5개월 할부 시
중급자를 위해 준비한
[데이터 분석] 강의입니다.
심층 강화학습(Deep Reinforcement Learning)에 대한 필수 이론 학습을 통해 강화학습 기초 개념을 탄탄히 다지고, TensorFlow를 이용한 실제 코드 구현 실습을 통해 심층 강화학습의 원리를 자세히 학습할 수 있는 강의입니다.
✍️
이런 걸
배워요!
이런 걸
배워요!
심층 강화학습(Deep Reinforcement Learning)의 기초와 원리
기본 DQN과 Double Q-Learning, Duel Q-Learning, Prioritized Experience Replay(PER) 최신 논문에서 제안된 심화 DQN 기법
Vanila Policy Gradient(REINFORCE) 기법과 Actor-Critic Method 심화 Policy Gradient 기법(Proximal Policy Optimization[PPO])
심층 강화학습 기초 개념부터 최신 기법까지!
심층 강화학습 기본 원리 + Double DQN, Duel DQL, PER 최신 모델
심층 강화학습 기초 개념부터 최신 논문에서 제안된 다양한 기법들을 함께 다룹니다. 자세한 설명과 TensorFlow 코드 실습을 통해 튼튼하게 익혀보세요 😀
자세한 설명, 단계별 학습 +
최신 모델 구현까지 한번에!
Step 1 ✍️
자세한 설명과 단계별 학습을 통해 심층 강화학습(Deep Reinforcement Learning)의 개념과 원리를 탄탄하게 학습합니다.
Step 2 👨🏻💻
Double DQN, Duel DQN, PER와 Actor-Critic까지 최신 심층 강화학습 모델을 TensorFlow(텐서플로) 2.0을 이용해서 구현해 봅시다.
선수 강의 ✅
👋 본 강의는 TensorFlow 2.0과 딥러닝 기초에 대한 선수 지식이 필요한 강의입니다. 반드시 아래 강의를 먼저 수강하시거나 그에 준하는 지식을 갖춘 뒤 본 강의를 수강하세요.
👉 딥러닝 핵심 이론과 최신 TensorFlow 2.0을 이용한 딥러닝 코드 구현을 한번에 배울 수 있는 강의입니다.
이런 분들께 추천드려요!
🎓
학습 대상은
누구일까요?
학습 대상은
누구일까요?
심층 강화학습(Deep Reinforcement Learning)의 개념과 원리를 탄탄히 학습하고 싶은 분
심층 강화학습(Deep Reinforcement Learning)의 다양한 알고리즘을 실제 TensorFlow 코드로 구현해보고 싶은 분
심층 강화학습(Deep Reinforcement Learning)의 다양한 최신 논문을 살펴보고 싶은 분
📚
선수 지식,
필요할까요?
선수 지식,
필요할까요?
Python 사용경험
선수강의 [TensorFlow 2.0으로 배우는 딥러닝 입문] 수강경험
안녕하세요
AISchool 입니다.
AISchool 입니다.
- AISchool ( http://aischool.ai/ )
- AISchool 유튜브 채널 운영 ( https://www.youtube.com/@aischool_ai )
- 서울대학교 인공지능 및 컴퓨터 비전 연구실 석사
- [솔라리스의 인공지능 연구실] 블로그 운영
- [텐서플로로 배우는 딥러닝] 집필
- S전자 컴퓨터 비전 관련 프로젝트 수행
- 기업대상 [AI 컨설팅 서비스] 제공
- 에이아이스쿨 [TensorFlow와 실습 프로젝트로 배우는 딥러닝-컴퓨터비전 Basic 코스] 강의 진행
커리큘럼
총 33 개
˙ 5시간 21분의 수업
이 강의는 영상, 수업 노트, 첨부 파일이 제공됩니다. 미리보기를 통해 콘텐츠를 확인해보세요.
섹션 0. 강의 슬라이드 다운로드
1 강
강의 슬라이드 다운로드
섹션 1. 1강 - 강화학습(Reinforcement Learning)이란
3 강
∙ 28분
지도학습(Supervised Learning), 비지도학습(Unsupervised Learning), 강화학습(Reinforcement Learning)
12:21
Reward Hypothesis & 강화학습의 장단점
07:19
강화학습 응용사례 Case Study & 강화학습 알고리즘 분류
미리보기
09:01
섹션 2. 2강 - MDP(Markov Decision Process)
3 강
∙ 32분
MDP(Markov Decision Process), Markov Process(MP), Markov Property
11:48
MRP(Markov Reward Process), MDP(Markov Decision Process), 상태 가치 함수(State-Value Function), 행동 가치 함수(Action-Value Function)
13:32
Grid-World 예제, 최적의 정책(Optimal Policy)
07:21
섹션 3. 3강 - 행동가치함수 추정하기 - MC, SARSA, Q-Learning
9 강
∙ 1시간 9분
행동가치함수 추정하기 - MC, SARSA
16:58
Q-Learning, On-policy vs Off-policy
08:46
Discrete Action space vs Continuous Action space
04:46
OpenAI Gym 소개 - Cartpole 예제
04:58
Google Colab 소개
06:45
OpenAI Gym Cartpole 예제 구현
06:34
Q-Table을 활용한 Q-Learning, OpenAI Gym FrozenLake
미리보기
07:32
Q-Table을 활용한 Q-Learning 에이전트 구현 - FrozenLake
11:26
Q-Table 방식의 한계
02:12
섹션 4. 4강 - 딥러닝과 강화학습의 결합 - DQN(Deep-Q-Networks)
5 강
∙ 39분
Deep-Q-Networks(DQN) 기법
06:19
입실론-그리디(epsilon-greedy) 기법
04:44
Exploration vs Exploitation
04:08
딥마인드(DeepMind) DQN & 리플레이 메모리(Replay Memory)
미리보기
08:49
TensorFlow를 이용한 DQN 에이전트 구현 - CatchGame
15:48
섹션 5. 5강 - 기본 DQN 개선하기 - Double-Q-Learning, Duel-Q-Learning, PER(Prioritized Experience Replay)
5 강
∙ 1시간 1분
Double Q-Learning
12:49
Duel Q-Learing
10:06
Prioritized Experience Replay(PER)
15:48
Huber Loss(후버 로스)
03:59
TensorFlow를 이용한 Double DQN 구현 - Cartpole 예제
19:00
섹션 6. 6강 - Policy Gradient(정책 경사법)
7 강
∙ 1시간 28분
Policy Gradient (정책 경사법) 소개 & Vanila policy gradient(REINFORCE) 알고리즘
11:36
Vanila policy gradient(REINFORCE) 알고리즘 구현 - Cartpole 예제
11:56
액터-크리틱 메소드(Actor-Critic Method) - Q-Actor-Critic
07:01
Advantage-Actor-Critic
미리보기
06:07
TensorFlow를 이용한 Actor-Critic Networks 구현 - Cartpole 예제
11:50
Proximal Policy Optimization (PPO) 기법
19:50
Proximal Policy Optimization (PPO) 구현 - Cartpole 예제
20:04
강의 게시일 : 2022년 12월 05일
(마지막 업데이트일 : 2022년 12월 18일)