model based
56
投稿した質問数 18
model based method 에서
모델을 안다는 것이, value function 정보까지 다 알고 있다는 것일까요?
만약 아니라면, planning 시 가치함수는 어떻게 고려가 되는 것인지 궁금합니다.
回答 1
1
모델을 안다는 것은 환경의 전이 규칙과 보상 구조를 안다는 뜻이지, 가치함수를 이미 다 알고 있다는 뜻은 아닙니다.
가치함수는 그 모델을 바탕으로 계산하거나 추론해서 얻는 것입니다.
그래서 planning 단계에서는 모델을 이용해 미래를 시뮬레이션하고, 그 결과로 가치함수를 업데이트해 정책을 개선합니다.
좋은 질문 감사합니다.
소리가 겹쳐서 들려요
0
20
2
전 강의와 전혀 이어지지가 않음
0
30
1
pytorch local 설치 옵션에 conda 가 없습니다.
0
38
3
강화학습저장 및 로드
0
57
1
16:07슬라이드에소 헷갈리는 부분이 있습니다
0
65
2
미분 결과가 왜 저렇게 나오는지 궁금합니다.
0
73
1
Taxi-v3에 대한 두 가지질문
0
51
1
그림에 대해서 잘 이해가 안됩니다.
0
55
1
stochastic state 관련
0
69
2
reward, value functnio
0
67
2
전이확률 / stochastic env.
0
65
1
확률론적 policy 관련
0
47
1
time sequential data 관련
0
57
2
Deep Q-Learning algorithm에 대하여
0
85
2
Cartpole 환경 이해 및 시각화 관련 문의
0
111
3
실습-얼어붙은 호수(Frozen Lake) - 정책 반복 알고리즘 구현 argmax
0
108
1
실습에러 TImelimit
0
151
2
실습
0
266
6
강의자료
0
131
2
강의 36강에서의 질문
0
179
1
Pytorch 설치 GPU 버전으로 다운해도 되나요?
0
354
2
정책 반복 알고리즘 구현 에서 정책 업데이트 메모리 문제
0
219
1
반복 정책 평가 실습 알고리즘에서 이론과 코드가 헷갈려서요.
0
341
2
강의코드 110_basic_operations_for ... 코드 실행 시 문제
1
311
1

