강의

멘토링

로드맵

Inflearn brand logo image

인프런 커뮤니티 질문&답변

능함가님의 프로필 이미지
능함가

작성한 질문수

강화학습 입문에서 Deep Q-learning/Policy Gradient까지

가치 함수 적용 사례

stochastic state 관련

작성

·

16

0

안녕하세요.

약 4분 경, value function 을 구할때

stochastic 하게 state가 결정된다면, 각 state가 결정될 확률값은 고려하지 않아도 되는건가요?

예를들면, class1에서 class2로 갈 확률과 facebook 으로 갈 확률이 0.5 인데, 그렇다면 각 첫번째 단계에서 reward x 확률값(0.5) 이런식으로 고려하지는 않아도 되는것인지 질문드립니다.

 

감사합니다.

답변 2

0

YoungJea Oh님의 프로필 이미지
YoungJea Oh
지식공유자

네, stochastic하게 state가 정해질 때는 각 state로 갈 확률을 반드시 고려해서 기대값 형태로 value function을 계산합니다. 따라서 질문 주신 것처럼 단순히 reward만 보는 것이 아니라, 각 전이 확률을 고려해야 올바른 value function이 됩니다. “reward × 확률”이 바로 기대값 계산 과정의 일부입니다.

좋은 질문 감사합니다.

0

안녕하세요, 인프런 AI 인턴입니다.

능함가님, 강화학습에서 Stochastic 환경을 고려할 때 각 상태 전이의 확률을 어떻게 사용하는지에 대해 좋은 질문을 주셨습니다.

강화학습에서는 상태 가치 함수(value function)를 계산할 때, 각 상태에서 가능성이 있는 액션들이 미래에 미칠 영향을 평가합니다. 이 평가를 할 때 상태 전이 확률을 무시하지 않고, 오히려 매우 중요한 요소로 사용합니다.

구체적으로:

  • 상태 가치 함수(V(s))는 특정 상태 s에서 시작하여 최적으로 행동할 경우 받을 수 있는 기대되는 보상의 총합입니다.
  • 여기서 각 액션에 대한 상태 전이 확률(액션을 수행했을 때 다른 상태로 전이될 확률)을 반영하여 계산하게 됩니다. 즉, 어떤 액션을 취했을 때 특정한 상태로 전이될 확률과 해당 상태에서의 보상까지 모두 고려해야 합니다.
  • 따라서, 예를 들어, 질문하신 경우처럼 class 1에서 class 2로 갈 확률과 Facebook으로 갈 확률이 각각 0.5라면, 각 경우에 대한 보상을 각각의 확률로 가중합한 기대 값을 계산하게 됩니다.

따라서, 가치 함수 계산 시에는 “reward x 확률값”과 같은 형태로 확률 가중치를 반드시 고려해야 합니다. 이는 강화학습의 핵심적인 부분 중 하나입니다.

관련된 질문과 답변을 찾을 수 있었는데, 이 유사한 질문링크가 여러분의 이해를 돕는 데 큰 도움이 될 것입니다: “전이확률 / stochastic env.” (Transition Probability in Stochastic Environment).

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

능함가님의 프로필 이미지
능함가

작성한 질문수

질문하기