inflearn logo
강의

Course

Instructor

Mastering Unity Machine Learning Agents (Application Edition)

PPO Practice 2

(PPO 실습 2) total_loss 구하는 코드에서 action entropy 는 어떻게 계산된 것인지 궁금합니다.

Resolved

338

y2gon28999

1 asked

0

우선 좋은 수업 감사드립니다.

 

PPO 알고리즘 수업에서 PPO Actor-Critic Network 의 전체 손실 값은 clipped surrogate objective - c1 * value loss (critic loss) + c2 * action entropy 라고 배웠는데, 관련 부분에 대한 코드를 보면

actor_loss = -torch.min(surr1, surr2).mean()
critic_loss = F.mse_loss(value, _ret).mean()
total_loss = actor_loss + critic_loss

로 action entropy 에 대한 연산은 없는 것 같아 보입니다. 혹시 제가 잘못 알고 있거나, 다른 부분에서 이미 고려된 것이라면, 알려주시길 부탁 드립니다.

아니면 고려하지 않아도 되는 조건이라면 어떤 이유가 있는지 알고 싶습니다.

 

감사합니다.

 

unity 강화학습 unity-ml-agents

Answer 1

1

ramanuzan

용곤님 안녕하세요!

 

말씀해주신대로 PPO에서 action entropy값을 손실함수로 사용할 수 있습니다.

다만 해당 값은 선택적인 부분이라고 생각하고, 강의 환경들에서 clipped surrogate objective 값만 가지고 학습이 잘 되어서 생략하였습니다!

 

감사합니다.

1

y2gon28999

답변 감사드립니다!!

코드 관련 질문

0

17

2

섹션7 수업자료 업로드 부탁드립니다.

0

19

2

소리가 겹쳐서 들려요

0

17

2

Dictionary Key를 int에서 string으로 변경한 이유에 대한 문의

0

17

1

UI 기능 관련 질문이 있습니다!

0

37

2

03-01 (16. CharacterController)

0

30

2

TLS 질문드립니다.

0

43

2

Task 구현 28:36 Equals 에서 잘 모르는 부분이 있습니다.

0

27

2

SpinLock과 컨텍스트스위칭에 대해 질문 남겨요.

0

46

2

전 강의와 전혀 이어지지가 않음

0

29

1

pytorch local 설치 옵션에 conda 가 없습니다.

0

38

3

픽셀 좌표 스크린 좌표

0

33

0

Locomotion랑 Turn 이 꼭 부모 자식 관계일 필요가 있나요?

0

24

1

LobbyUIController의 백키가 사라졌는데 왜그런건가요?

0

41

2

무조건 타이틀 씬부터 시작해야하나요?

0

40

1

BaseUI, UIManager

0

51

3

프로젝트 완성본 문의

0

41

2

Unity Span

0

76

2

씬 배치 구조에서 Addressables를 어떻게 적용해야 하는지 궁금합니다.

0

55

1

39. Main화면 추가 UI 에서 자료는 어디서 받나요??

0

36

1

Scene 전환에서

0

27

1

닷지 ckpt 모델 파일을 onnx변환 후 unity에서 추론

0

149

2

예제 파일 실행 오류

0

290

1

PPO 알고리즘을 ml-agents learn 명령어로 학습 및 추론할때 메소드 호출 순서 질문

0

364

1