(PPO 실습 2) total_loss 구하는 코드에서 action entropy 는 어떻게 계산된 것인지 궁금합니다.
우선 좋은 수업 감사드립니다.
PPO 알고리즘 수업에서 PPO Actor-Critic Network 의 전체 손실 값은 clipped surrogate objective - c1 * value loss (critic loss) + c2 * action entropy 라고 배웠는데, 관련 부분에 대한 코드를 보면
actor_loss = -torch.min(surr1, surr2).mean()
critic_loss = F.mse_loss(value, _ret).mean()
total_loss = actor_loss + critic_loss로 action entropy 에 대한 연산은 없는 것 같아 보입니다. 혹시 제가 잘못 알고 있거나, 다른 부분에서 이미 고려된 것이라면, 알려주시길 부탁 드립니다.
아니면 고려하지 않아도 되는 조건이라면 어떤 이유가 있는지 알고 싶습니다.
감사합니다.
Answer 1
1
용곤님 안녕하세요!
말씀해주신대로 PPO에서 action entropy값을 손실함수로 사용할 수 있습니다.
다만 해당 값은 선택적인 부분이라고 생각하고, 강의 환경들에서 clipped surrogate objective 값만 가지고 학습이 잘 되어서 생략하였습니다!
감사합니다.
클로드코드 + 유니티 컨텐츠만들기 응용에 대하여 질문드립니다.
0
6
1
매니저 관련 질문이 있습니다.
0
23
2
Instantiate
0
22
1
유니티 허브 다운로드
1
32
2
비쥬얼 스튜디오에서 unity연결이 없습니다.
0
50
2
UserDataManager 클래스 hasSaveError 처리
0
28
2
제공해주신 자료에 스크립트들이 빠져있습니다
0
27
2
플레이어를 왜 ECS로 만드는 건가요?
0
31
1
싱글턴패턴
0
31
2
코드 관련 질문
0
32
2
섹션7 수업자료 업로드 부탁드립니다.
0
36
2
소리가 겹쳐서 들려요
0
33
2
Dictionary Key를 int에서 string으로 변경한 이유에 대한 문의
0
25
1
UI 기능 관련 질문이 있습니다!
0
50
2
03-01 (16. CharacterController)
0
39
2
TLS 질문드립니다.
0
54
2
Task 구현 28:36 Equals 에서 잘 모르는 부분이 있습니다.
0
34
2
SpinLock과 컨텍스트스위칭에 대해 질문 남겨요.
0
57
2
전 강의와 전혀 이어지지가 않음
0
36
1
pytorch local 설치 옵션에 conda 가 없습니다.
0
42
3
픽셀 좌표 스크린 좌표
0
35
0
닷지 ckpt 모델 파일을 onnx변환 후 unity에서 추론
0
153
2
예제 파일 실행 오류
0
292
1
PPO 알고리즘을 ml-agents learn 명령어로 학습 및 추론할때 메소드 호출 순서 질문
0
367
1

