여러 Area를 동시에 학습
안녕하세요,
Drone 강의 부분에서, Area를 GridWorld에서 했던 것처럼 여러 Area를 복사하여 한 씬에 넣고 동시에 학습시키면 step이 빨리 오르는 효과를 볼 수 있을 것 같다고 생각했습니다.
한 area를 여러 개 복사한 뒤에 학습을 진행하려 했는데, 다음과 같은 오류로 잘 되지 않았습니다.
어떻게 해결해 볼 수 있을까요?
critic_loss = F.mse_loss(target_q, q)
Traceback (most recent call last):
File "DDPG.py", line 240, in <module>
actor_loss, critic_loss = agent.train_model()
File "DDPG.py", line 144, in train_model
reward = np.stack([b[2] for b in batch], axis=0)
File "<__array_function__ internals>", line 6, in stack
File "C:\Users\anaconda3\envs\mlagent2\lib\site-packages\numpy\core\shape_base.py", line 426, in stack
raise ValueError('all input arrays must have the same shape')
ValueError: all input arrays must have the same shape
답변 1
2
안녕하세요!
여러 학습 환경을 구성해서 사용하시는 경우 다수의 관측 정보가 환경에서 파이썬 코드로 넘어오고 파이썬에서도 다수의 행동 정보를 유니티 환경으로 보내야합니다!
이에 따라 기존 코드를 사용하시면 여러 상태가 한꺼번에 넘어온 상태라 입력의 크기가 맞지 않을 것 같습니다! 요 내용은 분산 학습이라 저희가 제작 중인 응용편에서 다룰 예정인데요!
이 코드가 저희가 응용편에서 다룰 분산학습이 적용된 PPO 코드인데 이 내용 참고해보시면 분산 환경처리를 어떻게 할 수 있는지 참고하실 수 있을 것 같습니다!
설치 프로그램 버전 질문있습니다.
0
74
2
env 환경경로 입력방법
0
78
2
onnx에 대해서
0
110
1
텐서플로우가 안열립니다
0
101
2
DQN을 위한 파라메터값 세팅에서 goal-plus, goal-ex
0
79
1
dqn 인덱스 에러
0
92
3
2025년 pip ml agents 설치 에러
0
215
1
DQN 실행 오류
0
307
2
ML-Agents 살펴보기 11페이지 질문입니다.
0
210
1
배웠던 내용을 기반으로 match3 인공지능으로 플레이 하는 걸 만들고 있는데.. 질문이 있습니다.
0
378
2
3DBall 학습 중 문제
0
218
1
mlagents-learn --hlep
0
236
1
DQN 환경 학습
0
366
3
DQN 함수를 어디에다 만들고 실행하나요??>?>
0
335
1
갑자기 Template>Scripts 폴더는 어디에서 만들어졌는지...
0
279
2
mlagents-learn 에러 수정 방법을 문의드립니다.
0
643
3
Pyuthon API 적용
0
701
7
GridWorld, CollectObservations에서 에러 질문입니다.
0
641
1
yaml을 이용한 GAIL 및 BC를 mlagents-learn으로 실행 시 에러
0
456
1
GridWorld, 유니티에서 실행하면 observation 관련 에러가 뜹니다.
0
489
2
PPO Parameters에서 normalize 관련 질문입니다.
0
356
1
GridWorld 가 작동은 잘 되는데, score가 너무 낮게 나와요.
0
568
3
GridWorld가 움직이지 않고, time out 으로 중지됩니다.
0
483
2
싱글에이전트 코드를 멀티에이전트 코드로 수정 관련
0
408
2





