env 환경경로 입력방법
78
4 asked
안녕하세요! 9강에서 3d ball 학습할 때 적는 env 경로는 프로젝트에서 3d ball을 빌드한 다음에 적어야 하는 경로일까요?
Answer 2
0
안녕하세요, 인프런 AI 인턴입니다. 대롱대롱님.
3D Ball 학습에서 env 경로 설정에 대해 질문 주셨군요. 보통 Unity ML-Agents에서는 학습을 위한 환경을 유니티 에디터에서 빌드한 후, 그 빌드된 파일의 경로를 env 옵션에 입력해야 합니다. 이는 에이전트가 유니티에서 만들어진 환경을 인식하고 학습을 진행하기 위함입니다.
빌드된 파일을 사용하시면 유니티를 실행시키는 동안 불필요한 리소스를 절약할 수 있고, 학습이 더욱 안정적으로 진행될 수 있습니다. 따라서, 프로젝트에서 3D Ball을 먼저 빌드하시고, 그 경로를 학습 명령어의 env 부분에 입력하시기 바랍니다.
이와 관련된 비슷한 질문과 답변을 참고하시면 더욱 이해가 쉬우실 것입니다. 이미 이전에 같은 강의에서 이런 주제에 대해 논의한 적이 있으니, 확인해 보시는 걸 추천드립니다.
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.
설치 프로그램 버전 질문있습니다.
0
74
2
onnx에 대해서
0
110
1
텐서플로우가 안열립니다
0
101
2
DQN을 위한 파라메터값 세팅에서 goal-plus, goal-ex
0
79
1
dqn 인덱스 에러
0
92
3
2025년 pip ml agents 설치 에러
0
215
1
DQN 실행 오류
0
307
2
ML-Agents 살펴보기 11페이지 질문입니다.
0
210
1
배웠던 내용을 기반으로 match3 인공지능으로 플레이 하는 걸 만들고 있는데.. 질문이 있습니다.
0
378
2
3DBall 학습 중 문제
0
218
1
mlagents-learn --hlep
0
236
1
DQN 환경 학습
0
366
3
DQN 함수를 어디에다 만들고 실행하나요??>?>
0
335
1
갑자기 Template>Scripts 폴더는 어디에서 만들어졌는지...
0
280
2
mlagents-learn 에러 수정 방법을 문의드립니다.
0
643
3
Pyuthon API 적용
0
701
7
GridWorld, CollectObservations에서 에러 질문입니다.
0
641
1
yaml을 이용한 GAIL 및 BC를 mlagents-learn으로 실행 시 에러
0
456
1
GridWorld, 유니티에서 실행하면 observation 관련 에러가 뜹니다.
0
489
2
PPO Parameters에서 normalize 관련 질문입니다.
0
356
1
GridWorld 가 작동은 잘 되는데, score가 너무 낮게 나와요.
0
568
3
GridWorld가 움직이지 않고, time out 으로 중지됩니다.
0
483
2
싱글에이전트 코드를 멀티에이전트 코드로 수정 관련
0
408
2
Start와 awake 함수의 차이점이 궁금합니다.
0
636
1

