Khóa học
Đánh giá khóa học
- Hoàn toàn chinh phục Unity Machine Learning Agent (phần ứng dụng)
- Cuộc chinh phục hoàn chỉnh của Unity Machine Learning Agent (Cơ bản)
- Cuộc chinh phục hoàn chỉnh của Unity Machine Learning Agent (Cơ bản)
- Hoàn toàn chinh phục Unity Machine Learning Agent (phần ứng dụng)
- Hoàn toàn chinh phục Unity Machine Learning Agent (phần ứng dụng)
Bài viết
Hỏi & Đáp
닷지 ckpt 모델 파일을 onnx변환 후 unity에서 추론
안녕하세요!저도 몇년 전에 시도했을 때는 onnx 변환까지는 됐는데 Unity 프로젝트에 적용했을 때 에러가 나는 문제가 있었습니다. ㅠㅠㅠ 아마 단순 변환이 아닌 듯 하여 해당 부분에 대해서는 공식 코드의 onnx 생성 코드를 참고해야 할 것 같습니다! 저도 과거에 최종적으로는 실패했던 부분이라 변환에 대해서는 지금 알려드리긴 어려울 듯 합니다! 저도 다시 한번 시도해보고 말씀드리겠습니다!
- 0
- 2
- 35
Hỏi & Đáp
텐서플로우가 안열립니다
안녕하세요!현재 result라는 파일에서 tensorboard를 실행하신 듯 한데요!event 파일이 있는 폴더에서 한번 실행해보시면 좋을 것 같습니다!아니면 오른쪽 위에 Inactive라고 되어있는 부분을 클릭했을 때 Scalar라고 뜨는 부분이 있다면 해당 부분을 클릭해야되는 것으로 알고 있습니다!한번 확인해보시고 잘 안되는 부분 있으시면 말씀해주세요!
- 0
- 2
- 35
Hỏi & Đáp
onnx에 대해서
안녕하세요! 코드를 직접 짠 경우에는 ckpt나 pth 같이 pytorch 모델 저장 형식으로 저장됩니다! onnx로 사용하고 싶다면 이 파일을 직접 onnx로 변환해야하는데 제가 몇년 전에 시도했을 때는 onnx 변환까지는 됐는데 Unity 프로젝트에 적용했을 때 에러가 나는 문제가 있었습니다. 아마 단순 변환이 아닌 듯 하여 해당 부분에 대해서는 공식 코드의 onnx 생성 코드를 참고해야 할 것 같습니다!
- 0
- 1
- 28
Hỏi & Đáp
dqn 인덱스 에러
그리고 강의는 A2C 실습 부분인듯 한데 혹시 OBS가 Vector obs 일까요?
- 0
- 3
- 33
Hỏi & Đáp
dqn 인덱스 에러
안녕하세요! 여기서 인덱스 에러가 발생하는 것 보면 골 정보가 obs에 포함되어 있지 않거나 뭔가 문제가 있어보이는데요...!혹시 유니티나 ML-Agents는 어떤 버전을 사용하고 계실까요? 버전에 따라 이런 에러가 발생할 수 있고 특히 최신 ML-Agents 버전에서 시각적 관측 사용할 때 에러가 잘 난다고 알고있어서 확인해보면 좋을 것 같습니다!
- 0
- 3
- 33
Hỏi & Đáp
2025년 pip ml agents 설치 에러
안녕하세요!pip에 해당 버전이 없어서 나는 에러인데요! 저도 전에 파이썬 버전 때문에 이 에러가 났었던 것으로 기억합니다! 파이썬 버전 어떤거 사용하실까요? 3.10으로 한번 진행해보시겠어요?
- 0
- 1
- 136
Hỏi & Đáp
DQN 실행 오류
안녕하세요! 학습에 들어가면서 에러가 발생하는 듯 합니다! 오류 내용을 보니 이미지 입력과 네트워크에서 해당 이미지 입력을 처리하는 차원이 달라 발생하는 문제인 듯 합니다! 유니티 환경에서 이미지 입력의 설정과 파이썬 코드상에서 state_size를 어떻게 설정하셨는지 확인해보시면 좋을 것 같습니다! 입력으로 사용되는 이미지 정보를 출력해보셔도 좋을 것 같습니다!
- 0
- 2
- 257
Hỏi & Đáp
ML-Agents 살펴보기 11페이지 질문입니다.
안녕하세요! 저도 맥 버전으로 열어봤는데 기존과 같이 default, GPU, Burst, CPU로 나오는 것으로 확인했습니다. 검색해보니 최신 버전인 ML-Agents 3.0.0의 경우 Inference Device가 말씀주신 이름들로 설정이 되어있는 듯 합니다. 이에 따라 버전 변화에 따라 이름이 바뀐 것 같습니다! 검색해본 내용으로는 각 설정에 대한 설명이 아래와 같습니다! 참고 부탁드립니다! (사진)
- 0
- 1
- 166
Hỏi & Đáp
배웠던 내용을 기반으로 match3 인공지능으로 플레이 하는 걸 만들고 있는데.. 질문이 있습니다.
안녕하세요! 저도 match3는 직접 진행해본적이 없어서 질문주신 부분 중 몇 부분은 더 깊게 살펴봐야 할 것 같구요! 일단 대답할 수 있는 것 먼저 답변드리겠습니다!일단 쓱 봤을때는 상태, 보상 설정은 괜찮게 하신 것 같은데 행동에 대한 부분은 제가 조금 더 이해해 봐야할 것 같습니다. 그리고 기타질문들 답변드려보겠습니다. 어느 스텝만큼 기다려야하는가는 환경의 난이도 등에 따라 차이가 있습니다. 예전에 알파고 학습할 때는 몇일을 기다려야 좀 학습에 대한 기미가 보이는 경우도 있었구요! match3 환경의 경우는 보상을 즉각적으로 받을 수 있는 환경이다 보니 학습 초반부터 학습에 대한 각이 보일 것 같긴합니다. 상속받아서 사용하는건 뭔가 match3의 경우 다른 설정이 필요하기 때문일 것 같은데요! 퍼즐 환경이다보니 설정 등에 차이가 있어 변경한 것 같습니다. 자세한건 저도 살펴봐야할 것 같네요PPO의 경우 파라미터 설정에 따라 설정의 차이를 보이긴합니다. 저희가 학습하면서 차이를 좀 보였던 파라미터는 n_step인데요. 그래도 match3 환경의 경우 보상을 얻기까지의 길이가 길지 않아서 이 값이 큰 영향을 미치지는 않을 것 같다고 생각됩니다. learning_rate_schedule이 constant인 경우 학습이 진행되어도 학습률이 유지되고 해당 값이 linear인 경우 감소합니다. 일반적으로는 학습이 진행됨에 따라 학습률을 조금씩 감소시키는 linear를 주로 사용합니다. 유니티가 제공하지 않는 PPO를 쓰는 경우의 장점은 자유도가 높다는 것입니다. mlagents-learn을 쓰는 경우 일부 파라미터만 변경할 수 있지만 직접 PPO를 구현하는 경우 코드를 마음대로 수정하고 필요시 새로운 모듈을 추가하는 것도 가능합니다. 말씀해주신대로면 행동 공간이 너무 크기도 하고 고정적이지도 않아서 학습이 어려울 것 같습니다. 환경에 대한 설정을 (저도 방법은 딱 떠오르지는 않는데) 최대한 간단하고 고정적인 행동 공간의 환경으로 설정해주시면 좋을 것 같습니다!
- 0
- 2
- 294
Hỏi & Đáp
배웠던 내용을 기반으로 match3 인공지능으로 플레이 하는 걸 만들고 있는데.. 질문이 있습니다.
안녕하세요! 아마 질문 내용이 작성되다가 누락된듯 합니다! 확인 부탁드립니다!
- 0
- 2
- 294