게시글
질문&답변
2022.12.26
CVAT이나 VGG annotator 에서 COCO 로 label다운fhem 후 트레이닝
답변 감사합니다. 안타깝게도 잘 되진 않네요 ㅠㅠ
- 0
- 2
- 360
질문&답변
2022.04.12
GPU로 트레이닝 시키는 방법
네 해결됐습니다. 감사합니다!
- 1
- 2
- 216
질문&답변
2022.03.29
스크립트 작성
감사합니다!
- 0
- 7
- 302
질문&답변
2022.03.29
스크립트 작성
링크를 살펴보던 중 drone.yaml 파일을 찾았습니다! 이제야 강사님께서 해주신 말씀이 어떤것인지 이해가 갑니다. 트레이닝을 지금 하는 중인데요, 혹시 창 크기를 키우는 방법은 없나요? 저번 3DBall 예제 같은 경우는 마우스 커서를 edge 에 가져가니 확대가 가능했었는데요, 혹시 창크기를 좀더 확대시켜서 출력하는 방법이 따로 있나요? (사진)
- 0
- 7
- 302
질문&답변
2022.03.29
스크립트 작성
먼저 제가 너무 번거롭게 잦은 질문을 함에도 친절히 답변해 주셔서 한번 더 감사의 말씀 드립니다! ㅠㅠ강의 초반에 저희가 3DBall 예제를 통해서 mlagent 를 이용한 학습을 배웠잖아요. 강사님께서 해주신 ML-Agents 환경학습 1의 11:35초에 보면 YAML 파일과, Env_path 를 통해서 아나콘다에서 학습을 진행 시킬 수 있었습니다. 이번 드론 예제에서 제가 궁금한것은 https://github.com/reinforcement-learning-kr/Unity_ML_Agents_2.0/blob/main/agents/07.ddpg.py 다음 링크에 있는 "07.ddpg.py" 을 DDPG실습 1, 2를 통해서 배웠는데요, 이 py파일을 어떻게 써야하는지 모르겠습니다. 저는 지금 jupyter 에서 따라하고 있는 중입니다. 가령, save_path 의 경우 자동적으로 파일이 된다지만 만약 제가 "D드라이버에 있는 InfLearn 이라는 폴더에 저장" 하고 싶은경우 경로 지정은 save_path = f"D:\InfLearn\{game}\DQN\{date_time}" 이라고 설정하면 되는 것인가요? 또 load_path 의 경우 무슨 파일을 로드해야하나요? 드론 유니티환경을 build 해서 나온 environment 파일이 여기서 말하는 '모델파일' 인가요? 강의 영상에서는 20210514201212 라고 적혀 있네요. 07.ddpg.py를 실행하고 나서 생성된 파일 같다는 느낌은 드는데...저는 링크에 있는 py 파일을 그대로 복붙 했는데 안되네요. 이걸 트레이닝 시키려면 아나콘다를 사용해야하나요? 아니면 jupyter 에서 실행해도 되는건가요? (사진)
- 0
- 7
- 302
질문&답변
2022.03.29
Inheritance 문제
네 직접적으로 사용하더라구요 아무래도 매우 옛날 버전을 사용하고 있는 것 같아요. 아무래도 최근 버전에서는 작동되지 않는 듯 합니다. 답변주셔서 감사합니다!
- 0
- 2
- 179
질문&답변
2022.03.29
드론 예제 작동이 안되네요...
한번 더 처음부터 스크립트를 다시 따라하면서 만들어 보았는데도 역시 강의영상처럼 제가 드론을 조종하지는 못하네요.. 화살표를 누르거나 마우스휠을 돌리거나 해도 전혀 움직이지 않습니다. 자기가 알아서 한번 갑자기 한방향으로 쭉가서 환경이 리셋 된 이후 아무 변화가 없습니다. 어떻게 해결해야하는지 방법 알려주시면 감사드리겠습니다.. // 이전 질문이었구요. 강의와는 달리 저는 Goal 밑에 decision Waiting Time 을 public하게 설정할 수 있네요. 이걸 5 sec에서 1sec 으로 바꾸니까 바로 조종이 가능해졌습니다... 하 해결된듯하네요...
- 0
- 3
- 385
질문&답변
2022.03.29
드론 패키지 임포트시 에러 발생
영상 시작 부근에 Emptyobject 로 Academy 랑 Agent 만드는과정이 생략 되어 있어요! 그거 어떻게 하는지 알려주실 수 있나요?
- 1
- 3
- 452
질문&답변
2022.03.29
Actuators
잘 작동됩니다! 감사합니다!!
- 0
- 2
- 214
질문&답변
2022.03.28
ML Agent 에러
답변 감사합니다. 안타깝게도 위에 알려주신대로 해봐도 actionBuffer 을 못찾는다고 합니다. 다시 재 설치하고 새로 깔고 다 해봤는데 안되네요...시도해 본 방법들 올려놓겠습니다. 해결되시면 알려주세요 1. project 폴더를 통해 유니티 파일 생성 후, ML agent 설치. 그 후 패키지 설치 (사진) (사진) 그런데 자동으로 버전이 강제적으로 다운됩니다. 위에 이미지를 참조해주세요. 다른 방법으로는 카트패키지를 먼저 설치한 후 ml agent 를 설치해봤습니다. 안되네요 역시 (사진) 또 다른 방법으로는 Kart 패키지를 열때 version 을 switch 해서 열겠냐는 옵션이 있더라구요. 그렇게 해서 파일을 여니까 C드라이버에 appdata/temp 에 새롭게 파일이 생성되더군요. 거기서는 모든 작동이 완벽하게 되더라구요. 다만 문제는 Unity. Mlagent. Actuators; 가 인식이 안됩니다. 그래서 ml agent의 json 을 임포트 하는 순간 오류가 발생하고 안됩니다. pushblockinput 을 지워두요. (사진) (사진)
- 0
- 7
- 520