묻고 답해요
158만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결AWS DeepRacer로 배우는 인공지능과 자율주행
학생계정에 사용시 결과확인
학생계정에서 리그트랙이 아닌 다른 트랙을 모델학습시킨후 reward graph 확인하려면 어떻게 해야할까요?
-
해결됨유니티 머신러닝 에이전트 완전정복 (기초편)
GridWorld가 움직이지 않고, time out 으로 중지됩니다.
책을 먼저 사서 책 보고 따라하던 중 막혀서, 급하게 강의 등록하고 질문 드립니다.이렇게 좋은 책과 강의에 우선 감사드립니다.오류 문구는 다음과 같습니다.사용 패키지들의 버전을 다음과 같습니다.책 보고 따라 작성한 코드로 이런 현상이 있어서, github에서 다운 받은 파일로 해도 동일 증상입니다.저의 유니티 상의 설정은 다음과 같습니다. 해결에 도움 주시면 감사하겠습니다.
-
해결됨유니티 머신러닝 에이전트 완전정복 (기초편)
싱글에이전트 코드를 멀티에이전트 코드로 수정 관련
안녕하세요.좋은 강의 올려주셔서 항상 감사하게 보고 있습니다.파이썬 코드로 학습 코드를 작성할때 싱글에이전트만 고려한다고 하셨는데 멀티에이전트를 위한 코드를 작성하려면 바뀌는 부분이 많이 있나요?멀티에이전트를 위해서 코드를 수정한다면 참고할 수 있는 자료가 있을까요?적용하고 싶은 알고리즘은 ppo 입니다.감사합니다!
-
미해결프로그래머를 위한 강화학습(저자 직강)
2.7 TD 상태가치함수
2.7 TD와 SARSA를 공부하던 중 이해가 가지 않는 부분이 있어 질문 드렸습니다!상태가치함수 V(t)는 반환값에 대한 기댓값이고 다이내믹 프로그래밍은 model-based이기 때문에 전체 상태와 가치를 다 안다는 전제하에 V(t)를 구할 수 있습니다. MC에서는 에피소드를 여러번 반복해서 실행하고 누적된 반환값을 에피소드 횟수로 나누어서 V(t)를 구합니다.그런데 여기에서 이해가 안되는 것이 TD에서 V(t+1)을 구하는 방법입니다. 다이내믹 프로그래밍과 같이 model-based인 것도 아니고 MC처럼 에피소드가 끝날때까지 계속 구하는 것도 아닌데 어떻게 상태 가치 함수를 구할 수 있는 건가요? 상태가치함수는 반환값에 대한 기댓값이라고 이해했는데, 반환값은 에피소드가 끝날때까지 실행해야 알 수 있는 것 아닌가요?질문 봐주셔서 감사합니다!
-
해결됨유니티 머신러닝 에이전트 완전정복 (기초편)
Start와 awake 함수의 차이점이 궁금합니다.
스크립트 설명 강의에서 Start와 awake 함수의 차이점이 궁금합니다.
-
해결됨유니티 머신러닝 에이전트 완전정복 (기초편)
ML-agents 살펴보기 5페이지 질문입니다.
여기서 stacked vectors를 3으로 하면 space size도 9가 되는게 맞나요?
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
sensor에 추가된 값들의 판독
안녕하세요. 강의 잘 듣고 있습니다.질문이 있는데요.CollectObservations()에서 sensor에 값들을 추가하는데, sensor를 처리하는 곳에서는 추가된 값들이 어떤 값들인지는 어떻게 알고 처리가 되는 건가요?
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
드론 ddpg.py코드 실행하면 드론이 멈춥니다.
ddpg.py 코드를 실행하면 드론이 처음에는 날아가다 몇번 날아가다 멈춰버립니다.해결방법이 무엇인가요??뭐가 문제인지 모르겠습니다.코드는 githug에 있는걸 그대로 붙여넣었습니다.
-
미해결프로그래머를 위한 강화학습(저자 직강)
cartpole_DQN 에러
github에 있는 cartpole_DQN 코드를 그대로 사용하는데 위와 같이 에러가 뜹니다. 별도로 수정한 내용은 없고 우분투 20.04, 코랩에서 돌렸습니다.
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
강의 잘 봤습니다.
강의 너무 잘 보고 다음 강의도 너무 기대하고 있습니다.대부분 에이전트를 제어해서 잘한 행동에 점수를 줘서 학습하는 방식을 배웠는데요강화학습으로레이싱게임에 사용될 다양한 레이싱 트랙을 만는다던지.3매칭 퍼즐게임에 사용되는 다양한 퍼즐판을 만든다던지슈퍼마리오의 다양한 스테이지 구성한다던지..이런걸 할려면 어떤 알고리즘을 사용해야 되나요?만약 이미 사람이 만든 수천개의 레이싱 트랙이나 퍼즐판이 있다면 모방학습으로 가능할까요?전혀 어떻게 해야 할지 모르겠습니다.ㅜㅜ어떻게 해야 할지 가이드를 살짝 해주시면 감사하겠습니다.알고리즘 이름이라던지.. 관련자료 url 등등 부탁 드립니다.
-
해결됨유니티 머신러닝 에이전트 완전정복 (기초편)
curriculum learning
안녕하세요, 강의 잘 보고 있습니다.다름이 아니라, 현재 교재 개정 이전판에는 커리큘럼 러닝에 대한 부분이 함께 소개되어있었는데 현재 교재나 강의에는 이 부분이 다뤄지지 않는 것 같아 질문 드립니다. 혹시 지금은 커리큘럼 러닝이 유니티 상에서 불가능한가요? 지금도 활용할 수 있는 방법이 있는지 궁금합니다. 감사합니다!
-
해결됨유니티 머신러닝 에이전트 완전정복 (기초편)
error->하이퍼파라미터들이 안떠요
C:\mlagents_start\ml-agents-release_17>mlagents-learn config\ppo\3DBall.yaml --run-id=tutorial_5_20_16 ▄▄▄▓▓▓▓ ╓▓▓▓▓▓▓█▓▓▓▓▓ ,▄▄▄m▀▀▀' ,▓▓▓▀▓▓▄ ▓▓▓ ▓▓▌ ▄▓▓▓▀' ▄▓▓▀ ▓▓▓ ▄▄ ▄▄ ,▄▄ ▄▄▄▄ ,▄▄ ▄▓▓▌▄ ▄▄▄ ,▄▄ ▄▓▓▓▀ ▄▓▓▀ ▐▓▓▌ ▓▓▌ ▐▓▓ ▐▓▓▓▀▀▀▓▓▌ ▓▓▓ ▀▓▓▌▀ ^▓▓▌ ╒▓▓▌ ▄▓▓▓▓▓▄▄▄▄▄▄▄▄▓▓▓ ▓▀ ▓▓▌ ▐▓▓ ▐▓▓ ▓▓▓ ▓▓▓ ▓▓▌ ▐▓▓▄ ▓▓▌ ▀▓▓▓▓▀▀▀▀▀▀▀▀▀▀▓▓▄ ▓▓ ▓▓▌ ▐▓▓ ▐▓▓ ▓▓▓ ▓▓▓ ▓▓▌ ▐▓▓▐▓▓ ^█▓▓▓ ▀▓▓▄ ▐▓▓▌ ▓▓▓▓▄▓▓▓▓ ▐▓▓ ▓▓▓ ▓▓▓ ▓▓▓▄ ▓▓▓▓` '▀▓▓▓▄ ^▓▓▓ ▓▓▓ └▀▀▀▀ ▀▀ ^▀▀ ▀▀ ▀▀ '▀▀ ▐▓▓▌ ▀▀▀▀▓▄▄▄ ▓▓▓▓▓▓, ▓▓▓▓▀ `▀█▓▓▓▓▓▓▓▓▓▌ ¬`▀▀▀█▓ Version information: ml-agents: 0.26.0, ml-agents-envs: 0.26.0, Communicator API: 1.5.0, PyTorch: 1.7.1+cu101Traceback (most recent call last): File "c:\users\owner\appdata\local\programs\python\python37\lib\runpy.py", line 193, in runmodule_as_main "__main__", mod_spec) File "c:\users\owner\appdata\local\programs\python\python37\lib\runpy.py", line 85, in runcode exec(code, run_globals) File "C:\Users\owner\AppData\Local\Programs\Python\Python37\Scripts\mlagents-learn.exe\__main__.py", line 7, in <module> File "c:\users\owner\appdata\local\programs\python\python37\lib\site-packages\mlagents\trainers\learn.py", line 250, in main run_cli(parse_command_line()) File "c:\users\owner\appdata\local\programs\python\python37\lib\site-packages\mlagents\trainers\learn.py", line 246, in run_cli run_training(run_seed, options) File "c:\users\owner\appdata\local\programs\python\python37\lib\site-packages\mlagents\trainers\learn.py", line 83, in run_training stats_writers = register_stats_writer_plugins(options) File "c:\users\owner\appdata\local\programs\python\python37\lib\site-packages\mlagents\plugins\stats_writer.py", line 47, in register_stats_writer_plugins if ML_AGENTS_STATS_WRITER not in importlib_metadata.entry_points(): File "c:\users\owner\appdata\local\programs\python\python37\lib\site-packages\importlib_metadata\__init__.py", line 266, in eq return self._key() == other._key()AttributeError: 'str' object has no attribute '_key'뭔가 실행은 되는 것 같은데 하이퍼파라미터는 안뜨고 오류만 떠요.python은 3.7.9이고, unity editor는 2021.1.18f로 했었어요. 어떻게 하면 오류를 제거하고 하이퍼파라미터들을 불러올 수 있을까요?(ml-agents-release_17 이용했어요)
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
unity ML-Agent 생성 모델 활용한 inference
unity에서 디지털 트윈환경을 구축하고 ML-Agent로 학습한 모델을실제 운영환경에 적용하여 inference하려고 할 때모델 input/output은 어떻게 구성할 수 있나요?참고할 만한 자료가 있을까요?
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
카트레이싱 환경관련 문의
안녕하세요, 수업은 다 듣고 실습부분만 조금씩 다시 따라가고 있는데요,카트레이싱에서 환경 구축을 다 하고, KartAgent 코드도 깃허브에 있는거 그대로 C# 코드 옮기고, AcadeKart 코드도 수정을 다 했는데, 이상하게 카트가 1번 웨이포인트 지나고 리셋이 됩니다. 파이토치와 유니티 책에는 OnEpisode 함수에 for문이 있는데, 넣고 빼고는 상관이 없더라구요, 웨이포인트를 이어가지 못하거나 중간에 충돌이라고 판단하거나 기타 리셋 조건이 문제인것 같은데, 어딜 봐야 할지 조언을 주실 수 있으신가요?
-
미해결모두를 위한 딥러닝 - 기본적인 머신러닝과 딥러닝 강좌
강의자료 ppt
안녕하세요 처음 배워보려고 해서 찾아찾아 오게됐습니다 강의 너무 좋은데 강의하시는 ppt가 따로 제공이 되는건지 궁금해서요~혹시 제공된다고 제가 어디서 찾을 수 있을까요??
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
addObservation이 안됩니다.
Assets\ML-Agents\Examples\GridWorld\Scripts\GridAgent.cs(88,20): error CS1061: 'VectorSensor' does not contain a definition for 'addObservation' and no accessible extension method 'addObservation' accepting a first argument of type 'VectorSensor' could be found (are you missing a using directive or an assembly reference?)유니티에 다음과 같은 오류가 뜨네요.
-
미해결프로그래머를 위한 강화학습(저자 직강)
PPO에서 min()을 사용하는 이유가 궁금합니다
설명해주신대로면,min()을 사용하지 않아도 이미 clip()을 통해서 r()이 상항과 하한을 넘기면 a 혹은 b로 고정되고, 그 범위 안에 들어가면 r()이 그대로 나오는 것으로 생각됩니다. min()이 여기서 어떠한 역할을 하는지 궁금합니다.=> 범위 안에 있을때 r(original) 과 r(clipped)가 달라지는 경우가 있나요?
-
해결됨유니티 머신러닝 에이전트 완전정복 (기초편)
여러 Area를 동시에 학습
안녕하세요, Drone 강의 부분에서, Area를 GridWorld에서 했던 것처럼 여러 Area를 복사하여 한 씬에 넣고 동시에 학습시키면 step이 빨리 오르는 효과를 볼 수 있을 것 같다고 생각했습니다. 한 area를 여러 개 복사한 뒤에 학습을 진행하려 했는데, 다음과 같은 오류로 잘 되지 않았습니다. 어떻게 해결해 볼 수 있을까요? critic_loss = F.mse_loss(target_q, q)Traceback (most recent call last): File "DDPG.py", line 240, in <module> actor_loss, critic_loss = agent.train_model() File "DDPG.py", line 144, in train_model reward = np.stack([b[2] for b in batch], axis=0) File "<__array_function__ internals>", line 6, in stack File "C:\Users\anaconda3\envs\mlagent2\lib\site-packages\numpy\core\shape_base.py", line 426, in stack raise ValueError('all input arrays must have the same shape')ValueError: all input arrays must have the same shape
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
드론 작동
안녕하세요! 혹시 드론의 크기를 키우면 스크립트에서 변경해야 할 내용이 있나요? 영상과 똑같이 한 후 terrain을 추가하고 드론의 크기를 키우면 드론이 움직이지 않아요..
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
혹시 응용편은 어디서 볼 수 있을까요?
응용편 보고 싶은데, 인프런에는 안 보이네요. 혹시 어디서 응용편을 강의 하시는 지 가르쳐 줄 수 있을까요?