为什么我的Atari健身房观察需要这么长时间才能加载到Cuda并在我的GPU上跑步?
我想知道为什么对我的乒乓球环境的每一个新观察都花了很长时间才能加载到我的GPU上。 我正在尝试培训政策梯度模型来演奏乒乓球。我在下面的整个代码中…
尝试使用OpenAi健身房,在运行时遇到Pyglet/OpenGL错误
我正在尝试以下代码: import gym env = gym.make('ma_gym:Switch2-v0') done_n = [False for _ in range(env.n_agents)] ep_reward = 0 obs_n = env.…
Importerror:无法导入渲染' from' gym.envs.classic_control'
我正在与RL代理合作,并试图复制此 Paper ,在其中,他们根据健身房开设了自定义的跑酷环境,但是当试图渲染我遇到的环境时。 import numpy as np imp…
我会因env渲染而遇到错误-Env.Render()
我试图在渲染时实现Atari游戏,如下所示: line 283, in render raise error.Error( gym.error.Error: render(mode='human') is deprecated. Please s…
让XVFB在M1 Mac上的Jupyter笔记本上工作
我正在与Openai Gym在COLAB上合作,并使用以下代码基于本教程来渲染Jupyter笔记本中的视频: https://colab.research.google.com/drive/1flu31uljlgir…
DQN模型无法正确显示预期的分数
我正在研究游戏“ Cartpole-V1”的DQN培训模型。在此模型中,系统没有提醒终端中的任何错误信息。但是,结果评估变得更糟。这是输出数据: episode: 8…
体育馆报告我导入“ MSPACMAN-V4”时错误游戏(关于ROMS?)
我试图将“ MSPACMAN-V4”用作代理环境,但我的Python向我报告了以下消息。 gym.error.Error: We're Unable to find the game "MsPacman". Note: Gym …
属性错误:“框”对象没有属性“形状”;在科拉布
我厌倦了在 colab 中使用 stable-baselines3 加载模型,使用以下代码: !pip install stable-baselines3[extra] from stable_baselines3 import DQN f…
IS_Slippery参数如何影响Frozenlake环境中的奖励?
IS_Slippery参数如何影响Frozenlake环境中的奖励? Frozenlake环境具有一个名为IS_Slippery的参数,如果设置为true,则将以1/3的概率向预期方向移动,…
为什么 Stable-Baselines3valuate_policy() 函数永远无法完成?
我已经使用OpenAI健身房和稳定的Baselines创建了自己的自定义环境3。一旦训练了代理,我将尝试使用stable_baselines3.common.evaluation的estaiute_po…
如何在 Python 中离散连续观察和动作空间?
我的教授要求我在 OpenAI 的 Pendulum-V1 健身房环境中应用策略迭代方法。 Pendulum-V1 有以下环境: 观测 类型:Box(3) Num Observation Min Max 0 c…
MuJoCo 通过 mujoco-py 接口 FetchReach-v1 场景机器人动作延迟
亲爱的穆乔科社区, 在过去的几天里,我正在使用一个简单的 fetchreach-v1 Open-ai健身房Mujoco环境中的场景。我试图将MPC(模型预测控制)应用于这种…
尽管采取了随机操作,但乒乓球的平行环境仍处于同一状态
嗨,我正在尝试使用SubproveCenv运行8个平行的乒乓环境实例。我尝试使用随机操作测试状态过渡,但是在15个步骤(随机左或右操作)之后,所有环境的状…
- 共 1 页
- 1