张量板未使用 ray rllib 显示结果
我正在使用 tune 和 rllib 在 google colab 上训练强化学习模型。 起初我能够使用张量板显示训练结果,但它不再工作,而且我似乎找不到它来自哪里,我…
MineRL 交互器不工作以及如何显示代理
我想从 Minerl 开始,它适用于加载 Minecraft。但是加载后屏幕最小化并且不再显示。这是因为我无头运行脚本,因为我在 Windows 上,无法访问 xvfb。还…
为什么我的模型无法学习?损失非常高
我建立了一个模拟模型,卡车根据垃圾容器的填充水平收集垃圾容器。 我使用 OpenAi Gym 和 Tensorflow/keras 来创建我的深度强化学习模型...... 但是我…
StableBaselines-3 DDPG + HER 多重处理
我正在阅读有关 HER 的文档以及 stable-baselines3 网站中有关多重处理的文档 但是,当我尝试训练时,它会抛出错误! 有没有使用 replay_buffer 进行…
无法以数组形状分配内存来创建强化学习模型
我正在尝试为 mario 环境创建 DQN 模型。但是当我尝试创建模型时,它给了我这个错误: 内存错误:无法为形状为 (1000000, 1, 4, 240, 256) 和数据类型…
欧姆网++使用强化学习工具 [ML]
我目前未能找到一个简单且模块化的框架来将 openAIgym 或 tensorflow 或 keras 与 omnet++ 链接起来,这样我就可以在每个工具之间进行通信并进行在线…
导入错误:无法导入名称“监视器”来自“gym.wrappers”
我刚刚创建了一个安装了健身房的新环境。我刚刚开始使用 Atari 游戏,但我的以下代码出现导入错误 - import gym env = gym.make('FrozenLake-v1') vid…
stable_baselines模块错误-> “gym.logger”没有属性“MIN_LEVEL”
我正在尝试使用 stable_baselines,但我尝试使用的任何模型都会给我带来相同的错误: 模块“gym.logger”没有属性“MIN_LEVEL” 我已从他们的网站附加…
重新训练 PPO1 模型以及将 Ternsorflow 与 SB2 一起使用时出现问题
我是稳定基线和 RL 的新手。我想做的是: 从计算机加载之前训练过的模型,然后从上次训练结束的位置开始重新训练它。为此,我在policy_fn()中加载之前…
KerasRL:值错误:张量必须与张量来自同一个图
我正在尝试构建一个 RL 模型来玩 Atari Pinball 游戏,同时遵循 Nicholas Renotte 的 视频。但是,当我尝试构建最终的 KerasRL 模型时,出现以下错误…
如何解决模块“gym.wrappers”问题没有属性“监视器”?;
importgym if __name__ == "__main__": env = gym.make("CartPole-v0") env = gym.wrappers.Monitor(env, "recording") total_reward = 0.0 total_ste…
让 Actor 和 Critic 使用明显不同的模型有什么好处吗?
在 Actor-Critic 方法中,Actor 和 Critic 被分配两个互补但不同的目标。我试图了解这些目标(更新策略和更新价值函数)之间的差异是否足够大,足以保…
如何更新 numpy 矩阵中的特定行?
在这里,我试图更新 numpy 矩阵的特定行,但它的行为有点奇怪 tpm1=np.array([[1,0, 0, 0, 0],[1, 0, 0, 0, 0],[1,0, 0, 0, 0],[1,0, 0, 0, 0],[1,0, …