reinforcement-learning

reinforcement-learning

文章 0 浏览 7

python NEAT 神经网络没有进化

我一直在尝试编写一个“游戏”,让无人机使用带有 NEAT 的神经网络收集漂浮的点。我尝试对配置文件进行一些修改,但无人机似乎并没有进化... 这是 mai…

素衣风尘叹 2025-01-16 18:43:46 4 0

张量板未使用 ray rllib 显示结果

我正在使用 tune 和 rllib 在 google colab 上训练强化学习模型。 起初我能够使用张量板显示训练结果,但它不再工作,而且我似乎找不到它来自哪里,我…

尴尬癌患者 2025-01-16 16:51:38 5 0

MineRL 交互器不工作以及如何显示代理

我想从 Minerl 开始,它适用于加载 Minecraft。但是加载后屏幕最小化并且不再显示。这是因为我无头运行脚本,因为我在 Windows 上,无法访问 xvfb。还…

不再让梦枯萎 2025-01-16 03:21:57 0 0

为什么我的模型无法学习?损失非常高

我建立了一个模拟模型,卡车根据垃圾容器的填充水平收集垃圾容器。 我使用 OpenAi Gym 和 Tensorflow/keras 来创建我的深度强化学习模型...... 但是我…

谁把谁当真 2025-01-16 01:02:13 5 0

StableBaselines-3 DDPG + HER 多重处理

我正在阅读有关 HER 的文档以及 stable-baselines3 网站中有关多重处理的文档 但是,当我尝试训练时,它会抛出错误! 有没有使用 replay_buffer 进行…

淡笑忘祈一世凡恋 2025-01-15 22:42:15 3 0

无法以数组形状分配内存来创建强化学习模型

我正在尝试为 mario 环境创建 DQN 模型。但是当我尝试创建模型时,它给了我这个错误: 内存错误:无法为形状为 (1000000, 1, 4, 240, 256) 和数据类型…

被你宠の有点坏 2025-01-15 22:32:04 6 0

欧姆网++使用强化学习工具 [ML]

我目前未能找到一个简单且模块化的框架来将 openAIgym 或 tensorflow 或 keras 与 omnet++ 链接起来,这样我就可以在每个工具之间进行通信并进行在线…

请别遗忘我 2025-01-15 16:19:50 3 0

导入错误:无法导入名称“监视器”来自“gym.wrappers”

我刚刚创建了一个安装了健身房的新环境。我刚刚开始使用 Atari 游戏,但我的以下代码出现导入错误 - import gym env = gym.make('FrozenLake-v1') vid…

江城子 2025-01-15 05:07:54 2 0

stable_baselines模块错误-> “gym.logger”没有属性“MIN_LEVEL”

我正在尝试使用 stable_baselines,但我尝试使用的任何模型都会给我带来相同的错误: 模块“gym.logger”没有属性“MIN_LEVEL” 我已从他们的网站附加…

遮云壑 2025-01-14 02:51:35 4 0

重新训练 PPO1 模型以及将 Ternsorflow 与 SB2 一起使用时出现问题

我是稳定基线和 RL 的新手。我想做的是: 从计算机加载之前训练过的模型,然后从上次训练结束的位置开始重新训练它。为此,我在policy_fn()中加载之前…

百善笑为先 2025-01-13 20:06:32 4 0

KerasRL:值错误:张量必须与张量来自同一个图

我正在尝试构建一个 RL 模型来玩 Atari Pinball 游戏,同时遵循 Nicholas Renotte 的 视频。但是,当我尝试构建最终的 KerasRL 模型时,出现以下错误…

怎樣才叫好 2025-01-13 07:37:45 6 0

强化学习中连续动作空间的动作掩蔽

有没有办法对连续动作空间的动作掩蔽进行建模?我想用强化学习来模拟经济问题。这些问题通常具有连续的动作和状态空间。此外,状态通常会影响哪些操作…

酸甜透明夹心 2025-01-13 07:35:48 4 0

如何解决模块“gym.wrappers”问题没有属性“监视器”?;

importgym if __name__ == "__main__": env = gym.make("CartPole-v0") env = gym.wrappers.Monitor(env, "recording") total_reward = 0.0 total_ste…

花间憩 2025-01-13 06:57:38 4 0

让 Actor 和 Critic 使用明显不同的模型有什么好处吗?

在 Actor-Critic 方法中,Actor 和 Critic 被分配两个互补但不同的目标。我试图了解这些目标(更新策略和更新价值函数)之间的差异是否足够大,足以保…

天邊彩虹 2025-01-13 03:01:57 3 0

如何更新 numpy 矩阵中的特定行?

在这里,我试图更新 numpy 矩阵的特定行,但它的行为有点奇怪 tpm1=np.array([[1,0, 0, 0, 0],[1, 0, 0, 0, 0],[1,0, 0, 0, 0],[1,0, 0, 0, 0],[1,0, …

再浓的妆也掩不了殇 2025-01-12 16:19:41 3 0
更多

推荐作者

浪子阿飞

文章 0 评论 0

JK.Yang

文章 0 评论 0

人间不值得

文章 0 评论 0

静待花开

文章 0 评论 0

只涨不跌

文章 0 评论 0

污浊的双黑

文章 0 评论 0

    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文