Keras-rl ValueRror“模型具有多个输出。 DQN期望具有单个输出的模型。
有什么方法可以解决此错误?我有一个具有15x15输入网格的模型,可导致两个输出。每个输出具有15个可能的值,即X或Y坐标。我之所以这样做,是因为它比…
如何使目标尺寸等于我的DQN代码中的输入大小?
大家!当我进行DQN编程时,我遇到了一些问题。这个错误说 “用户保证:使用目标大小(Torch.Size([32,32]))与输入大小不同(Torch.Size([32,1])…
ValueError:检查输入时的错误:预期Input_Input具有4个维度,但具有形状的数组(1,1,2)
I am trying to create a Flappy Bird AI with Convolutional Layers and Dense Layers, but at the "Train" step (Function fit()) I get the follow…
TF代理在培训强化学习后为所有测试状态采取相同的措施
我正在尝试创建一个自定义的Pyenvironment,以使代理商学习最佳小时,以将通知发送给用户,以基于单击前7天发送的通知获得的奖励。 培训完成后,即使…
为什么要为NAN记录的keras-rl2 dqn代理的平均值和MAE
从,但是只记录了奖励和数量的步骤,并且错误指标都是NAN, memory = SequentialMemory(limit=1000000, window_length=WINDOW_LENGTH) processor = At…
TensorFlow,使用`tf.tensor`作为python`BOOL了
raise errors.OperatorNotAllowedInGraphError( tensorflow.python.framework.errors_impl.OperatorNotAllowedInGraphError: using a `tf.Tensor` as…
DQN型号(游戏:Atari Pongnoframeskip)不学习
我正在尝试实施乒乓球的DQN模型。但是,即使在大约1000集之后,它仍然像随机活动一样执行。 CNN培训似乎并不能改善代理。 这是我的主要代码: 我创建…
TF代理_ACTION_SPEC:如何为离散动作空间定义正确的形状?
方案1 我的自定义环境具有以下 _ACTION_SPEC : self._action_spec = array_spec.BoundedArraySpec( shape=(highestIndex+1,), dtype=np.int32, minim…
DQN模型无法正确显示预期的分数
我正在研究游戏“ Cartpole-V1”的DQN培训模型。在此模型中,系统没有提醒终端中的任何错误信息。但是,结果评估变得更糟。这是输出数据: episode: 8…
无法以数组形状分配内存来创建强化学习模型
我正在尝试为 mario 环境创建 DQN 模型。但是当我尝试创建模型时,它给了我这个错误: 内存错误:无法为形状为 (1000000, 1, 4, 240, 256) 和数据类型…
- 共 1 页
- 1