多智能体强化学习如何处理决策(动作)不同步的问题?
目前看了一些多智能体强化学习算法,如VDN、QMIX等,好像都是在Dec-POMDP模型上建立的,但是MDP相关的模型都要求一个联合动作空间,多个智能体的动作需要同时做出,但实际问题中,多个智能体的动作往往是不同步的,这种情况应该如何处理?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
没有动作也是可以当做一个动作吧,action-state,作为输入。