返回介绍

其他 - 分布式manager节点

发布于 2020-09-14 13:05:51 字数 1993 浏览 1222 评论 0 收藏 0

为了保证manager节点的容错性,我们最好将manager节点个数设定为奇数个。在网络被划分成2个部分情况下,奇数个manager节点能够较高程度的保证有投票结果的可能性。如果网络被划分成2个部分以上,投票有结果的可能性将不能被保证。

Swarm节点数法定票数允许manager不可用个数
110
220
321
431
532
642
743
853
954

举个例子,在一个Swarm中有5个节点,当失去3个时,就无法通过选举算法获得结果。因此就不能添加或者删除节点,知道其中一个不可用manager节点恢复为止。

可以将Swarm改变成为只有一个manager节点,但是不能将最后一个manager节点再降级成为worker节点,也就是说Swarm中至少要有一个manager节点。这样做仍然能够保证Swarm正常处理请求。将Swarm变成只有一个manager节点,是一个不安全的操作。如果失去唯一的一个manager,整个Swarm将不可用,直到我们使用参数--fore-new-cluster重启。

分布式manager节点

除了需要奇数个manager节点外,在部署manager节点时我们还需要留意数据中心的拓扑结构。最佳的容错方案是将manager节点分别部署在3个不同的可用区域。如果任何一个区域出现问题,Swarm仍然能够选举出Manager节点处理请求和重新平衡负载。

manager节点个数3个区域内分配个数
31-1-1
52-2-1
73-2-2
93-3-3

Manager-only节点

默认情况manager节点同时也扮演了worker节点的角色。这意味着调度器可以将task分配给一个manager节点来运行。 只要我们调度service时对CPU和内存采用resouce constraints,对于小型并且非关键集群分配task到manager节点的风险是相当低的。

然而,由于manager采用Raft consensus算法以一种一致的方式将数据进行复制,所以manager节点对数据复制操作对于资源匮乏显得很敏感。我们应该将manager节点上从一些有可能阻碍数据复制的进程中剥离出来,例如集群心跳检查,或者leader的选举过程。

为了避免对manager节点操作的影响,我们可以想worker节点那样,将manager节点的状态设置成为’DRAIN’:

  1. docker node update --availability drain <NODE>

当节点状态为DRAIN时,调度器将该节点上的task重新分配到别的节点上运行,并会阻止新的task分配到该节点上。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文