如何恢复ceph的故障节点的硬盘上的数据?
假设集群的故障域为host,那么如果两个节点同时down掉,而且无法启动这两个节点,但是节点的硬盘数据可以正常读取。
那么我该如何将这两个节点的数据导入到集群?导入会不会覆写在节点down掉后后来写入到集群的对象呢?
谢谢。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
假设集群的故障域为host,那么如果两个节点同时down掉,而且无法启动这两个节点,但是节点的硬盘数据可以正常读取。
那么我该如何将这两个节点的数据导入到集群?导入会不会覆写在节点down掉后后来写入到集群的对象呢?
谢谢。
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(2)
我用的ceph-objectstore-tool 导入的 。不知道会不会覆写对象的某个版本。
副本数(osd pool default size)若>=3, 即使down两台,理论上也可以从其他主机恢复数据(down一段时间后,集群自动发生数据迁移),不影响可用。
<=2的情况,肯定影响读写,可能会丢失一部分数据(坏盘的情况)。此时尽力查出原因,恢复故障节点了