ceph osd 节点 自动down up

发布于 2021-11-26 01:56:24 字数 334 浏览 706 评论 11

ceph 始终无法达到 Health OK

之前创建了3个osd,分别在不同的Node  ,不是副本的问题,

ceph -w  发现osd总自动断开连接,大家有遇见过这种情况么

(15 reports from 1 peers after 92.971831 >= grace 91.001673好像是这个部分引发的问题.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(11

韬韬不绝 2021-11-29 23:28:21

ceph health detail查看出错详情; 既然0 objs那就干脆删除3个pool重建看看

沙与沫 2021-11-29 23:28:20

飘然心甜 2021-11-29 23:28:20

回复
ceph-mon -i hostname --mkfs没有执行也可以直接启动mon啊?

清风夜微凉 2021-11-29 23:28:20

回复
这个问题找到了,当初配置文件mon节点没有初始化

顾挽 2021-11-29 23:28:19

@coding_java 问题解决了吗?我怀疑是网络问题。。。

坏尐絯 2021-11-29 23:28:19

回复
好的,我安装个试试

画骨成沙 2021-11-29 23:28:07

回复
没解决说说看,你遇见过这种情况么

草莓味的萝莉 2021-11-29 23:21:23

回复
应该不是时间差问题,时间相差不到2s

尐偏执 2021-11-29 23:18:31

@coding_java 暂时还没有遇到过。你查看下detail信息,看下那几个pg到底是什么原因导致的。

把昨日还给我 2021-11-29 23:16:39

ceph -s 显示的内容是什么?

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文