ceph安装配置完成,pgs degraded; pgs stuck unclean

发布于 2021-11-26 21:40:22 字数 1193 浏览 759 评论 6

[root@ceph01 ~]# ceph -s
    cluster 950ff068-1065-4667-977e-c75b6a2ce1dd
     health HEALTH_WARN 192 pgs degraded; 192 pgs stuck unclean
     monmap e1: 1 mons at {ceph01=10.1.8.235:6789/0}, election epoch 1, quorum 0 ceph01
     osdmap e15: 2 osds: 2 up, 2 in
      pgmap v24: 192 pgs, 3 pools, 0 bytes data, 0 objects
            12291 MB used, 17560 MB / 31449 MB avail
                 192 active+degraded

环境如下:

centos6.4  安装ceph emperor版本

ceph01 mon

ceph02 osd

ceph03 osd

ceph04 ceph-admin

安装部署按照官方文档操作,是osd物理节点和pg数量不匹配的原因吗?是否需要修改ceph.conf文件?

配置文件如下:

[root@ceph04 my-cluster]# cat ceph.conf 
[global]
auth_service_required = cephx
filestore_xattr_use_omap = true
auth_client_required = cephx
auth_cluster_required = cephx
mon_host = 10.1.8.235
mon_initial_members = ceph01
fsid = 950ff068-1065-4667-977e-c75b6a2ce1dd

希望知道故障原因的回复下,不胜感激!

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(6

霞映澄塘 2021-12-01 12:49:08

你好,我是单节点,用的ceph-deploy配置的,添加了三个osd后,还是出现这个问题

health HEALTH_WARN 33 pgs degraded; 128 pgs stuck unclean 33 pgs undersized

replicated size 2 min_size 1

请问如何处理,谢谢

海之角 2021-12-01 10:22:46

是的,一个节点一个副本,[osd.id]中的host设置为不同(虚拟host)即可被视为不同主机

醉生梦死 2021-12-01 07:55:30

回复
ceph osd tree中查看crush

秉烛思 2021-11-30 14:22:30

的确如此,增加一个OSD节点即可,谢谢了!

眉黛浅 2021-11-28 21:32:59

配置文件增加下面两行,默认的为 3,2, osd数要>=备份数.或者可以增加一个osd试试

osd pool default size = 2

osd pool default min size =1

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文