ceph安装配置完成,pgs degraded; pgs stuck unclean
[root@ceph01 ~]# ceph -s
cluster 950ff068-1065-4667-977e-c75b6a2ce1dd
health HEALTH_WARN 192 pgs degraded; 192 pgs stuck unclean
monmap e1: 1 mons at {ceph01=10.1.8.235:6789/0}, election epoch 1, quorum 0 ceph01
osdmap e15: 2 osds: 2 up, 2 in
pgmap v24: 192 pgs, 3 pools, 0 bytes data, 0 objects
12291 MB used, 17560 MB / 31449 MB avail
192 active+degraded
环境如下:
centos6.4 安装ceph emperor版本
ceph01 mon
ceph02 osd
ceph03 osd
ceph04 ceph-admin
安装部署按照官方文档操作,是osd物理节点和pg数量不匹配的原因吗?是否需要修改ceph.conf文件?
配置文件如下:
[root@ceph04 my-cluster]# cat ceph.conf
[global]
auth_service_required = cephx
filestore_xattr_use_omap = true
auth_client_required = cephx
auth_cluster_required = cephx
mon_host = 10.1.8.235
mon_initial_members = ceph01
fsid = 950ff068-1065-4667-977e-c75b6a2ce1dd
希望知道故障原因的回复下,不胜感激!
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(6)
你好,我是单节点,用的ceph-deploy配置的,添加了三个osd后,还是出现这个问题
health HEALTH_WARN 33 pgs degraded; 128 pgs stuck unclean 33 pgs undersized
replicated size 2 min_size 1
请问如何处理,谢谢
是的,一个节点一个副本,[osd.id]中的host设置为不同(虚拟host)即可被视为不同主机
回复
ceph osd tree中查看crush
@oscfox
的确如此,增加一个OSD节点即可,谢谢了!
配置文件增加下面两行,默认的为 3,2, osd数要>=备份数.或者可以增加一个osd试试
osd pool default size = 2
osd pool default min size =1