@oscfox 你好,想跟你请教个问题:
有关ceph安装配置问题,我搭建一个ceph集群环境
MON 1 OSD 2个 都在node104现在出现192pg 警告查了好久没发现什么问题
health HEALTH_WARN 192 pgs degraded; 192 pgs stuck unclean
如果仅是开发测试,可以ceph osd crush add 时使用虚拟host,这样副本就可以满足要求了
mon clock drift allowed = 2 mon clock drift warn backoff = 60
多个mon时间差问题确实有,mon好像有时间需要统一。
因为ceph deploy 默认吧osd 设置在同一个bucket下面,而ceph算法规则默认将不同的备份数分发到不同的不同的bucket下,所以ceph认为你的bucket少于你的备份数从而报这个错。要避免这个问题可以手动部署ceph不用cephdeploy,或者手动去修改bucket,具体操作请查看官方文档
请问:
1.刚重装了下。ceph-deploy部署的方式。就算我3个osd装在两台机器上,osd pool default size还是要设置为2,才行,不然还是会提示 degraded; pgs stuck unclean 不知道为啥。。
2.还有,而且我如果初始化安装3个mon,会有提示mon.1 和mon.2,clock skew 时钟偏差。
还没有,把机器重做了下系统,手动重新配一下.
弄好了没有 coding_java
回复 @coding_java : 安装官方文档手动部署一遍吧,这样能了解多一点ceph的机制,ceph-deploy封装了很多东西
回复好的,谢谢你,我手动来一遍.
回复前辈,我还是没太理解osd pool default size 指的是谁的数量. 创建osd的节点的数量 还是所有节点上osd的总数量 , 还是?感觉OSD数量一致了还是报错.
指d的是默认的pool是数据备份数,这个要小于等于你osd数量。
回复前辈,终于OK了, 创建了3个osd,分别放到3个节点中.
我之前看到你的回答了,我的好像不是这个问题.
是这样我的osd 和mon在104上了 ,和这个有关么,两个osd也都是104挂载的不同盘
这是因为默认的备份数是3个,而你只有两个osd,你改一下配置文件,然后推到各个节点重启试试
osd pool default size = 2 osd pool default min size = 1
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
暂无简介
文章 0 评论 0
接受
发布评论
评论(14)
如果仅是开发测试,可以ceph osd crush add 时使用虚拟host,这样副本就可以满足要求了
mon clock drift allowed = 2 mon clock drift warn backoff = 60
多个mon时间差问题确实有,mon好像有时间需要统一。
因为ceph deploy 默认吧osd 设置在同一个bucket下面,而ceph算法规则默认将不同的备份数分发到不同的不同的bucket下,所以ceph认为你的bucket少于你的备份数从而报这个错。要避免这个问题可以手动部署ceph不用cephdeploy,或者手动去修改bucket,具体操作请查看官方文档
请问:
1.刚重装了下。ceph-deploy部署的方式。就算我3个osd装在两台机器上,osd pool default size还是要设置为2,才行,不然还是会提示 degraded; pgs stuck unclean 不知道为啥。。
2.还有,而且我如果初始化安装3个mon,会有提示mon.1 和mon.2,clock skew 时钟偏差。
还没有,把机器重做了下系统,手动重新配一下.
弄好了没有 coding_java
回复 @coding_java : 安装官方文档手动部署一遍吧,这样能了解多一点ceph的机制,ceph-deploy封装了很多东西
回复
好的,谢谢你,我手动来一遍.
回复
前辈,我还是没太理解osd pool default size 指的是谁的数量. 创建osd的节点的数量 还是所有节点上osd的总数量 , 还是?感觉OSD数量一致了还是报错.
指d的是默认的pool是数据备份数,这个要小于等于你osd数量。
回复
前辈,终于OK了, 创建了3个osd,分别放到3个节点中.
我之前看到你的回答了,我的好像不是这个问题.
是这样我的osd 和mon在104上了 ,和这个有关么,两个osd也都是104挂载的不同盘
这是因为默认的备份数是3个,而你只有两个osd,你改一下配置文件,然后推到各个节点重启试试