IBM服务器配置rhcs问题
我的系统是redhat5.4,用rhcs做集群,
cluster1.example.com 192.168.70.111; fence_ip 192.168.70.125
cluster2.example.com 192.168.70.222 ; fence_ip 192.168.70.126
iscsi.example.com 192.168.70.253 是iscsi存储的ip
GW的ip是192.168.70.254
环境是这样的:
两台IBM3850,每台的eth0都和hub连接,每台的管理口也都和hub连接,之后配置地址为192.168.70.x/24
我在系统中测试了fence是正常的,fence_ipmilan -a 192.168.70.126 -l redhat -p redhat -o status (126是第二台设备的fence地址),在第二台上测试125(第一台设备的fence地址),也是正常的。
配置完cluster后clustat -i 1发现集群也是正常的,但当我在第一台设备上ifdown eth0,第二台设备并没有将第一台fence掉。
在两台设备上看到的现象都是cluster-1虽然offline,但他仍然是集群的主设备,这是为什么呢???
另外,我又尝试了一下用qdisk做集群,clustat -i 1查看状态也是 正常的,但将master的ifdown eth0后,slave也不能正常变成master,必须得等master重启完成后,slave才能变成master,重启master还不能自动完成层,必须还得手动重启,我记得qdisk能自动重启设备的啊,怎么回事呢?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(7)
cluster.conf和/var/log/messages拿来。
我是第一次去做这个,也只是个测试,客户只给了我两个小时。做完了cluster后做切换测试,发现了那个问题的时候已经差不多到时间了,就没有保存log信息。
我首先向问一下,我那个拓扑对吗,可以那样连接吗?
cluster1 cluster2
eth0 eth0 iscsi
| | |
----------------------------------------------------------------------192.168.70.X/24
| |
cluster1管理口 cluster2管理口
回复 1# shichunda
没日志不好分析,装了openipmi的包没?fence没生效?只能瞎猜了。。
没有安装openipmi那个包。
如果fence设备没生效,那我在系统中测试fence的时候为什么能成功呢?
回复 5# shichunda
呵呵,你先装上那个包再试试先
cluster.conf还是没有?
由于时间仓促,我连测试都没弄完,更别说备份日志和配置文件了呵呵。
我只是想向大家请教,可能出现这种问题是 哪些原因,如果非要日志才能给出答案,那就算了。