请高手指点:AS2.1集群的安装问题
我的环境是2台IBM X335,1台EXP300盘柜。
在安装linux AS2.1的时候没有问题。
在配置集群的时候,我在另外一台主机上无法看到盘柜。
安装过程是按照一篇文档做的,但是在执行cluconfig的最后一不出错,报DiskLseekRawReadChecksum:bad check sum等错。
过程如下:
环境说明:
1. 硬件:
服务器:IBM X335
网卡:3个*2
RAID:两块 IBM 4L
Storage:4*72GB的EXP300和SCSI cable
2. 软件:
OS:RedHat Advance Server 2.1
Kernel: 2.4.9-e.40smp
配制分配:
IP: node1: 100.1.1.1/24 WEB1
200.1.1.1/24 WEB
node2: 100.1.1.2/24 ORA1
200.1.1.2/24 ORA
Cluster IP: 100.1.1.3
基本步骤:
一、配置盘柜
ORA主机:
用IBM SERVERRAID 6.10启动,进入安装配置界面。
在管理工具中将4块硬盘配置成RAID1。
在管理工具中将controller2配置成cluster方式,并共享。
WEB主机:
用IBM SERVERRAID 6.10启动,进入安装配置界面。
在管理界面上可以看到这4块物理硬盘。
二、安装OS
按照通常的步骤安装OS,完成后:
a. 编辑 /etc/modules.conf文件,同时增加下面内容到文件内容中
alias scsi_hostadapter megaraid
options scsi_mod max_scsi_luns=255
b. 执行
mkinitrd initrd-2.4.9-e.3smp.img 2.4.9-e.3smp à这行的内容主要还是由内核来决定。
例:
/etc/modules.conf:
alias scsi_hostadapter megaraid
options scsi_mod max_scsi_luns=255
三、安装和配制分区
1.建立分驱
说明:建议在此时只开一个节点。在系统启动后,系统可以识别在磁盘柜上新建的LUN。设备名通常是在本地硬盘后顺序编排。例如:当本地是/dev/sda,那么新的设备是/dev/sdb
分区的原则和要求:Quorum分区的要求:不能小于10M,必须是裸设备,不能有文件系统。
Quorum分区只能用于Cluster的状态和配制信息。
Quorum要求两个分区,一个为primary,另一个为slave
Cluster 应用服务的分区:要求一个cluster服务一个分区。例如:你想有SQL、NFS、SAMBA三个Cluster应用服务,那么你必须为三个服务各建一个分区。
例:fdisk /dev/sdb 创建新的分区
/dev/sdb1 àQuorum primary partition
/dev/sdb2 àQuorum slave partition
/dev/sdb3 àSql partition
/dev/sdb4 àNFS partition
/dev/sdb5 àsamba partition
注意:在创建完分驱后,一定要重启主机,建议重启所有设备。
2.建立文件系统――即格式化分区
3ed说明:Quorum 必须是裸设备,所以不需要格式化。但其他分区必须格式化,同时将默认的Block块大小增大到4096,默认为1024。
例:
mkfs –t ext2 –j –b 4096 /dev/sdbx –-》X代表分区
3.为Cluster 创建Quorum分区
说明:使用命令 cat /proc/devices 确认系统是否支持裸设备,如果你看到下面的输出,说明系统可以支持裸设备。
162 raw
在两台服务器上分别编辑/etc/sysconfig/rawdevices文件,以便将分区绑定到裸设备。
例: /etc/sysconfig/rawdevices
# format:
#
# example: /dev/raw/raw1 /dev/sda1
# /dev/raw/raw2 8 5
/dev/raw/raw1 /dev/sdb1
/dev/raw/raw2 /dev/sdb2
重启服务 service rawdevices restart
4.检查和验证Quoram分区
在两个节点上分别cludiskutil –p 确保两个节点都能有以下输出:
----- Shared State Header ------
Magic# = 0x39119fcd
Version = 1
Updated on Thu Sep 14 05:43:18 2000
Updated by node 0
结果是没有这些输出,返回值是无法打开cluster的config文件。
四、建立Cluster服务
说明:确保所有网卡正常工作。同时,设置基本的网络要求。
1.编辑/etc/hosts 文件
127.0.0.1 localhost.localdomain localhost
10.0.0.1 node1.test.com node1
10.0.0.2 node2.test.com node2
10.0.0.3 Clusteralias.test.com Clusteralias
2.运行/sbin/cluconfig
说明:系统将自动生成cluster的配制文件/etc/cluster.conf,这一步只需要在其中一个节点上运行。
你将看到以下输出:
Enter cluster name [Cluster]:Cluster
Enter IP address for cluster alias [x.x.x.x]: 10.0.0.3
--------------------------------
Information for Cluster Member 0
--------------------------------
Enter name of cluster member [storage0]: node1
Looking for host storage0 (may take a few seconds)...
Enter number of heartbeat channels (minimum = 1) [1]: 1
Information about Channel 0
Channel type: net or serial [net]:
Enter hostname of the cluster member on heartbeat channel 0
[node1]: node1
Looking for host node1 (may take a few seconds)...
Information about Quorum Partitions
Enter Primary Quorum Partition [/dev/raw/raw1]: /dev/raw/raw1
Enter Shadow Quorum Partition [/dev/raw/raw2]: /dev/raw/raw2
Information About the Power Switch That Power Cycles Member ’storage0’
Choose one of the following power switches:
o NONE
o RPS10
o BAYTECH
o APCSERIAL
o APCMASTER
o WTI_NPS
Power switch [NONE]: NONE
Information for Cluster Member 1
--------------------------------
Enter name of cluster member [node2]: node2
Looking for host storage1 (may take a few seconds)...
Information about Channel 0
Enter hostname of the cluster member on heartbeat channel 0
[node2]: node2
Looking for host storage1 (may take a few seconds)...
Information about Quorum Partitions
Enter Primary Quorum Partition [/dev/raw/raw1]: /dev/raw/raw1
Enter Shadow Quorum Partition [/dev/raw/raw2]: /dev/raw/raw2
Information About the Power Switch That Power Cycles Member ’node2’
Choose one of the following power switches:
o NONE
o RPS10
o BAYTECH
o APCSERIAL
o APCMASTER
o WTI_NPS
Power switch [NONE]: NONE
Cluster name: Development Cluster
Cluster alias IP address: 10.0.0.154
Cluster alias netmask: 255.255.254.0
--------------------
Member 0 Information
--------------------
Name: node1
Primary quorum partition: /dev/raw/raw1
Shadow quorum partition: /dev/raw/raw2
Heartbeat channels: 1
Channel type: net, Name: node1
Power switch IP address or hostname: node1
--------------------
Member 1 Information
--------------------
Name: node2
Primary quorum partition: /dev/raw/raw1
Shadow quorum partition: /dev/raw/raw2
Heartbeat channels: 1
Channel type: net, Name: node2
Save the cluster member information? yes/no [yes]:
Writing to configuration file...done
Configuration information has been saved to /etc/cluster.conf.
----------------------------
Setting up Quorum Partitions
----------------------------
Running cludiskutil -I to initialize the quorum partitions: done
Saving configuration information to quorum partitions: done
Do you wish to allow remote monitoring of the cluster? yes/no
[yes]: yes
----------------------------------------------------------------
Configuration on this member is complete.
To configure the next member, invoke the following command on that system:
# /sbin/cluconfig --init=/dev/raw/raw1
See the manual to complete the cluster installation
此时报错。
请教高手指点。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
1、连线。将4L的SCSI控制卡安装在X335上,线缆连接在集成的控制卡上
2、用IBM SERVERRAID光盘启动,进入管理界面。
3、配置controller2,将4块硬盘配成RAID1。
4、将controller 2配置为cluster,将logical drive设置为共享。channel1设置为6。
5、重新启动机器。
6、启动另外一台主机,进入raidserver的管理界面。可以看到4个物理盘,但是看不到array。
7、配置cluster,将logical drive设置为共享。
8、问题:在第一台主机上可以进行fdisk /dev/sdb分区操作,但是在第二台主机的操作系统中无法看到相关盘的信息。
我怀疑是否在什么地方设置有错误。
另外老兄,你也是成都的,是否可以给个电话,向你请教。
请把你的安装过程自已写下来,你现在帖子的内容,并没有包含相关内容无法了解问题的所在。