solaris 10 + cluster3.2 + sds 双机配置的具体步骤
1、首先配置 IP 环境 一个节点配置一个浮动(虚拟)IP /etc/hosts 文件中配置一下内容,node1 和 node2 相同配置
node1
127.0.0.1 localhost
192.168.0.101 node1 loghost 主网卡 (命名:1 表示 node1 1 表示主网卡)
192.168.0.102 node1_qfe0 备份网卡 2 node2 2 备份网卡
192.168.0.111 node1_float 虚拟 IP
192.168.0.201 node2
192.168.0.202 node2_qfe0
192.168.0.222 node2_float
192.168.0.88 test_lh 资源主机名
node2
192.168.0.101 node1 loghost
192.168.0.102 node1_qfe0
192.168.0.111 node1_float
192.168.0.201 node2
192.168.0.202 node2_qfe0
192.168.0.222 node2_float
192.168.0.88 test_lh 资源主机名
2、手工建立 /.rhosts
+ 表示所有主机都可以信任
3、将时间同步 在 node2 上执行下列命名,以 node2 为基准
svcs -a | grep time 查看与 time 有关的服务是否启动
svcadm enable svc:/network/time:dgram
svcadm enable svc:/network/time:stream 以上两个服务必须开启才能完成 NTP
svcs -a | grep meta 查看后启动所有服务
在 node1 上执行:rdate node2 同步时间 同步对象节点 2 以 2 为基准
查看 node1,node2 是否同步 date
4、配置 IPMP
node1:上配置主网卡,备份网卡
/etc/hostname.eri0
192.168.0.101 group ipmp0 up
addif 192.168.0.111 -failover deprecated up
/etc/hostname.qfe0
192.168.0.102 group inpm0 -failover deprecated up
node2:相同配置
/etc/hostname.eri0
192.168.0.201 group ipmp0 up
addif 192.168.0.222 -failover deprecated up
/etc/hostname.qfe0
192.168.0.202 group inpm0 -failover deprecated up
5、配置完成后 reboot
6、建立/globaldevices 文件系统 在/etc/vfstab 中定义自动挂载(全局设备文件系统)
format c1t0d0 划分 512M 给 S6 node1 node2 上
预留/globaldevices 512M for cluster *c1t0d0s6 建立空间
sds 需要独立开辟一个分区空间用来存储配置信息 本地硬盘上 node1 node2
format : 30M c1t0d0s7 metadb -afc 3 /dev/rdsk/c1t0d0s7 metadb 查看 newfs /dev/rdsk/c1t0d0s6 建立文件系统 mkdir /globaldevices 建立挂载点 /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # fd - /dev/fd fd - no - /proc - /proc proc - no - /dev/dsk/c1t0d0s1 - - swap - no - /dev/dsk/c1t0d0s0 /dev/rdsk/c1t0d0s0 / ufs 1 no - /dev/dsk/c1t0d0s3 /dev/rdsk/c1t0d0s3 /var ufs 1 no - /devices - /devices devfs - no - sharefs - /etc/dfs/sharetab sharefs - no - ctfs - /system/contract ctfs - no - objfs - /system/object objfs - no - swap - /tmp tmpfs - yes - /dev/dsk/c1t0d0s6 /dev/rdsk/c1t0d0s6 /globaldevices ufs 1 no - 添加自动挂载,装了 cluster 后自动注释掉
打最新的补丁集
7、安装 cluster 软件 安装目录:/usr/cluster 解压:unzip suncluster-3_2-ga-solaris-sparc.zip .安装
安装过程先不配置 选择手动配置
8、将 PATH=$PATH:/opt/SUNWcluster/bin:/usr/cluster/bin:/usr/cluster/lib/sc:/usr/cluster/dtk/bin
export PATH 加入 (此步骤可以不做)
修改这个 /etc/profile 将 cluster 命令在全局环境下可使用
#ident "@(#)profile 1.19 01/03/13 SMI" /* SVr4.0 1.3 */ # The profile that all logins get before using their own .profile. trap "" 2 3 export LOGNAME PATH if [ "$TERM" = "" ] then if /bin/i386 then TERM=sun-color else TERM=sun fi export TERM fi # Login and -su shells get /etc/profile services. # -rsh is given its environment in its .profile. case "$0" in -sh | -ksh | -jsh | -bash) if [ ! -f .hushlogin ] then /usr/sbin/quota # Allow the user to break the Message-Of-The-Day only. trap "trap '' 2" 2 /bin/cat -s /etc/motd trap "" 2 /bin/mail -E case $? in 0) echo "You have new mail." ;; 2) echo "You have mail." ;; esac fi esac umask 022 trap 2 3 PATH=$PATH:/opt/SUNWcluster/bin:/usr/cluster/bin:/usr/cluster/lib/sc:/usr/cluster/dtk/bin export PATH
9、配置 node1、node2 加入 cluster 中
scinstall
bash-3.00# sc pwd
/usr/cluster/bin
bash-3.00# ls
bash-3.00# ./scinstall
1 创建一个新的节点,是先重启对端,节点后重启当前节点
2 创建第一个节点,配置完成后会重启当前节点
禁用自动选择仲裁设备(默认不禁用)
配置第二个节点
加入已有的群集
双机配置结束
10、加仲裁盘
format vol g 标记仲裁盘
scsetup 加仲裁盘
或运行:*scconf -a -q globaldev=d4
(共享盘上选择仲裁盘)
11、创建共享卷组
scdidadm -L (查看全局设备)刷新设备使设备变成全局设备
1 node1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d1
2 node1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
3 node1:/dev/rdsk/c1t0d0 /dev/did/rdsk/d3
4 node1:/dev/rdsk/c3t67d0 /dev/did/rdsk/d4
4 node2:/dev/rdsk/c3t67d0 /dev/did/rdsk/d4 仲裁盘
5 node1:/dev/rdsk/c3t65d0 /dev/did/rdsk/d5
5 node2:/dev/rdsk/c3t65d0 /dev/did/rdsk/d5 d5 ,d6 共享盘加入 test_ data 共享组
6 node1:/dev/rdsk/c3t68d0 /dev/did/rdsk/d6
6 node2:/dev/rdsk/c3t68d0 /dev/did/rdsk/d6
7 node1:/dev/rdsk/c3t66d0 /dev/did/rdsk/d7
7 node2:/dev/rdsk/c3t66d0 /dev/did/rdsk/d7
8 node1:/dev/rdsk/c3t70d0 /dev/did/rdsk/d8
8 node2:/dev/rdsk/c3t70d0 /dev/did/rdsk/d8
9 node1:/dev/rdsk/c3t81d0 /dev/did/rdsk/d9
9 node2:/dev/rdsk/c3t81d0 /dev/did/rdsk/d9
10 node1:/dev/rdsk/c3t69d0 /dev/did/rdsk/d10
10 node2:/dev/rdsk/c3t69d0 /dev/did/rdsk/d10
11 node1:/dev/rdsk/c3t80d0 /dev/did/rdsk/d11
11 node2:/dev/rdsk/c3t80d0 /dev/did/rdsk/d11
12 node1:/dev/rdsk/c3t82d0 /dev/did/rdsk/d12
12 node2:/dev/rdsk/c3t82d0 /dev/did/rdsk/d12
13 node2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d13
14 node2:/dev/rdsk/c1t0d0 /dev/did/rdsk/d14
创建共享卷组挂载点
mkdir /test
metaset -s test_data -a -h node1 node2 创建共享组名
metaset -s test_data -a /dev/did/rdsk/d5 /dev/did/rdsk/d6 将共享磁盘加入共享组
scswitch -z -D test_data -h node2 切换主节点
建文件系统
metainit -s test_data d50 1 1 /dev/did/rdsk/d5s0
cd /dev/md
newfs /dev/md/test_data/dsk/d50 自带的逻辑卷管理
newfs /dev/vx/rdsk/rootdg/lvtest veritas 逻辑卷管理
修改 vfstab 文件 将共享文件系统写入自动挂载 sds 与 veritas 同样要做这步
手动验证两个节点是否可以手动挂载 只能挂载于设备组的主节点(node1),不能同时挂载两个节点上
/etc/vfstab
#device device mount FS fsck mount mount
#to mount to fsck point type pass at boot options
#
fd - /dev/fd fd - no -
/proc - /proc proc - no -
/dev/dsk/c1t0d0s1 - - swap - no -
/dev/dsk/c1t0d0s0 /dev/rdsk/c1t0d0s0 / ufs 1 no -
/dev/dsk/c1t0d0s3 /dev/rdsk/c1t0d0s3 /var ufs 1 no -
/devices - /devices devfs - no -
sharefs - /etc/dfs/sharetab sharefs - no -
ctfs - /system/contract ctfs - no -
objfs - /system/object objfs - no -
swap - /tmp tmpfs - yes -
#/dev/dsk/c1t0d0s6 /dev/rdsk/c1t0d0s6 /globaldevices ufs 1 no -
/dev/did/dsk/d2s6 /dev/did/rdsk/d2s6 /global/.devices/node@1 ufs 2 no global 添加由 cluster 软件管理的 did 全局设备
自动挂载设备被#注释掉
切换节点看是否能自动挂载:scswitch -z -D test_data -h node2 由 node2 节点挂载全局文件系统
12、scsetup 添加资源组(test)
1.逻辑主机名 test_lh
2.首先定义逻辑主机名与应用 IP 的对应关系 /etc/hosts 文件中
3.3HA 系统资源
4.注册 server 资源 HA NFS 服务启停由脚本控制
5.注册 listener 资源
scswitch -z -g testrg -h node2 切换资源组到另一个节点
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(8)
标记下。回去研究研究。
学习一下.
学习了,感谢楼主。
node1有D1,D2,D3, node2为什么只有d13和d14呢?
比较业余的问题啊
感谢分享
收藏
newfs /dev/md/test_data/dsk/d50 自带的逻辑卷管理 SDS
newfs /dev/vx/rdsk/rootdg/lvtest veritas 逻辑卷管理 VXVM
这里两种逻辑卷管理方式,这里取SDS自带的管理方式
不是很完整,怎么还有vxvm了。。。。后面有点。。。。