史上最详细VMware ESX Server使用EMC Celerra方案简介
仔细研究并测试了VMl连接Celerra的官方文档,把有关设置的重要部分总结如下。其实其他厂商的步骤也可以此类推。抛砖引玉,希望有更多高手测试其他厂商。
全文来自存储人生博客:《http://www.storageonline.com.cn/ ... -using-emc-celerra/》
本文基于《集成WMware ESX server与EMC存储 》并对其中“集成ESX server与Celerra”部分进行进一步的描述。因此看本文前请先了解以下三点:
1. ESX server架构图
2. VMware数据中心架构
3. VMware环境中的存储
废话少说,正式进入正题:
1. 集成ESX server与Celerra的路线图
下面这张图非常清楚的描述了集成ESX server与Celerra的2条路线-NFS/iSCSI:
ESX server上NIC和iSCSI HBA卡的配置
ESX server上VMkernel端口的配置
Celerra上创建文件系统并共享给ESX server
ESX server上创建NFS datastores
Celerra上创建iSCSI LUN给ESX server
ESX server上创建VMFS datastores
ESX server上多路径与高可用性的配置
2. ESX server上NIC和iSCSI HBA卡的配置
这里要确保NIC及iSCSI HBA能够兼容Celerra当前版本,参考 EMC Celerra 兼容列表:https://elabnavigator.emc.com/em ... pdf/EMC_Celerra.pdf
3. ESX server上VMkernel端口的配置
关于VMkernel的介绍及配置,这里不再详述,参考《VMware ESX Server网络设置》。
4. ESX server使用Celerra NFS
4.1. Celerra上创建文件系统并共享给ESX server
先建好文件系统给ESX server。当使用NFS,我们需要考虑2个方面:
4.1.1 给ESX server合适的访问权限:
4.1.2 NFS的性能:
VMware建议在mount Celerra文件系统时使用uncached选项,能够将NFS的大文件访问性能提高近30%。其原理就是当多个连接同时访问一个大文件时(NFS datastore),将多个写操作重新组织,在一定程度上实现了并行写,而且不在ESX server上缓冲,直接写入后端,从而提高了NFS性能。
这里要特别注意的是:
如果使用ESX server上的虚拟机来直接mount NFS时,uncached是没有用的。
Celerra在6.0之后对于VMware NFS访问的性能做了很大的优化,如果觉得5.6性能不如意,建议升级到6.0或以上版本。
如果有Celerra Rep,源端文件系统和目标端文件系统需要相同的设置。
4.2. ESX server上创建NFS datastores
4.2.1 当前的datastore:
4.2.2 增加NAS/NFS datastore:
5. ESX server使用Celerra iSCSI
这个基本和使用Celerra NFS类似,这里不再详述。
6. ESX server上多路径与高可用性的配置
参考《WMware ESX Server网络负载均衡配置 》
6.1. NFS的高可用性
6.1.1 ESX server端:
配置2块物理NIC给VMkernel端口,2块NIC连到不同的交换机。且NIC Teaming Load Balancing配置为基于端口的负载均衡。
6.1.2 Celerra端:
配置Celerra的网络端口为FSN:
6.2. iSCSI的高可用性
6.2.1 ESX server端:
配置2个不同的VMkernel端口,并各自使用不同的物理NIC和交换机,因此有2个完全不同的网络连接到Celerra的iSCSI:
6.2.2 ESX server端:
配置2个不同的网络端口给iSCSI Target:
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论