Virtual Flex-10和Virtual FlexFabric的区别及使用指南
Virtual Connect FlexFabric
HP VC FlexFabric模块和FlexFabric适配卡将Flex-10技术扩展到一个新的层次,可以在同一条10GB链路上同时传输数据和存储流量。通过FlexFabric, 可以将单一10GB链路上的网络和存储流量分割成4路独立连接(FlexNIC和FlexHBA)。可以调整每路连接的带宽和路由信息。FlexFabric施佩克可以基于端口提供offloaded iSCSI 或 Fiber Channel over Ethernet (FCoE) 功能。
选择Flex-10或FlexFabric
到底选择那一个模块,最主要的考量在于Fibre Channel连接在今后是否需要。两个模块的区别在于FlexFabric模块将通过集成于BladeSystem服务器的Converged Network Adapter (CNA)提供FCoE (Fibre Channel) 或者 iSCSI 连接. FCoE连接通过CNA和FlexFabric模块就可以实现,并不再需要其他模块,比如传统的HBA.
如果不需要Fibre Channel支持,那么可以采用Flex-10模块。
iSCSI支持可以通过FlexFabric 或 Flex-10模块实现.
FlexFabric模块的配置
Virtual Connect uses connection profiles in combination with dynamic pools of unique MAC and WWN addresses to establish server connections to LANs and SANs. The server connection profiles contain MAC, WWN, and boot-from-SAN definitions assigned to BladeSystem enclosure bays and not to individual servers. The physical server in each bay uses the MAC and WWN assignments in the bay profile instead of its default NIC or HBA addresses. Even if you replace a server, the MAC and WWN assignments for the device bay remain constant, and the change is invisible to the network.
常用的FC SAN模块及组件
• HP Virtual Connect 8Gb 24-Port Fibre Channel Module for BladeSystem
• HP Virtual Connect 8Gb 20-Port Fibre Channel Module for BladeSystem
• HP Virtual Connect 4Gb Fibre Channel Module for BladeSystem
• HP 4Gb Fibre Channel Pass-Thru Module for the c-Class BladeSystem
• Brocade 8Gb SAN Switch for HP c-Class BladeSystem
• Brocade 4Gb SAN Switch for HP c-Class BladeSystem
• Cisco MDS 9124e Fabric Switch
• HP 4Gb FC Virtual Connect Pass-Thru Module for the c-Class BladeSystem
NVID
因为HP VC FC模块可以直接将SAN和管理域的数据分离开,因此引入了一个新的属性 N_Port ID
Virtualization (NVID) . NVID类似于网络技术中的Trunk,可以在单一通道上传递不同通道的数据。
NPIV-capable SAN switches to which to attach. Enable NPIV on the SAN switch ports.
– Most enterprise class SAN switches today support NPIV. Note that a firmware upgrade may be
required. Refer to the SAN switch vendor documentation for more details.
– If switch-based zoning is in place, using NPIV will require soft zoning (zoning by WWN) to ensure that multiple connections sharing a single NPIV switch port will be zoned.
The NPIV protocol requires two participating ports:
N_Port (an HBA or any device that acts as an NPIV gateway). The N_Port communicates with a Fibre Channel fabric for requesting port addresses and subsequently registering with the fabric.
F_Port (a fabric port, generally an FC switch). The F_Port assigns the WWN addresses and provides fabric services for the N_Port.
T-11 standards (FC-DA and FC-LS) define NPIV protocol. Both the N_Port and FC switch should comply with these standards for the NPIV-based technology in VC to function properly.
Port Mapping of Mezzanine
其中,对于HH, NIC 1和2为内置网卡。对于FH, NIC 1,2,3和4为内置网卡。
什么是VMware Virtual SAN
VMware Virtual SAN 是一个极其简单的企业级共享存储解决方案,适用于针对现今的全闪存性能进行了优化的超融合基础架构。
Virtual SAN 是唯一一个直接从虚拟化管理程序交付的超融合存储解决方案,形成了经过闪存优化的体系结构,在每个全闪存节点可交付高达 100,000 次的 IOPS。
虚拟化管理程序嵌入式体系结构:利用最短、最高效的 I/O 数据路径,实现优化性能,并最大限度减少对 CPU 和内存资源的影响。
全闪存体系结构:部署全闪存体系结构及基于闪存的缓存和固态硬盘数据持久存储,以便为每台主机提供高达 100,000 次的 IOPS,并保持一致性和低延迟。
服务器端缓存:通过企业级服务器端闪存缓存并加快读/写磁盘 I/O 流量的传输,从而提高虚拟机性能并最大限度地减少存储延迟。
自行调节:根据分配给集群中各台虚拟机的存储服务级别,自动重新构建和重新平衡存储。
服务质量 (QoS):自动限制和监控特定虚拟机使用的 IOPS,消除邻位干扰问题。
存储效率
Virtual SAN 可通过数据缩减技术优化数据占用空间,使存储使用率提高多达 10 倍,从而实现最经济高效的全闪存性能。
重复数据消除和压缩:优化全闪存存储容量,使数据缩减多达 7 倍,同时最大限度减少对服务器 CPU 和内存资源的影响。
纠删码:最多可使可用存储容量增加 2 倍,并保持同样高级别的数据恢复能力。借助单奇偶校验保护或双奇偶校验保护,可容许发生一次或两次故障。
可用性
Virtual SAN 可为要求最严苛的关键业务应用提供企业级可用性,并可借助可调整的内置容错设置交付 99.999% 甚至更高的正常运行时间。
内置的容错功能:通过指定要容许的主机、网络、磁盘或机架故障次数,借助内置分布式 RAID、缓存镜像功能和每虚拟机控制最大限度提高恢复能力。
延伸集群:支持企业级可用性,可借助两个数据中心之间的同步复制功能,确保即使整个站点出现故障也不会丢失数据,且几乎能够实现零停机。
可与 VMware 产品体系进行互操作:利用 High Availability (HA)、Distributed Resource Scheduler (DRS) 以及 vSphere 快照和 VMware Site Recovery Manager 等核心 vSphere 功能。
借助 vSphere Replication 实现 5 分钟 RPO:适用于 Virtual SAN 的 vSphere Replication 可提供最多只需 5 分钟的异步虚拟机复制 RPO。
管理
借助 Virtual SAN,可在 vSphere Web Client 这个紧密集成的单一界面轻松管理存储以及计算和网络连接。
单一窗口管理:使用基于 vSphere Web Client 的管理功能,只需单击两次即可调配存储,因此不需要开展关于专用存储界面和工具的培训。
以虚拟机为中心且基于策略的控制和自动化:单击一次即可部署存储策略以自动调配存储资源,而无需进行 LUN 或 RAID 配置。
Health Service:直接通过 vSphere Web Client 执行硬件、固件和驱动程序兼容性检查,并实时诊断和报告性能与存储容量。
horizon6怎么和vsan结合使用
1首先需要到vcenter或者vcsa上面配置vsan
2选择vsan集群,开启vsan功能
3可以看到上图我们选择了手动的添加模式,所以下面需要我们手动去添加可用的存储
4 到disk mangement的位置,去重新扫描添加存储 ,我这里已经添加了,所以是空的
5现在配置好vsan集群,也有了vsan存储,我们就去horizon那里使用这个vsan存储
6我们新建一个桌面池,主要测试一下能否用到vsan存储
7前面的配置我都省略,你可以自由配置,在这一步就可以启用vsan存储了。
8前面四个都选好之后,最后一个选择存储,我们点击以下,去看看vsan存储
9我们看到了vsan存储
10
10下面的步骤直接默认就完成了
如何彻底删除vSAN Disk Group里的闪存盘或HDD盘
这是因为在bios里的相关选项里禁用了这个选项。解除禁用即可。 方法: 1、磁盘第1启动顺序一定要设置为:[Hard disk]硬盘启动: 2、进入bios选项,选择[HDD S.M.A.R.T. Capability]磁盘自动监控及回报功能!bios默认的设置禁用了此项: 3、将其开启。变为enabled。 4、再将光标移到[Hard disk boot priority]磁盘启动选项中: 5、用+或-键移动其光标选择要启动的磁盘,按F10保存退出即可。 按照以上步骤就可以完成U盘启动设置方法,解决了主板BIOS没有USB-HDD选项问题。
VMware的存储虚拟化vSAN,网络虚拟化NSX的原理,配置过程是怎样的
本来虚拟化的HA和DRS策略是为了保障虚拟机的平衡和高可用性的机制,但是在某种不合理策略策略和极端物理故障场合下就有可能导致比正常故障范围还要大很多的面积性故障。
试想,如果DRS处于非激进状态,那么在发生HA的时候,即使资源不够,那么故障范围仅限于很小一部分虚拟机,不会发生彼此影响,而且时间集中化的影响。
尤其是Windows的虚拟机,成功热迁移的概率比Linux要低很多。所以提醒大家合理设置高可用策略。
使用VMware VSAN做存储要注意些什么?
可以参考这里的VMware VSAN(1.0版)中文版FAQ:https://community.emc.com/message/827792,
主机配置
Q1.在1.0 版本中,一个VSAN 集群中至少需要几台主机?
A1.3 台
Q2.至少需要多少台主机贡献本地存储?
A2.至少需要3 台主机贡献本地存储
Q3.是否VSAN 集群中的所有ESXi主机都需要贡献存储?
A3.不是。主机可以不贡献本地存储,只使用vsanDatastore。但是作为最佳实践,VMware推荐所有主机的配置都类似/相同。
Q4.对1.0 版本而言,VSAN集群中最多可以有几台主机?
A4.VSAN设计的上限是vSphere集群,但是在beta版本中,我们加了一个软限制:每个集群的最大节点数目是8。
Q5.那些不为集群贡献本地存储的主机,也计入8台主机的软限制中么?
A5.是的。VSAN中的所有主机,不管它是否贡献本地存储,都会被计算入“每个集群8台主机”的软限制中。
Q6.VSAN 需要哪个版本的vSphere?
A6.vSphere5.5。VSAN已经包含在这个发行版中,不需要额外安装组件或者VIB。
Q7.如何扩大VSAN集群?
A7.和添加1台主机到集群中一样容易。
如何在一台ESXi主机上搭建一整套VSAN集群的环境
就来介绍下如何在一台ESXi主机上配置3个ESXi并组建一个VSAN集群。昨天,我介绍了如何在一台ESXi主机上安装ESXi的客户机(当然这些ESXi本身也是主机哦,还可以在其上部署虚拟机,虽然性能会比较差)。因此,首先就是根据上面所说的硬件条件创建3个虚拟机用来安装ESXi5.5u1。我的配置是每一台主机都包括:
4个CPU(最少2个)
8GB内存
3个硬盘,一个4GB(用来装系统)、一个40GB(模拟成SSD)、一个400GB(提供给vsan存放数据)
2个网络适配器,一个在子网192.168.10.x用于管理和虚拟机网络,一个在子网192.168.20.x,用于VSAN VMkernel
虚拟机版本10
注意,为了让ESXi客户机有2个网络适配器,在ESXi主机(本例中起名为esxi01)上的网络配置至少要配置2个不同的端口组,我将这2个端口组分别配置在了2个不同的vSwitch上:
vSwitch0,默认vSwitch,配置有管理网络(VMKernel)和VM Network 10端口组
vSwitch2,新增的vSwitch,配置有VM Network 20端口组
此外,我还因为有iSCSI存储,因此配置了2个iSCSI的VMKernel分别在vSwitch1和vSwitch2上。
vSwitch0和vSwitch2的配置截图如下:
这里有一点要说明的是,如果仅为了vsan网络的通信,vSwitch2可以没有上联的物理适配器,我的截图里面配置了上联的物理适配器是因为我还有一个iSCSI2的VMkernel需要使用。
安装3台虚拟机的过程就不赘述了,只要你按照我昨天的文章来操作,就可以顺利完成。安装完之后,照例是配置静态IP地址、FQDN主机名、禁用IPv6、DNS并开启SSH和ESXi SHELL以备之后在控制台输入命令行使用。
需要强调一次的是,在你的实验网络中,需要配置好一台域控制器,它同时也是DNS服务器,并事先在DNS服务器里面添加好静态的ESXi主机的DNS项。在我的实验环境中,它们是:
esxi55u01.home.lab – 192.168.10.31
esxi55u02.home.lab – 192.168.10.32
esxi55u03.home.lab – 192.168.10.33
请在黄色DCUI界面(安装完ESXi主机的初次配置界面)里面测试一下网络,如果主机域名也能顺利解析,那就说明网络配置都完备了。DNS对于正确配置VMware集群来说非常重要。
接下去就是用vSphere Web客户端再次连接到vCenter(我的是vCSA),把这几台新安装的ESXi主机添加进来,添加的时候要用FQDN,不能是IP地址。
现在让我们来看一看这些ESXi主机的磁盘情况(左边窗格点选主机,在右边窗格分别选择管理,存储器和存储设备,如图所示),可以看见置备的3个磁盘都是非SSD。下面要克服的问题是怎样欺骗ESXi,让它以为其中一块40GB的磁盘是SSD,这样才能满足VSAN配置的必要前提条件。
让我们进入到这台vSphere ESXi主机的管理控制台界面,在命令行里面输入下面的2条命令,就可以完成:
# esxcli storage nmp satp rule add --satp VMW_SATP_LOCAL --device mpx.vmhba1:C0:T1:L0 --option=enable_ssd
# esxcli storage core claiming reclaim -d mpx.vmhba1:C0:T1:L0
注意,这里的设备ID要填写你所想要变成SSD的那个磁盘,设备ID就是长的像mpx.vmhba1.C0:T1:L0的那个。
输入命令后,如果没有填错,是不返回结果的。回到vSphere Web客户端,刷新一下,你就会发现那个40GB的磁盘的类型变成SSD了。
关于VSAN的配置,LeoXiao同学写的很不错,就不多罗嗦了。你可以参考他的文章。
我借个图说明下顺序:
多说一句,为了测试NIOC功能,而这个功能只有在分布式交换机上才有,所以,建议VSAN集群配置的时候先配置好分布式交换机,并且把VSAN专用的VMkernel建在分布式交换机上。
最后,给大家看一下,要搭建一个VSAN集群的测试环境,在一台主机上至少要配置并开启5台虚拟机——包括1台域控制器,1台vCenter和3台ESXi主机(每台都配了8GB内存哦)。
虽然还是有一些网络传输上不稳定的问题,不过vsan数据存储好歹是建起来了。
VSAN 如何处理磁盘或主机故障
原则上,一个VSAN cluster至少需要三个node(容错为1,冗余为1),每个node上至少有一个disk group。这些disk group可构成一个VSAN的datastore,对外提供存储池服务。存放在这个VSAN datastore上的每个object,会在根据容错和冗余要求在多个disk group上创建副本。所以当一个磁盘或者node故障了,VSAN还有其他node和disk group上的副本数据可以用。