寒十页
作者寒十页2021-04-20 23:15
技术, 某企业技术

vSAN 技术验证测试方案

字数 17078阅读 1195评论 4赞 4

目录

  1. vSAN技术验证测试目的 .................................................................................................... 3

  2. vSAN技术验证测试的人员及职责 .................................................................................... 4

2.1. 人员分配 .................................................................................................................... 4

2.2. 职责划分 .................................................................................................................... 4

  1. 测试环境 ............................................................................................................................. 5

3.1. 地点 ............................................................................................................................ 5

3.2. 硬件配置 .................................................................................................................... 5

3.3. 软件配置 .................................................................................................................... 5

3.4. Virtual SAN 配置 ...................................................................................................... 6

3.5. 性能测试软件 ............................................................................................................. 6

  1. vSAN集群管理功能验证 .................................................................................................... 7

4.1. vSAN 环境下的虚机迁移 ............................................................................................. 7

4.2. vSAN 集群弹性扩展 ..................................................................................................... 8

  1. 标准vSAN集群可用性验证 ............................................................................................. 10

5.1. 硬盘故障 .................................................................................................................. 10

5.2. 主机故障测试(未运行 VM 的主机) ........................................................................ 13

5.3. 主机故障测试(运行 VM 的主机) ............................................................................ 14

5.4. 主机维护模式 ........................................................................................................... 15

  1. vSAN集群跨中心可用性验证 .......................................................................................... 17

6.1. 主站点故障测试 ....................................................................................................... 18

6.2. 从站点故障测试 ....................................................................................................... 18

6.3. 见证站点故障测试 .................................................................................................... 19

6.4. 主站点网络故障测试 ................................................................................................ 20

6.5. 从站点网络故障测试 ................................................................................................ 21

6.6. 主站点和从站点互连网络故障测试 .......................................................................... 22

  1. vSAN 集群性能测试 ......................................................................................................... 24

7.1. 测试负载估算 ........................................................................................................... 24

7.2. 性能测试步骤 ........................................................................................................... 24

7.3. 基本 I/O 性能测试 (HCIBench) ............................................................................... 24

7.3.1. 70% 读 30% 写 100% 随机 8K (模仿 Oracle 数据块) ........................................ 25

7.3.2. 30% 读 70% 写 100% 随机 8K (写密集应用) ..................................................... 25

7.3.3. 70% 读 30% 写 50% 随机 64K (模仿 SQL 数据块) ........................................... 26

  1. VMware vSAN环境下的 存储自动化和统一管理 ........................................................... 27

8.1. 存储自动化 - 面向应用虚机的存储策略管理 ......................................................... 27

8.2. 统一监控 .................................................................................................................. 27

  1. 技术验证测试总结 ........................................................................................................... 29

1. vSAN 技术验证测试目的

本次测试主要目的是为了协助 XX 用户验证即将用于统一资源池的 VMware vSAN 的功能和 I/O 性能,协助 XX 用户了解 VMware vSAN 在磁盘、主机发生故障时的可用性,以及在 vSAN 环境下如何实现计算资源和存储资源的统一管理和监控。为 XX 用户采用 VMware vSAN 实现计算资源和存储资源整合提供完善可行的解决方案,以检验超融合架构在 VMware 虚拟化环境的可行性。 本次测试主要对如下几个方面进行技术验证。

l VMware vSAN 环 境下的功能 验证

l VMware vSAN 环 境下的可用性 / 可靠性

l VMware vSAN 环 境下的 IO 性能 测试

l VMware vSAN 环 境下的存 储 自 动 化和 统 一管理

2. vSAN 技术验证测试的人员及职责

2.1. 人员 分配

技术验证测试 由 XX 用户与 VMware 公司共同完成,各方提供固定人员参与,根据计划有步骤地进行技术验证测试。

姓名 职责 单位名称 联系电话 邮件地址
XX用户
测试项目负责人
虚拟架构软件厂商-VMware
技术负责人
技术工程师

2.2. 职责划分

参与测试单位 参与人员 职责
XX用户 1. 负责检查技术验证测试环境是否符合要求; 2. 负责审核技术验证测试方案是否符合要求; 3. 与厂商共同进行技术验证测试; 4. 独立监督测试过程,确认测试记录、测试结果是否真实有效。
虚拟架构软件厂商-VMware 1. 负责编写技术验证测试方案; 2. 负责提供相关性能测试工具; 3. 与代理商共同进行技术验证测试; 4. 提交技术验证测试结果。

3. 测试环境

3.1. 地点

YYYYYYYYYYY 。

3.2. 硬件配置

此次测试至少包含 8 台物理服务器。所有测试全部采用 Hybrid 配置 或者 针对性能测试使用 AF 配置?

标准 vSAN 集群:至少 4 台服务器

跨数据中心 vSAN 延伸集群(也即双活):至少 4 台服务器

注意:所有 POC 的硬件(主要是 IO 控制器、 SSD 和 HDD )以及软件均要满足 vSAN 兼容列表,否则 POC 的功能和性能无法保证。

vSAN 节点服务器硬件配置:

序号 名称 厂家型号 技术规格或参数 数量
1 服务器 Xxx 英特尔至强E5-2683 v4(2.1GHz/16-core/40MB/120W)处理器,32GB12内存,2TB sas9,480GB 固态盘3,以太网卡-1Gb电口8,10Gb光口*2,双32GB SD卡组件,SR430C Raid卡(直通模式) 8
2 万兆交换机 xxx交换机 开启二层组播功能 2

3.3. 软件配置

测试环境部署的软件版本如下:

VCenter Build: VMware-VCSA-all-6.x.x.xxxxx

ESXi host: Build: VMware ESXi, 6.x.x.xxxxx

3.4. Virtual SAN 配置

每个 ESXi 主机上配置 2(4) 个磁盘组 . 每个磁盘组包括 1 个 SSD 和 4(2) 个 HDD 。

每个 ESXi 主机分配 1 个独立的 Virtual SAN vmkernel 端口 , 2*10GbE 上行链路。

磁盘型号 磁盘类型 磁盘大小 磁盘数量
N480SSDW3 固态硬盘-480GB-SATA 6Gb/s-读取密集型-2.5英寸(3.5英寸托架)-LE系列 480GB 2/4
N2000NS127W3 通用硬盘-2000GB-NL SAS 12Gb/s-7.2K rpm-128MB-3.5英寸(3.5英寸托架) 2000GB 8

IO控制器 型号
SR430C (Pass-Through)

3.5. 性能测试软件

HCIBench_1.5.0.3

4. vSAN 集群管理功能验证

4.1. vSAN 环境下的虚机迁移

工作内容说明 实施方法 预期结果 实测结果
vMotion功能 1, 登录vSphere Web Client管理页面; 2,创建一个用于测试的VM(虚机名称:VM-Test-1,配置一块30G硬盘); 3,检查VM硬盘的数据分布信息; 4,通过vMotion将被测虚机迁移到集群中另一台宿主机上; 5,再次检查VM硬盘的数据分布信息; 可以看到VM运行未受到影响。VM运行主机可以和VM硬盘数据所在主机不相同,通过vSAN可以把宿主机上的磁盘资源整合起来形成分布式共享存储。
vMotion前后的性能 1,登录vSphere Web Client管理页面; 2,创建一个用于测试的VM(虚机名称:VM-Test-1,配置一块30G硬盘); 3,使用HCIbench工具对被测虚机进行性能测试,记录结果; 4,通过vMotion将被测虚机迁移到集群中另一台宿主机上; 5,使用HCIbench工具对被测虚机再次进行性能测试,记录结果; 可以看到在vMotion前后被测虚机的性能基本一致,没有明显下降

4.2. vSAN 集群弹性扩展

工作内容说明 实施方法 预期结果 实测结果
纵向扩展(添加磁盘) 1) vSAN集群内已有的一台服务器(ESXi01)上插入一块通过vSAN 认证的硬盘(如:1000G); 2) 登录vCenter Web Client 管理页面; 3) 在服务器(ESXi01)上创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用vSAN 默认存储策略); 4) 观察vSAN存储容量大小; 5) vSAN集群内扫描硬盘,并将发现的新硬盘添加至该服务器(ESXi01)内的磁盘组里; 6) 观察vSAN存储容量大小; 注意:RAID卡必须支持直通模式并且支持热拔插,如RAID卡仅支持RAID-0模式或者不支持热插拔,请关闭主机进行添加硬盘,并在RAID BIOS配置界面中对该磁盘创建RAID-0。 1) 服务器(ESXi01)上插入硬盘后,在该主机内硬件管理里面发现一块为未使用的硬盘; 2) 将磁盘添加到vSAN集群内的后,无需在vSphere进行扩容操作,无需重新被VMFS格式化,vSAN容量自动增加 1000G; 3) 创建的用于测试的VM (虚拟机名称:VM-Test -1),并未受到影响;
横向扩展(添加主机) 1) 登录vCenter Web Client 管理页面; 2) 观察vSAN存储容量,CPU、内存资源; 3) 创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用vSAN 默认存储策略); 4) 添加一台进过vSAN认证的服务器(ESXi04) (如:配置与vSAN集群内已有的主机配置相同),配置vSAN相关磁盘组; 5) 观察vSAN存储容量,CPU、内存资源; 6) 将用于测试的VM (虚拟机名称:VM-Test -1)迁移到ESXi04主机上; 1) 将服务器(ESXi04)添加到vSAN集群内后,vSAN集群CPU、内存、存储空间均对应增加; 2) 整个扩容过程测试的VM (虚拟机名称:VM-Test -1),并未收到影响; 3) 迁移测试的VM (虚拟机名称:VM-Test -1)迁移到ESXi04主机上,VM运行未受到影响
横向扩展(移除主机) 1) 登录vCenter Web Client 管理页面; 2) 观察vSAN存储容量,CPU、内存资源; 3) 在服务器(ESXi04)上创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用vSAN 默认存储策略); 4) 先设置成维护模式,再移除vSAN的集群内的服务器(ESXi04); 5) 观察vSAN存储容量,CPU、内存资源; 6) 观察服务器(ESXi04)上测试的VM(虚拟机名称:VM-Test -1),运行状态; 1) 移除vSAN的集群内的服务器(ESXi04)后,vSAN集群CPU、内存、存储空间均对应减少; 2) 设置维护模式时测试的VM (虚拟机名称:VM-Test -1)会被集群自动迁移到集群内其他主机上运行,并未受到影响;

5. 标准 vSAN 集群可用性验证

5.1. 硬盘故障

工作内容说明 实施方法 预期结果 实测结果
硬盘故障(模拟) 1) 登录vCenter Web Client 管理页面; 2) 观察vSAN存储容量大小; 3) 在服务器(ESXi01)上创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用vSAN 默认存储策略),并查看该虚拟机在服务器(ESXi01)硬盘的位置; 4) 在线拔出服务器(ESXi01)上运行测试的VM (虚拟机名称:VM-Test -1)的硬盘(如:100G),或者关机拔出服务器(ESXi01)上运行测试的VM (虚拟机名称:VM-Test -1)的硬盘后开启主机; 5) 观察测试的VM (虚拟机名称:VM-Test -1)的组件变化; 6) 观察vSAN存储容量大小; 7) 在服务器(ESXi01)上创建测试的VM (虚拟机名称:VM-Test -2) 注意:RAID卡必须支持直通模式并且支持热拔插,如RAID卡仅支持RAID-0模式或者不支持热插拔,请关闭主机进行硬盘。 1) 拔出服务器(ESXi01)上运行测试的VM (虚拟机名称:VM-Test -1)的硬盘后,vSAN容量减少 100G; 2) 创建的用于测试的VM (虚拟机名称:VM-Test -1),并未受到影响; 3) 观察测试的VM组件显示不存在(由于是模拟硬盘故障(拔出方式),相关的组件并不会立即在集群其他主机内创建,需要等待60分钟后才会在集群其他主机创建其组件)。如果硬盘物理上永久坏掉,其测试虚拟机组件显示为已降级并会立即在其他主机上创建; 4) 在服务器(ESXi01)上成功创建测试的VM (虚拟机名称:VM-Test -2)

备注:拔盘和硬盘真实故障是不一样的, vSAN 为了减少因为错误拔盘导致重建消耗更多的资源,拔盘只会触发 Absent ,并不会触发 Degrade ,只有 Degrade 才会 Rebuild 数据,或者拔盘等候 60 分钟后,转成 Degrade 状态,之后才 Rebuild 数据。因此不能直接拔盘来模拟,可以通过两种方式:一是在拨盘前修改高级参数**VSAN.ClomRepairDelay以缩短超时时间,该方式用于方便对主机进行物理访问,且主机支持热插拔;二是需要通过特殊的命令行软件模拟:**

python /usr/lib/vmware/vsan/bin/vsanDiskFaultInjection.pyc

参见《 VSAN 6. 6 POC 指南》第 10 2 页

[root@cs-ie-h01:~] python /usr/lib/vmware/vsan/bin/vsanDiskFaultInjection.pyc –u –d naa.600508b1001c388c92e817e43fcd5237

Injecting hot unplug on device vmhba1:C0:T4:L0

vsish -e set /reliability/vmkstress/ScsiPathInjectError 0x1

vsish -e set /storage/scsifw/paths/vmhba1:C0:T4:L0/injectError 0x004C0400000002

5.2. 主机故障测试(未运行 VM 的主机)

工作内容说明 实施方法 预期结果 实测结果
主机故障-未运行VM的主机 1) 登录vCenter Web Client 管理页面; 2) 创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用默认的存储策略) 3) 观察vSAN存储容量大小,以及虚拟机VM-Test -1在vSAN集群各主机上组件分布情况; 4) 开启集群内所有ESXi主机的SSH功能, 5) 运行 PuTTY程序,通过Shell的reboot命令,重启虚拟机VM-Test -1组件所在但不运行该虚拟机的ESXi主机; 6) 观察vSAN存储容量大小,以及虚拟机VM-Test -1在vSAN集群各主机上组件分布情况; 7) 等待重启的ESXi主机启动完成后,运行 PuTTY程序,通过Shell的halt命令,关闭该ESXi主机(超过1小时); 8) 测试结束后开机该主机,以供后续测试使用; 1) 创建的虚拟机名称:VM-Test -1组件分布在2台ESX机主机上; 2) 重启虚拟机VM-Test -1组件所在但不运行该虚拟机的ESXi主机时,可以查看该主机上的组件显示“Absent”对象未找到,同时vSAN 存储容量减少; 3) 对应运行的虚拟机VM-Test -1,未受到影响; 4) ESXi主机成功启动完成后,组件显示“Active”; 5) 关闭该ESXi主机(超过1小时),其虚拟机VM-Test -1的组件在其他主机上创建; 2.

5.3. 主机故障测试(运行 VM 的主机)

工作内容说明 实施方法 预期结果 实测结果
主机故障—运行VM的组件 1) 登录vCenter Web Client 管理页面; 2) 创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用默认的存储策略) 3) 观察vSAN存储容量大小,以及虚拟机VM-Test -1在vSAN集群各主机上组件分布情况; 4) 通过迁移虚拟机VM-Test -1使其运行ESXi主机和组件在同一台的ESXi的主机; 5) 开启集群内所有ESXi主机的SSH功能, 6) 运行 PuTTY程序,通过Shell的reboot命令,重启该ESXi主机; 7) 观察vSAN存储容量大小,虚拟机VM-Test -1的运行状态,以及在vSAN集群各主机上组件分布情况; 8) 等待重启的ESXi主机启动完成后,运行 PuTTY程序,通过Shell的halt命令,关闭该ESXi主机(超过1小时); 9) 测试结束后开机该主机,以供后续测试使用; 1) 创建的虚拟机名称:VM-Test -1组件分布在2台ESX机主机上; 2) 重启虚拟机VM-Test -1运行及组件同在一台主机的ESXi时,可以查看该主机上的组件显示“Absent”对象未找到,同时vSAN 存储容量减少; 3) 对应运行的虚拟机VM-Test -1,未受到影响; 4) ESXi主机成功启动完成后,组件显示“Active”; 5) 关闭该ESXi主机(超过1小时),其虚拟机在其他ESXi主机上开机,并且VM-Test -1的组件在其他主机上创建;

5.4. 主机维护模式

工作内容说明 实施方法 预期结果 实测结果
主机维护模式下可用性测试 1) 登录vCenter Web Client 管理页面; 2) 创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用默认的存储策略) 3) 观察vSAN存储容量大小,以及虚拟机VM-Test -1在vSAN集群各主机上组件分布情况; 4) 通过迁移虚拟机VM-Test -1使其运行ESXi主机和组件在同一台的ESXi的主机(如:ESXi01); 5) 将ESXi01主机进入维护模式,在弹出的对话框中选择“迁移全部数据” 6) 通过vCenter Web Client 查看数据迁移情况(如:带宽); 1) 创建的虚拟机名称:VM-Test -1组件分布在2台ESX机主机上; 2) 将ESXi01主机进入维护模式,在弹出的对话框中选择“迁移全部数据”后,ESXi上运行的虚拟机VM-Test -1被软件自动迁移到集群内其他的ESXi主机上,其过程虚拟机未受到影响; 3) 通过vCenter Web Client 查看数据组件在其他主机上出现;

6. vSAN 集群跨中心可用性验证

验证在vSAN延伸集群架构下,虚拟化平台的可用性。 测试前将4台ESXi主机组建为延伸集群,2台加入主站点(preferred site), 2台加入从站点(secondary site), 见证主机以witness appliance虚拟机方式部署在标准vSAN集群中。

将主站点的2台ESXi主机组建为一个DRS主机组(例如preferred-site-hostgroup),将备站点的2台ESXi主机组建为另一个DRS主机组(例如secondary-site-hostgroup)。在集群上创建两台虚拟机,先不要开机,然后创建一个DRS虚拟机组(例如preferred-site-vmgroup),另外创建一个DRS虚拟机组(例如secondary-site-vmgroup),然后将两台虚拟机分别加入到这两个虚拟机组。再新建DRS 主机组-虚拟机组绑定规则,指定preferred-site-vmgroup组的虚拟机应当运行于preferred-site-hostgroup主机组上、secondary-site-hostgroup组的虚拟机应当运行于secondary-site-hostgroup主机组上,注意这个DRS规则应该为软规则(should rule)。

同时,在HA规则设置中指定HA在切换时应当尊重DRS的主机-虚拟机绑定规则。

最后,确保DRS开启并处于半自动模式,然后打开两台虚拟机电源。

6.1. 主站点故障测试

工作内容说明 实施方法 预期结果 实测结果
主站点故障 1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 在主机不进入维护模式的前提下,逐一将主站点2台ESXi主机关机 3. 在vCenter中查看虚拟机preferred-site-vm的运行状态,观察其是否被HA重启到从站点运行 4. 在vCenter中查看虚拟机secondary-site-vm的运行状态 4. 重新开启主站点的2台ESXi主机 5. 在vCenter中观察vSAN是否出现正在同步的组件 6. 观察DRS的运行建议 1. preferred-site-vm会受主站点故障影响而发生宕机,但随即在从站点上HA重启 2. secondary-site-vm运行不受影响 3. 主站点恢复后,vSAN自动由从站点向主站点同步数据 4. DRS会给出建议将preferred-site-vm迁移至主站点运行 2.

6.2. 从站点故障测试

工作内容说明 实施方法 预期结果 实测结果
从站点故障 1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 在主机不进入维护模式的前提下,逐一将从站点2台ESXi主机关机 3. 在vCenter中查看虚拟机secondary-site-vm的运行状态,观察其是否被HA重启到从站点运行 4. 在vCenter中查看虚拟机preferred-site-vm的运行状态 4. 重新开启从站点的2台ESXi主机 5. 在vCenter中观察vSAN是否出现正在同步的组件 6. 观察DRS的运行建议 1. secondary-site-vm会受从站点故障影响而发生宕机,但随即在主站点上HA重启 2. preferred-site-vm运行不受影响 3. 从站点恢复后,vSAN自动由主站点向从站点同步数据 4. DRS会给出建议将secondary-site-vm迁移至从站点运行 2.

6.3. 见证站点故障测试

工作内容说明 实施方法 预期结果 实测结果
见证站点故障 1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 关闭witness appliance虚拟机的电源或者断开witness appliance的网络 3. 在vCenter中查看虚拟机preferred-site-vm以及secondary-site-vm的运行状态 4. 重新打开witness appliance虚拟机的电源或者重新连接witness appliance的网络 5. 在vCenter中观察vSAN是否出现正在同步的组件 6. 观察DRS的运行建议 1. 所有虚拟机不受影响 2. 见证站点恢复后,vSAN没有数据同步发生 3. DRS不会给出额外的建议 2.

6.4. 主站点网络故障测试

工作内容说明 实施方法 预期结果 实测结果
主站点网络故障 1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 将主站点接入层交换机的级联端口disable,模拟主站点网络出口故障 3. 在vCenter中查看虚拟机preferred-site-vm的运行状态,观察其是否被HA重启到从站点运行 4. 在vCenter中查看虚拟机secondary-site-vm的运行状态 5. 恢复主站点接入层交换机的级联 6. 在vCenter中观察vSAN是否出现正在同步的组件 7. 观察DRS的运行建议 1. preferred-site-vm会受主站点网络故障影响而发生I/O挂起的现象,但随后在从站点上重启 2. secondary-site-vm运行不受影响 3. 主站点网络恢复后,vSAN自动由从站点向主站点同步数据 4. DRS会给出建议将preferred-site-vm迁移至主站点运行 2.

6.5. 从站点网络故障测试

工作内容说明 实施方法 预期结果 实测结果
从站点网络故障 1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 将从站点接入层交换机的级联端口disable,模拟从站点网络出口故障 3. 在vCenter中查看虚拟机secondary-site-vm的运行状态,观察其是否被HA重启到主站点运行 4. 在vCenter中查看虚拟机preferred-site-vm的运行状态 5. 恢复从站点接入层交换机的级联 6. 在vCenter中观察vSAN是否出现正在同步的组件 7. 观察DRS的运行建议 1. secondary-site-vm会受从站点网络故障影响而发生I/O挂起的现象,但随后在主站点上重启 2. preferred-site-vm运行不受影响 3. 从站点网络恢复后,vSAN自动由主站点向从站点同步数据 4. DRS会给出建议将secondary-site-vm迁移至从站点运行 2.

6.6. 主站点和从站点互连网络故障测试

工作内容说明 实施方法 预期结果 实测结果
主站点和从站点互连网络故障 1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 断开主站点接入交换机到从站点接入交换机之间的互连链路,模拟主站点和从站点之间互连网络故障 3. 在vCenter中查看虚拟机preferred-site-vm和secondary-site-vm的运行状态 4. 恢复主站点到从站点的互连链路 5. 在vCenter中观察vSAN是否出现正在同步的组件 6. 观察DRS的运行建议 1. 所有虚拟机不受影响 2. 主从站点之间的互连网络恢复后,vSAN自动在主站点和从站点之间同步数据 3. DRS不会给出额外的建议 2.

7. vSAN 集群性能测试

7.1. 测试负载估算

为了发挥出 vSAN 的性能,建议根据如下方式计算合适的测试负载:

{Total VMDK Size per Host} = {Total Cache Size per Host} *70%

{Total VMSK Number per Host} = {Total VMSK size per Host}/ ({FTT+1} *{VMDK size})

{Threads per VMDK} = 2~16

举例:

vSAN Cluster 配置:

3 台主机, 2 个磁盘组,每个磁盘组 1 块 180GB SSD cache , 3 块 370GB SSD

Total Cache Size per Host =360GB

Total Capacity Size per Host=2220 GB

建议测试配置:

VMDK 大小 = 5GB

Total VMDK 容量 = 180270% =252GB

每个主机 VMDK 数量 =252/(2*5)=24

如果每个主机部署 4 个 VM ,每个 VM 分配 6 块 5GB VMDK ( 24/4 )

如果每个主机部署 3 个 VM ,每个 VM 分配 8 块 5GB VMDK ( 24/3 )

测试时间建议:

1、 预热时间建议 30 分钟

2、 测试时间建议 30-60 分钟

7.2. 性能测试 步骤

工作内容说明 测试方法 测试结果
使用测试工具测试标准vSAN集群的I/O性能(4台主机) 使用HDBench测试挂接的vSAN I/O性能指标,指标包括: 1. IO吞吐量; 2. 每秒IO次数; 3. 读写的延迟; 4. 系统资源的占用率 测试场景: 1. 读70%写30%、100%随机,8K; 2. 读30%写70%、100%随机,8K; 3. 读70%写30%、50%随机,64K; 记录测试结果

__

7.3. 基本I/O性能测试 (HCIBench)

7.3.1. 70% 读 30% 写 100% 随机 8K (模仿 Oracle 数据块)

测试步骤:

  1. 安装部署HCIBench;

2.通过HCIBench生成10台VM测试用例压力虚拟机;

3.设置70 % 读, 30% 写, 100%随机, 8k测试参数;

4.启动压力测试任务并运行60分钟查看运行结果。

测试结果:

测试集群 IOPS 带宽 平均延迟 读延迟 写延迟 PCPU使用率 内存使用率
vSAN集群


7.3.2. 30% 读 70% 写 100% 随机 8K (写密集应用)

测试步骤:

  1. 安装部署HCIBench;

2.通过HCIBench生成10台VM测试用例压力虚拟机;

3.设置30 % 读, 70% 写, 100%随机, 8k测试参数;

4.启动压力测试任务并运行60分钟查看运行结果。

测试结果:

测试集群 IOPS 带宽 平均延迟 读延迟 写延迟 PCPU使用率 内存使用率
vSAN集群


7.3.3. 70% 读 30% 写 50% 随机 64K (模仿 SQL 数据块)

测试步骤:

  1. 安装部署HCIBench;

2.通过HCIBench生成10台VM测试用例压力虚拟机;

3.设置90 % 读, 10% 写, 100%随机, 64k测试参数;

4.启动压力测试任务并运行60分钟查看运行结果。

测试结果:

测试集群 IOPS 带宽 平均延迟 读延迟 写延迟 PCPU使用率 内存使用率
vSAN集群

8. VMware vSAN 环境下的 存储自动化和统一管理

8.1. 存储自动化 - 面向应用虚机的存储策略管理

使用vSAN后不用像管理传统存储一样,先划分LUN并Mapping到主机,然后通过Datastore为虚机分配磁盘,而是在创建虚机时通过选择指定的存储策略,系统会自动从vSAN存储中为虚机分配满足策略要求的磁盘空间,大大简化管理流程和复杂性。这意味着无需事先创建好逻辑卷和虚机所需的文件系统,可以采用存储自动化来减轻管理员的工作量,为业务负载创建好存储策略后,未来分配存储资源可以一劳永逸地使用该存储策略,极大地减少了原来枯燥乏味的重复性的,诸如划分LUN,Mapping,VMFS格式化等存储操作。将以往从下至上,围绕着存储硬件的管理方式,转向从上至下,围绕着业务/虚机为中心进行存储资源的管理和分配。

工作内容说明 实施方法 预期结果 实测结果
创建存储策略 在主页中,选择“规则和配置文件”,选择虚拟机存储策略,点击“添加”按钮:先输入一个自定义的名称,在下一步,“基于供应商特定功能的规则”中,选择“VSAN”。在“添加功能”中,选择“Number of failures of tolerate”:保持默认值为1:完成策略创建。 可以创建
创建带有策略的VM 创建带有存储策略的VM 按 “创建虚拟机”的常规流程创建一个VM。 在“虚拟机存储策略”选项栏选项刚刚创建好的策略,在下面的存储中,选择兼容的“vsanDatastore”,创建5GB的硬盘: 当虚拟机创建完成后,就可以在虚拟机的管理页面,看到虚拟机的虚拟磁盘在物理主机上的放置情况,其中包含两个“组件”(Component)和一个“证明”(Witness)
修改存储策略 1.简单修改现有关联到该VM的存储策略 2.创建一个新的存储策略,并应用到该VM 业务不中断的情况下,可施加存储策略,并实现数据的重新布局

8.2. 统一监控

vSAN完全和现有的vCenter平台集成,通过vCenter平台实现计算资源和存储资源的集中管理,统一监控vSAN的健康状态和性能状态。

工作内容说明 实施方法 预期结果 实测结果
通过虚机查看磁盘健康状态和性能状态 从虚机入口查看虚机磁盘的健康状态和性能状况 在vSphere Client管理界面上可以查看到虚机磁盘的健康状态和性能状态
通过vSAN查看节点和磁盘组的健康状态和性能状态 从vSAN入口查看vSAN节点和磁盘组的健康状态和性能状况 在同一个管理界面下就可以查看到vSAN存储的节点和磁盘组的健康状态和性能状态,无需切换到另外的界面进行监控和管理

9. 技术验证测试总结

如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!

4

添加新评论4 条评论

zenith12345zenith12345网络工程师, rqsj
2022-04-18 11:01
谢谢分享
hfbosshfboss技术总监, ahzyhl
2021-07-20 22:47
需要求证一下
啊斌543啊斌543系统工程师, 伯恩光学
2021-07-16 22:59
谢谢分享
啊斌543啊斌543系统工程师, 伯恩光学
2021-07-16 22:59
谢谢分享
Ctrl+Enter 发表

超融合选型优先顺序调查

发表您的选型观点,参与即得50金币。

作者其他文章