寒十页
作者寒十页·2021-04-20 23:15
技术·某企业技术

vSAN 技术验证测试方案

字数 16413阅读 3791评论 4赞 4

目录

  1. vSAN技术验证测试目的 .................................................................................................... 3
  2. vSAN技术验证测试的人员及职责 .................................................................................... 4

2.1. 人员分配 .................................................................................................................... 4

2.2. 职责划分 .................................................................................................................... 4

  1. 测试环境 ............................................................................................................................. 5

3.1. 地点 ............................................................................................................................ 5

3.2. 硬件配置 .................................................................................................................... 5

3.3. 软件配置 .................................................................................................................... 5

3.4. Virtual SAN 配置 ...................................................................................................... 6

3.5. 性能测试软件 ............................................................................................................. 6

  1. vSAN集群管理功能验证 .................................................................................................... 7

4.1. vSAN 环境下的虚机迁移 ............................................................................................. 7

4.2. vSAN 集群弹性扩展 ..................................................................................................... 8

  1. 标准vSAN集群可用性验证 ............................................................................................. 10

5.1. 硬盘故障 .................................................................................................................. 10

5.2. 主机故障测试(未运行 VM 的主机) ........................................................................ 13

5.3. 主机故障测试(运行 VM 的主机) ............................................................................ 14

5.4. 主机维护模式 ........................................................................................................... 15

  1. vSAN集群跨中心可用性验证 .......................................................................................... 17

6.1. 主站点故障测试 ....................................................................................................... 18

6.2. 从站点故障测试 ....................................................................................................... 18

6.3. 见证站点故障测试 .................................................................................................... 19

6.4. 主站点网络故障测试 ................................................................................................ 20

6.5. 从站点网络故障测试 ................................................................................................ 21

6.6. 主站点和从站点互连网络故障测试 .......................................................................... 22

  1. vSAN 集群性能测试 ......................................................................................................... 24

7.1. 测试负载估算 ........................................................................................................... 24

7.2. 性能测试步骤 ........................................................................................................... 24

7.3. 基本 I/O 性能测试 (HCIBench) ............................................................................... 24

7.3.1. 70% 读 30% 写 100% 随机 8K (模仿 Oracle 数据块) ........................................ 25

7.3.2. 30% 读 70% 写 100% 随机 8K (写密集应用) ..................................................... 25

7.3.3. 70% 读 30% 写 50% 随机 64K (模仿 SQL 数据块) ........................................... 26

  1. VMware vSAN环境下的 存储自动化和统一管理 ........................................................... 27

8.1. 存储自动化 - 面向应用虚机的存储策略管理 ......................................................... 27

8.2. 统一监控 .................................................................................................................. 27

  1. 技术验证测试总结 ........................................................................................................... 29

1. vSAN 技术验证测试目的

本次测试主要目的是为了协助 XX 用户验证即将用于统一资源池的 VMware vSAN 的功能和 I/O 性能,协助 XX 用户了解 VMware vSAN 在磁盘、主机发生故障时的可用性,以及在 vSAN 环境下如何实现计算资源和存储资源的统一管理和监控。为 XX 用户采用 VMware vSAN 实现计算资源和存储资源整合提供完善可行的解决方案,以检验超融合架构在 VMware 虚拟化环境的可行性。 本次测试主要对如下几个方面进行技术验证。

l VMware vSAN 环 境下的功能 验证

l VMware vSAN 环 境下的可用性 / 可靠性

l VMware vSAN 环 境下的 IO 性能 测试

l VMware vSAN 环 境下的存 储 自 动 化和 统 一管理

2. vSAN 技术验证测试的人员及职责

2.1. 人员 分配

技术验证测试 由 XX 用户与 VMware 公司共同完成,各方提供固定人员参与,根据计划有步骤地进行技术验证测试。

姓名职责单位名称联系电话邮件地址
XX用户
测试项目负责人
虚拟架构软件厂商-VMware
技术负责人
技术工程师

2.2. 职责划分

参与测试单位参与人员职责
XX用户 1. 负责检查技术验证测试环境是否符合要求; 2. 负责审核技术验证测试方案是否符合要求; 3. 与厂商共同进行技术验证测试; 4. 独立监督测试过程,确认测试记录、测试结果是否真实有效。
虚拟架构软件厂商-VMware 1. 负责编写技术验证测试方案; 2. 负责提供相关性能测试工具; 3. 与代理商共同进行技术验证测试; 4. 提交技术验证测试结果。

3. 测试环境

3.1. 地点

YYYYYYYYYYY 。

3.2. 硬件配置

此次测试至少包含 8 台物理服务器。所有测试全部采用 Hybrid 配置 或者 针对性能测试使用 AF 配置?

标准 vSAN 集群:至少 4 台服务器

跨数据中心 vSAN 延伸集群(也即双活):至少 4 台服务器

注意:所有 POC 的硬件(主要是 IO 控制器、 SSD 和 HDD )以及软件均要满足 vSAN 兼容列表,否则 POC 的功能和性能无法保证。

vSAN 节点服务器硬件配置:

序号名称厂家型号技术规格或参数数量
1服务器Xxx英特尔至强E5-2683 v4(2.1GHz/16-core/40MB/120W)处理器,32GB12内存,2TB sas9,480GB 固态盘3,以太网卡-1Gb电口8,10Gb光口*2,双32GB SD卡组件,SR430C Raid卡(直通模式)8
2万兆交换机xxx交换机开启二层组播功能2

3.3. 软件配置

测试环境部署的软件版本如下:

VCenter Build: VMware-VCSA-all-6.x.x.xxxxx

ESXi host: Build: VMware ESXi, 6.x.x.xxxxx

3.4. Virtual SAN 配置

每个 ESXi 主机上配置 2(4) 个磁盘组 . 每个磁盘组包括 1 个 SSD 和 4(2) 个 HDD 。

每个 ESXi 主机分配 1 个独立的 Virtual SAN vmkernel 端口 , 2*10GbE 上行链路。

磁盘型号磁盘类型磁盘大小磁盘数量
N480SSDW3固态硬盘-480GB-SATA 6Gb/s-读取密集型-2.5英寸(3.5英寸托架)-LE系列480GB2/4
N2000NS127W3通用硬盘-2000GB-NL SAS 12Gb/s-7.2K rpm-128MB-3.5英寸(3.5英寸托架)2000GB8

IO控制器 型号
SR430C (Pass-Through)

3.5. 性能测试软件

HCIBench_1.5.0.3

# 4. vSAN 集群管理功能验证

4.1. vSAN 环境下的虚机迁移

工作内容说明实施方法预期结果实测结果
vMotion功能1, 登录vSphere Web Client管理页面; 2,创建一个用于测试的VM(虚机名称:VM-Test-1,配置一块30G硬盘); 3,检查VM硬盘的数据分布信息; 4,通过vMotion将被测虚机迁移到集群中另一台宿主机上; 5,再次检查VM硬盘的数据分布信息;可以看到VM运行未受到影响。VM运行主机可以和VM硬盘数据所在主机不相同,通过vSAN可以把宿主机上的磁盘资源整合起来形成分布式共享存储。
vMotion前后的性能1,登录vSphere Web Client管理页面; 2,创建一个用于测试的VM(虚机名称:VM-Test-1,配置一块30G硬盘); 3,使用HCIbench工具对被测虚机进行性能测试,记录结果; 4,通过vMotion将被测虚机迁移到集群中另一台宿主机上; 5,使用HCIbench工具对被测虚机再次进行性能测试,记录结果;可以看到在vMotion前后被测虚机的性能基本一致,没有明显下降

4.2. vSAN 集群弹性扩展

工作内容说明实施方法预期结果实测结果
纵向扩展(添加磁盘)1) vSAN集群内已有的一台服务器(ESXi01)上插入一块通过vSAN 认证的硬盘(如:1000G); 2) 登录vCenter Web Client 管理页面; 3) 在服务器(ESXi01)上创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用vSAN 默认存储策略); 4) 观察vSAN存储容量大小; 5) vSAN集群内扫描硬盘,并将发现的新硬盘添加至该服务器(ESXi01)内的磁盘组里; 6) 观察vSAN存储容量大小; 注意:RAID卡必须支持直通模式并且支持热拔插,如RAID卡仅支持RAID-0模式或者不支持热插拔,请关闭主机进行添加硬盘,并在RAID BIOS配置界面中对该磁盘创建RAID-0。1) 服务器(ESXi01)上插入硬盘后,在该主机内硬件管理里面发现一块为未使用的硬盘; 2) 将磁盘添加到vSAN集群内的后,无需在vSphere进行扩容操作,无需重新被VMFS格式化,vSAN容量自动增加 1000G; 3) 创建的用于测试的VM (虚拟机名称:VM-Test -1),并未受到影响;
横向扩展(添加主机)1) 登录vCenter Web Client 管理页面; 2) 观察vSAN存储容量,CPU、内存资源; 3) 创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用vSAN 默认存储策略); 4) 添加一台进过vSAN认证的服务器(ESXi04) (如:配置与vSAN集群内已有的主机配置相同),配置vSAN相关磁盘组; 5) 观察vSAN存储容量,CPU、内存资源; 6) 将用于测试的VM (虚拟机名称:VM-Test -1)迁移到ESXi04主机上;1) 将服务器(ESXi04)添加到vSAN集群内后,vSAN集群CPU、内存、存储空间均对应增加; 2) 整个扩容过程测试的VM (虚拟机名称:VM-Test -1),并未收到影响; 3) 迁移测试的VM (虚拟机名称:VM-Test -1)迁移到ESXi04主机上,VM运行未受到影响
横向扩展(移除主机)1) 登录vCenter Web Client 管理页面; 2) 观察vSAN存储容量,CPU、内存资源; 3) 在服务器(ESXi04)上创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用vSAN 默认存储策略); 4) 先设置成维护模式,再移除vSAN的集群内的服务器(ESXi04); 5) 观察vSAN存储容量,CPU、内存资源; 6) 观察服务器(ESXi04)上测试的VM(虚拟机名称:VM-Test -1),运行状态;1) 移除vSAN的集群内的服务器(ESXi04)后,vSAN集群CPU、内存、存储空间均对应减少; 2) 设置维护模式时测试的VM (虚拟机名称:VM-Test -1)会被集群自动迁移到集群内其他主机上运行,并未受到影响;

5. 标准 vSAN 集群可用性验证

5.1. 硬盘故障

工作内容说明实施方法预期结果实测结果
硬盘故障(模拟)1) 登录vCenter Web Client 管理页面; 2) 观察vSAN存储容量大小; 3) 在服务器(ESXi01)上创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用vSAN 默认存储策略),并查看该虚拟机在服务器(ESXi01)硬盘的位置; 4) 在线拔出服务器(ESXi01)上运行测试的VM (虚拟机名称:VM-Test -1)的硬盘(如:100G),或者关机拔出服务器(ESXi01)上运行测试的VM (虚拟机名称:VM-Test -1)的硬盘后开启主机; 5) 观察测试的VM (虚拟机名称:VM-Test -1)的组件变化; 6) 观察vSAN存储容量大小; 7) 在服务器(ESXi01)上创建测试的VM (虚拟机名称:VM-Test -2) 注意:RAID卡必须支持直通模式并且支持热拔插,如RAID卡仅支持RAID-0模式或者不支持热插拔,请关闭主机进行硬盘。1) 拔出服务器(ESXi01)上运行测试的VM (虚拟机名称:VM-Test -1)的硬盘后,vSAN容量减少 100G; 2) 创建的用于测试的VM (虚拟机名称:VM-Test -1),并未受到影响; 3) 观察测试的VM组件显示不存在(由于是模拟硬盘故障(拔出方式),相关的组件并不会立即在集群其他主机内创建,需要等待60分钟后才会在集群其他主机创建其组件)。如果硬盘物理上永久坏掉,其测试虚拟机组件显示为已降级并会立即在其他主机上创建; 4) 在服务器(ESXi01)上成功创建测试的VM (虚拟机名称:VM-Test -2)

备注:拔盘和硬盘真实故障是不一样的, vSAN 为了减少因为错误拔盘导致重建消耗更多的资源,拔盘只会触发 Absent ,并不会触发 Degrade ,只有 Degrade 才会 Rebuild 数据,或者拔盘等候 60 分钟后,转成 Degrade 状态,之后才 Rebuild 数据。因此不能直接拔盘来模拟,可以通过两种方式:一是在拨盘前修改高级参数VSAN.ClomRepairDelay以缩短超时时间,该方式用于方便对主机进行物理访问,且主机支持热插拔;二是需要通过特殊的命令行软件模拟:

python /usr/lib/vmware/vsan/bin/vsanDiskFaultInjection.pyc

参见《 VSAN 6. 6 POC 指南》第 10 2 页

[root@cs-ie-h01:~] python /usr/lib/vmware/vsan/bin/vsanDiskFaultInjection.pyc –u –d naa.600508b1001c388c92e817e43fcd5237

Injecting hot unplug on device vmhba1:C0:T4:L0

vsish -e set /reliability/vmkstress/ScsiPathInjectError 0x1

vsish -e set /storage/scsifw/paths/vmhba1:C0:T4:L0/injectError 0x004C0400000002

5.2. 主机故障测试(未运行 VM 的主机)

工作内容说明实施方法预期结果实测结果
主机故障-未运行VM的主机1) 登录vCenter Web Client 管理页面; 2) 创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用默认的存储策略) 3) 观察vSAN存储容量大小,以及虚拟机VM-Test -1在vSAN集群各主机上组件分布情况; 4) 开启集群内所有ESXi主机的SSH功能, 5) 运行 PuTTY程序,通过Shell的reboot命令,重启虚拟机VM-Test -1组件所在但不运行该虚拟机的ESXi主机; 6) 观察vSAN存储容量大小,以及虚拟机VM-Test -1在vSAN集群各主机上组件分布情况; 7) 等待重启的ESXi主机启动完成后,运行 PuTTY程序,通过Shell的halt命令,关闭该ESXi主机(超过1小时); 8) 测试结束后开机该主机,以供后续测试使用;1) 创建的虚拟机名称:VM-Test -1组件分布在2台ESX机主机上; 2) 重启虚拟机VM-Test -1组件所在但不运行该虚拟机的ESXi主机时,可以查看该主机上的组件显示“Absent”对象未找到,同时vSAN 存储容量减少; 3) 对应运行的虚拟机VM-Test -1,未受到影响; 4) ESXi主机成功启动完成后,组件显示“Active”; 5) 关闭该ESXi主机(超过1小时),其虚拟机VM-Test -1的组件在其他主机上创建; 2.

5.3. 主机故障测试(运行 VM 的主机)

工作内容说明实施方法预期结果实测结果
主机故障—运行VM的组件1) 登录vCenter Web Client 管理页面; 2) 创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用默认的存储策略) 3) 观察vSAN存储容量大小,以及虚拟机VM-Test -1在vSAN集群各主机上组件分布情况; 4) 通过迁移虚拟机VM-Test -1使其运行ESXi主机和组件在同一台的ESXi的主机; 5) 开启集群内所有ESXi主机的SSH功能, 6) 运行 PuTTY程序,通过Shell的reboot命令,重启该ESXi主机; 7) 观察vSAN存储容量大小,虚拟机VM-Test -1的运行状态,以及在vSAN集群各主机上组件分布情况; 8) 等待重启的ESXi主机启动完成后,运行 PuTTY程序,通过Shell的halt命令,关闭该ESXi主机(超过1小时); 9) 测试结束后开机该主机,以供后续测试使用;1) 创建的虚拟机名称:VM-Test -1组件分布在2台ESX机主机上; 2) 重启虚拟机VM-Test -1运行及组件同在一台主机的ESXi时,可以查看该主机上的组件显示“Absent”对象未找到,同时vSAN 存储容量减少; 3) 对应运行的虚拟机VM-Test -1,未受到影响; 4) ESXi主机成功启动完成后,组件显示“Active”; 5) 关闭该ESXi主机(超过1小时),其虚拟机在其他ESXi主机上开机,并且VM-Test -1的组件在其他主机上创建;

5.4. 主机维护模式

工作内容说明实施方法预期结果实测结果
主机维护模式下可用性测试1) 登录vCenter Web Client 管理页面; 2) 创建一个用于测试的VM (虚拟机名称:VM-Test -1,配置一块30G的硬盘,使用默认的存储策略) 3) 观察vSAN存储容量大小,以及虚拟机VM-Test -1在vSAN集群各主机上组件分布情况; 4) 通过迁移虚拟机VM-Test -1使其运行ESXi主机和组件在同一台的ESXi的主机(如:ESXi01); 5) 将ESXi01主机进入维护模式,在弹出的对话框中选择“迁移全部数据” 6) 通过vCenter Web Client 查看数据迁移情况(如:带宽);1) 创建的虚拟机名称:VM-Test -1组件分布在2台ESX机主机上; 2) 将ESXi01主机进入维护模式,在弹出的对话框中选择“迁移全部数据”后,ESXi上运行的虚拟机VM-Test -1被软件自动迁移到集群内其他的ESXi主机上,其过程虚拟机未受到影响; 3) 通过vCenter Web Client 查看数据组件在其他主机上出现;

6. vSAN 集群跨中心可用性验证

验证在vSAN延伸集群架构下,虚拟化平台的可用性。 测试前将4台ESXi主机组建为延伸集群,2台加入主站点(preferred site), 2台加入从站点(secondary site), 见证主机以witness appliance虚拟机方式部署在标准vSAN集群中。

将主站点的2台ESXi主机组建为一个DRS主机组(例如preferred-site-hostgroup),将备站点的2台ESXi主机组建为另一个DRS主机组(例如secondary-site-hostgroup)。在集群上创建两台虚拟机,先不要开机,然后创建一个DRS虚拟机组(例如preferred-site-vmgroup),另外创建一个DRS虚拟机组(例如secondary-site-vmgroup),然后将两台虚拟机分别加入到这两个虚拟机组。再新建DRS 主机组-虚拟机组绑定规则,指定preferred-site-vmgroup组的虚拟机应当运行于preferred-site-hostgroup主机组上、secondary-site-hostgroup组的虚拟机应当运行于secondary-site-hostgroup主机组上,注意这个DRS规则应该为软规则(should rule)。

同时,在HA规则设置中指定HA在切换时应当尊重DRS的主机-虚拟机绑定规则。

最后,确保DRS开启并处于半自动模式,然后打开两台虚拟机电源。

6.1. 主站点故障测试

工作内容说明实施方法预期结果实测结果
主站点故障1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 在主机不进入维护模式的前提下,逐一将主站点2台ESXi主机关机 3. 在vCenter中查看虚拟机preferred-site-vm的运行状态,观察其是否被HA重启到从站点运行 4. 在vCenter中查看虚拟机secondary-site-vm的运行状态 4. 重新开启主站点的2台ESXi主机 5. 在vCenter中观察vSAN是否出现正在同步的组件 6. 观察DRS的运行建议1. preferred-site-vm会受主站点故障影响而发生宕机,但随即在从站点上HA重启 2. secondary-site-vm运行不受影响 3. 主站点恢复后,vSAN自动由从站点向主站点同步数据 4. DRS会给出建议将preferred-site-vm迁移至主站点运行 2.

6.2. 从站点故障测试

工作内容说明实施方法预期结果实测结果
从站点故障1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 在主机不进入维护模式的前提下,逐一将从站点2台ESXi主机关机 3. 在vCenter中查看虚拟机secondary-site-vm的运行状态,观察其是否被HA重启到从站点运行 4. 在vCenter中查看虚拟机preferred-site-vm的运行状态 4. 重新开启从站点的2台ESXi主机 5. 在vCenter中观察vSAN是否出现正在同步的组件 6. 观察DRS的运行建议1. secondary-site-vm会受从站点故障影响而发生宕机,但随即在主站点上HA重启 2. preferred-site-vm运行不受影响 3. 从站点恢复后,vSAN自动由主站点向从站点同步数据 4. DRS会给出建议将secondary-site-vm迁移至从站点运行 2.

6.3. 见证站点故障测试

工作内容说明实施方法预期结果实测结果
见证站点故障1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 关闭witness appliance虚拟机的电源或者断开witness appliance的网络 3. 在vCenter中查看虚拟机preferred-site-vm以及secondary-site-vm的运行状态 4. 重新打开witness appliance虚拟机的电源或者重新连接witness appliance的网络 5. 在vCenter中观察vSAN是否出现正在同步的组件 6. 观察DRS的运行建议1. 所有虚拟机不受影响 2. 见证站点恢复后,vSAN没有数据同步发生 3. DRS不会给出额外的建议 2.

6.4. 主站点网络故障测试

工作内容说明实施方法预期结果实测结果
主站点网络故障1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 将主站点接入层交换机的级联端口disable,模拟主站点网络出口故障 3. 在vCenter中查看虚拟机preferred-site-vm的运行状态,观察其是否被HA重启到从站点运行 4. 在vCenter中查看虚拟机secondary-site-vm的运行状态 5. 恢复主站点接入层交换机的级联 6. 在vCenter中观察vSAN是否出现正在同步的组件 7. 观察DRS的运行建议1. preferred-site-vm会受主站点网络故障影响而发生I/O挂起的现象,但随后在从站点上重启 2. secondary-site-vm运行不受影响 3. 主站点网络恢复后,vSAN自动由从站点向主站点同步数据 4. DRS会给出建议将preferred-site-vm迁移至主站点运行 2.

6.5. 从站点网络故障测试

工作内容说明实施方法预期结果实测结果
从站点网络故障1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 将从站点接入层交换机的级联端口disable,模拟从站点网络出口故障 3. 在vCenter中查看虚拟机secondary-site-vm的运行状态,观察其是否被HA重启到主站点运行 4. 在vCenter中查看虚拟机preferred-site-vm的运行状态 5. 恢复从站点接入层交换机的级联 6. 在vCenter中观察vSAN是否出现正在同步的组件 7. 观察DRS的运行建议1. secondary-site-vm会受从站点网络故障影响而发生I/O挂起的现象,但随后在主站点上重启 2. preferred-site-vm运行不受影响 3. 从站点网络恢复后,vSAN自动由主站点向从站点同步数据 4. DRS会给出建议将secondary-site-vm迁移至从站点运行 2.

6.6. 主站点和从站点互连网络故障测试

工作内容说明实施方法预期结果实测结果
主站点和从站点互连网络故障1. 远程登陆主站点的虚拟机(假设为preferred-site-vm)和从站点的虚拟机(假设为secondary-site-vm),观察其活动状态 2. 断开主站点接入交换机到从站点接入交换机之间的互连链路,模拟主站点和从站点之间互连网络故障 3. 在vCenter中查看虚拟机preferred-site-vm和secondary-site-vm的运行状态 4. 恢复主站点到从站点的互连链路 5. 在vCenter中观察vSAN是否出现正在同步的组件 6. 观察DRS的运行建议1. 所有虚拟机不受影响 2. 主从站点之间的互连网络恢复后,vSAN自动在主站点和从站点之间同步数据 3. DRS不会给出额外的建议 2.

# 7. vSAN 集群性能测试

7.1. 测试负载估算

为了发挥出 vSAN 的性能,建议根据如下方式计算合适的测试负载:

{Total VMDK Size per Host} = {Total Cache Size per Host} *70%

{Total VMSK Number per Host} = {Total VMSK size per Host}/ ({FTT+1} *{VMDK size})

{Threads per VMDK} = 2~16

举例:

vSAN Cluster 配置:

3 台主机, 2 个磁盘组,每个磁盘组 1 块 180GB SSD cache , 3 块 370GB SSD

Total Cache Size per Host =360GB

Total Capacity Size per Host=2220 GB

建议测试配置:

VMDK 大小 = 5GB

Total VMDK 容量 = 180270% =252GB

每个主机 VMDK 数量 =252/(2*5)=24

如果每个主机部署 4 个 VM ,每个 VM 分配 6 块 5GB VMDK ( 24/4 )

如果每个主机部署 3 个 VM ,每个 VM 分配 8 块 5GB VMDK ( 24/3 )

测试时间建议:

1、 预热时间建议 30 分钟

2、 测试时间建议 30-60 分钟

7.2. 性能测试 步骤

工作内容说明测试方法测试结果
使用测试工具测试标准vSAN集群的I/O性能(4台主机)使用HDBench测试挂接的vSAN I/O性能指标,指标包括: 1. IO吞吐量; 2. 每秒IO次数; 3. 读写的延迟; 4. 系统资源的占用率 测试场景: 1. 读70%写30%、100%随机,8K; 2. 读30%写70%、100%随机,8K; 3. 读70%写30%、50%随机,64K;记录测试结果

__

7.3. 基本I/O性能测试 (HCIBench)

7.3.1. 70% 读 30% 写 100% 随机 8K (模仿 Oracle 数据块)

测试步骤:

  1. 安装部署HCIBench;

2.通过HCIBench生成10台VM测试用例压力虚拟机;

3.设置70 % 读, 30% 写, 100%随机, 8k测试参数;

4.启动压力测试任务并运行60分钟查看运行结果。

测试结果:

测试集群IOPS带宽平均延迟读延迟写延迟PCPU使用率内存使用率
vSAN集群


7.3.2. 30% 读 70% 写 100% 随机 8K (写密集应用)

测试步骤:

  1. 安装部署HCIBench;

2.通过HCIBench生成10台VM测试用例压力虚拟机;

3.设置30 % 读, 70% 写, 100%随机, 8k测试参数;

4.启动压力测试任务并运行60分钟查看运行结果。

测试结果:

测试集群IOPS带宽平均延迟读延迟写延迟PCPU使用率内存使用率
vSAN集群


7.3.3. 70% 读 30% 写 50% 随机 64K (模仿 SQL 数据块)

测试步骤:

  1. 安装部署HCIBench;

2.通过HCIBench生成10台VM测试用例压力虚拟机;

3.设置90 % 读, 10% 写, 100%随机, 64k测试参数;

4.启动压力测试任务并运行60分钟查看运行结果。

测试结果:

测试集群IOPS带宽平均延迟读延迟写延迟PCPU使用率内存使用率
vSAN集群

8. VMware vSAN 环境下的 存储自动化和统一管理

8.1. 存储自动化 - 面向应用虚机的存储策略管理

使用vSAN后不用像管理传统存储一样,先划分LUN并Mapping到主机,然后通过Datastore为虚机分配磁盘,而是在创建虚机时通过选择指定的存储策略,系统会自动从vSAN存储中为虚机分配满足策略要求的磁盘空间,大大简化管理流程和复杂性。这意味着无需事先创建好逻辑卷和虚机所需的文件系统,可以采用存储自动化来减轻管理员的工作量,为业务负载创建好存储策略后,未来分配存储资源可以一劳永逸地使用该存储策略,极大地减少了原来枯燥乏味的重复性的,诸如划分LUN,Mapping,VMFS格式化等存储操作。将以往从下至上,围绕着存储硬件的管理方式,转向从上至下,围绕着业务/虚机为中心进行存储资源的管理和分配。

工作内容说明实施方法预期结果实测结果
创建存储策略在主页中,选择“规则和配置文件”,选择虚拟机存储策略,点击“添加”按钮:先输入一个自定义的名称,在下一步,“基于供应商特定功能的规则”中,选择“VSAN”。在“添加功能”中,选择“Number of failures of tolerate”:保持默认值为1:完成策略创建。可以创建
创建带有策略的VM创建带有存储策略的VM 按 “创建虚拟机”的常规流程创建一个VM。 在“虚拟机存储策略”选项栏选项刚刚创建好的策略,在下面的存储中,选择兼容的“vsanDatastore”,创建5GB的硬盘:当虚拟机创建完成后,就可以在虚拟机的管理页面,看到虚拟机的虚拟磁盘在物理主机上的放置情况,其中包含两个“组件”(Component)和一个“证明”(Witness)
修改存储策略1.简单修改现有关联到该VM的存储策略 2.创建一个新的存储策略,并应用到该VM业务不中断的情况下,可施加存储策略,并实现数据的重新布局

8.2. 统一监控

vSAN完全和现有的vCenter平台集成,通过vCenter平台实现计算资源和存储资源的集中管理,统一监控vSAN的健康状态和性能状态。

工作内容说明实施方法预期结果实测结果
通过虚机查看磁盘健康状态和性能状态从虚机入口查看虚机磁盘的健康状态和性能状况在vSphere Client管理界面上可以查看到虚机磁盘的健康状态和性能状态
通过vSAN查看节点和磁盘组的健康状态和性能状态从vSAN入口查看vSAN节点和磁盘组的健康状态和性能状况在同一个管理界面下就可以查看到vSAN存储的节点和磁盘组的健康状态和性能状态,无需切换到另外的界面进行监控和管理

9. 技术验证测试总结

如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!

4

添加新评论4 条评论

zenith12345zenith12345网络工程师rqsj
2022-04-18 11:01
谢谢分享
hfbosshfboss技术总监ahzyhl
2021-07-20 22:47
需要求证一下
啊斌543啊斌543系统工程师伯恩光学
2021-07-16 22:59
谢谢分享
啊斌543啊斌543系统工程师伯恩光学
2021-07-16 22:59
谢谢分享
Ctrl+Enter 发表

作者其他文章

相关问题

相关资料

X社区推广