asdf-asdf
作者asdf-asdf2018-05-02 23:41
研究学者, cloudstone

数据中心虚拟化实践讨论总结

字数 9137阅读 5117评论 0赞 2

**在设备复杂,多厂商虚拟化数据中心管理中。必须实现相对统一的硬件配置标准化和部署结构标准化,云管理平台配合固化的部署流程,对资源进行统一的资源分配。监控计算和存储资源的单位使用情况和利用率,通过计费平台完成费用统计。为计算资源和存储资源确定计量单位,完成内部投资回报比例计算。看到同人关心的技术问题。如云管理平台在实施中的部署方案和实际使用情况,回复中进行了详细描述。云管理平台接入不同虚拟化管理软件,完成统一的云资源供给。在未来无论是docker技术还是serverless技术都是云管理平台的一个资源组件,通过接口对接到云管理平台,完成资源注册。资源完成注册后即可进行统一资源分配和回收。
希望本次探讨继续进行。方便各个需要实施云管理平台的企业进行相互参考和借鉴。下面是相关问题以及回答摘录:**

1、 多套存储能否用虚拟化整合?

客户单位几年时间配备了多个分散的SAN存储网络,服务器存储是华为的,可以通过虚拟化的方式统一管理吗?可以的话,光交要做怎样的配置?

doc 项目经理 , 长春理想
x86服务器可以用vmware虚拟化,存储可以用svc虚拟化

asdf-asdf 研究学者 , git.cloud
san存储如果支持 svc 可使用svc完成统一存储资源管理.
具体配置方法参考下 svc 实践方法

yhsih 系统运维工程师 , 某烟草公司
SAN存储网路是已经快过气的产品了,建议别折腾,自然淘汰就好

sanangel592 系统工程师 , 福建
1、你所说的虚拟化分为两种,一种是服务器的虚拟化,如果用的的vmware,vmware有所谓的存储虚拟化功能,就看能否满足你的需求;
2、如果你说的是存储虚拟化,想统一管理这些存储,那也有相应的产品可以解决,比如IBM SVC,EMC VPLEX,还有飞康的一些解决方案,包括华为也有自己的虚拟化网关产品,如果你的存储品牌比较统一,那找相应品牌的存储虚拟化方案就行,如果品牌不一样,那要找一个兼容性好的;
3、上了存储虚拟化之后,整个存储的LUN管理确实会得到相当程度的简化,而且使用也会比较灵活;配置的话基本上就是一个原则,后段的存储将所有LUN挂给存储虚拟化网关,网关再将整合后的LUN挂给服务器使用,光交就做相应的配置即可。

2、VMware迁移虚拟机备份数据迁移高可用

如能,需要做哪些准备?能保证迁移期间应用可用吗?

聂奎甲 项目经理 , 长春长信华天
vmware无共享存储能实现在线迁移,VMware将无共享的在线迁移集成在了里面,原理就是通过网络来迁移虚拟机,将虚拟机在ESXi01主机上里的“内存数据”及“本地磁盘”数据通过网络迁移至ESXi02主机上

sanangel592sanangel592 系统工程师 , 福建
1、你所说的在线迁移分两种情况,一种是主动的(人为选择),一种是被动的(服务器故障);
2、只要开启了VMware的vmotion,就可以做主动的迁移,无论是更改计算节点还是存储位置都是可以的(无共享存储就只能存储与计算一起迁移了),迁移过程中虚拟机可能会中断几秒时间,这个和网络也有一定关系;
3、如果没有共享存储,在物理服务器故障时,就无法启用HA,将机器迁移到另一台服务器上继续运行;
4、准备工作的话,无非就是看下迁移目标端计算资源及存储空间是否足够,vmotion网络配置是否正确等。
 
lisen222lisen222 其它 , 泰德制药
得通过web管理页面才可实现。

asdf-asdfasdf-asdf 研究学者 , git.cloud
无共享存储在线迁移 需要一个单独网卡完成 避免流量过大导致 其他vm连接问题

3、数据中心虚拟化之后该如何维护服务器操作系统的补丁更新,与防病毒维护?

lisen222 其它 , 泰德制药
补丁:
打补丁一直是个有风险的任务,需要提前选择补丁类型和进行补丁可用性测试,这都需要测试环境、人力和时间,规定时间内测试环境的补丁测试没问题,再给正式环境打补丁,且补丁前先做快照;另外,为了解决虚拟环境虚机打补丁,有些厂商还研发了虚拟补丁技术,即补丁在虚拟机上一层,不过具体没有测试过;
病毒:
正常在虚拟机内安装病毒即可,也可以用虚拟化模块查毒,一般虚拟化厂商都会和杀毒厂商合作集成到虚拟化引擎中。

asdf-asdfasdf-asdf 研究学者 , git.cloud
服务器操作系统的补丁更新 分级别 严重危险漏洞 必须修复
防病毒目前不是 服务器领域主要业务 防入侵是防火墙的业务

sanangel592sanangel592 系统工程师 , 福建
1、补丁方面,数据中心虚拟化前和虚拟化后的手段目前并没有什么太大的区别,物理服务器该怎么打,虚拟服务器也是一样,但是虚拟化有一个优势是可以做快照,对于补丁更新后出现故障的回退比物理机方便许多;
2、防病毒方面,虚拟化后传统的防病毒管理也还可以用,但是也有直接以无代理的方式运行的杀毒软件,这类杀毒软件更契合虚拟化的使用场景,还有一些轻代理产品,可以和虚拟化管理中心做结合,自动发现新服务器及安装代理之类的。

wangjunhongwangjunhong 其它 , 广州xx信息科技有限公司
一种很麻烦的方式就是直接操作系统内直接使用Windows update 。另一种方式就是使用vmware update management进行补丁更新。

4、Powervc+hmc+powervm+san 具体实施文档?

Powervc+hmc+powervm+san 具体实施文档?

王巧雷 系统工程师 , 华胜天成
唉,这个用的不多了吧,有个很久以前的文档
红皮书按日期最新的版本是这两个:
http://www.redbooks.ibm.com/abstracts/redp5455.html?Open
http://www.redbooks.ibm.com/abstracts/sg248199.html?Open

附件: PowerVC 1.3安装使用教程.docx (4.06 MB)

asdf-asdfasdf-asdf 研究学者 , git.cloud
powervc1.4部署很简单参考
https://www.ibm.com/support/knowledgecenter/zh/SSXK2N_1.4.0/com.ibm.powervc.standard.help.doc/powervc_hwandsw_reqs_hmc.html 即可完成
把python需要的包安装完整就可以部署 powervc了,注意需要的redhat版本是7.3以上
对接部分 参考页面操作就可以
hmc 用户名密码 san交换机的用户名密码 san存储的用户名密码
需要注意的是 第一个镜像需要手工分配到 一个vioc上 部署 aix 然后捕获镜像
基本没什么特殊难度,
如果遇到 powervc不支持的设备 需要联系设备厂商要 openstack 集成方案.(不建议使用避免技术问题)

qihanchongqihanchong 系统架构师 , ...
你这个相当powervm做虚拟化,然后用powervc管理hmc、vm、san 、san switch等等。
具体实施文档得自己弄了,毕竟环境不一样,需求不一样。
可以参考ibm developerWorks 、红皮书等等资料。

5、VMware VSAN与深信服超融合有何不同?

VMware VSAN与深信服超融合有何不同?

doc 项目经理 , 长春理想
VMware VSAN主要有5个特点:
1,运行在标准x86服务器上
2,分布式集群,把vm数据文件打散放在多个主机上,每个服务器的本地存储网络池化
3,使用SSD作为读写缓存加速层,混合型策略,由SSD提供性能够,普通机械硬盘提供给容量,使用的市场范围更广
4,VSAN中没有lun也不需要做raid5或者raid0+1,使用vmdk为单位的对象存储,所有虚拟化性能,容量,调优设置和存储策略改变都是在vmdk范围中完成的
5,VSAN嵌入vsphere内核中,I/O数据路径短且性能高,管理员可以通过简单的点击操作与许可秘钥配置启用vsan功能,可以在vcenter界面管理vsan

asdf-asdfasdf-asdf 研究学者 , git.cloud
vsan 和 超融合 不是一个技术层面的产品
vsan 是解决 存储问题
超融合是 一体化解决方案.

thiefqwthiefqw 存储工程师 , dell存储售前部门
VSAN是vmware自己定义开发的SDS(姑且能算,毕竟有最基本的SSD做缓存HDD做副本制)
深信服的SDS底层是基于Glusterfs二次开发的。
都具备SDS的一些特性,SSD做缓存,37分,副本制。深信服的好像不支持全闪纠删码(raid5/6)模式

yhsihyhsih 系统运维工程师 , 某烟草公司
一、价格不同,深信服价格略低一点。
二、深信服超融合集成了深信服网络产品全家桶,有下一代防火墙、上网行为管理、上网加速、CDP…………,可以灵活的购买许可直接使用

6、Powervc 云管平台比vmware的云管平台有什么优势?

Powervc 云管平台比vmware的云管平台有什么优势?

asdf-asdf 研究学者 , git.cloud
vmware 是x86层 虚拟化技术
powervc是 openstack + hmc(novalink)+ powervm 管理层次
一个管理 power设备 一个管理 x86设备 , 不是一个业务层面的产品

yhsih 系统运维工程师 , 某烟草公司
Powervc 云管平台的工程师薪水高一些,呵呵

7、在贵单位的实践过程中,云管对与虚拟资源、物理资源的自动化部署和资源发放能实现到什么程度?

asdf-asdf 研究学者 , git.cloud
我做过最完整的项目,按照部署单元规划,网络设备和存储网络在设备采购前已经上架,物理计算资源(服务器)到场后连接线路上电,自动部署bootos获取设备sn后,管理员在机房管理系统里面选择需要部署的exsi版本,完成自动部署esxi后自动安装配置文件完成网卡端口绑定.云管理平台得到部署完成的设备后那管到对应的vcenter中,完成新资源那管,san存储的分配部分是手动操作的,datastore可自动进行管理到部署设备.
powervc部署和openstack的部署,会复杂些,openstack需要厂商进行支持,powervm扩容可做到按部署单元完成自动扩展,powervc自动那管,云管理平台会在powervc那管完成后得到新资源添加提示,确定后完成子新powervm资源添加
做到上面自动程度真的不难 难在你对数据中心的 整体设计是否完备,
简单说下 x86设备只有三种在新虚拟资源池中,每个设备网卡数量 插卡slot都是固定的.位置文件也是固定的, 如果你无法做到数据中心硬件标准化, 实现上面自动化资源那管.道路遥远
powervm设备也和x86一样两个标准部署型号 扩展柜的连接都是一致的 卡的顺序也完全一致.
每个机柜的网络,生产带管心跳接线方式完全一致,存储的每个口连接那个服务器那个插槽上面那个卡号都是设计好的.没有特殊个例.
完成上面数据中心硬件标准化你才能考虑 自动化资源那管问题.
曾经有些x86服务器,设备卡的识别顺序始终和其他设备不同,这些特例问题不是实施时应该考虑的.直接退货处理.避免日后无限制的配置变化.

8、金融客户对于异构资源的统一纳管是否是强需求,强到什么程度?

asdf-asdf 研究学者 , git.cloud
环境中 powervm vmware openstack 三个虚拟化产品都会存在
而管理层面 没有统一的管理页面能提供,运维管理系统和运营的计费系统以及其他外围系统的设计难度非常大,这样人力成本每日增加情况下组建三个开发运维团队是不现实的.故此,在统一云管理平台出现后, 运维团队,和运营团队已经开发运维团队,对虚拟资源的统一管理和分配得到实现,避免各个系统割裂的情况.
最简单就是业务系统申请时数据库在powervm上,app在x86上.需要分别申请而且还不包括san存储等其他资源.统一管理后在一个集成页面完成所有设备资源申请,包括x86vm+存储,powervm+san存储等,日后还会包括F5,网络访问关系等资源.完成统一资源分配和业务蓝图实现.加速业务上线时间.

9、如果不考虑网络负载均衡的方式 ,跨资源池的负载调度现在可以如何实现?

匿名用户
跨资源池的vm重部署在最新的 vsphere6.7发版时特意说明了这个功能,powervm可用一个专用软件完成,openstack应该在一个az中配置。
重新部署vm位置依赖的还是网络速度和存储速度,powervm如果链接san,san做卷复制应该有速度保障。

10、超融合与传统服务器虚拟化的对照详情?

doc 项目经理 , 长春理想
超融合与传统服务器虚拟化的对照
通过服务器虚拟化尽管提高了物理资源的使用率以及保障了业务的连续性和安全性,但同时也给后端的共享存储带来了巨大的挑战,还是没有摆脱传统三层架构的局限性,特别是存储的性能,可扩展性以及可管理性方面。
然而,超融合不但很好的提高了资源的利用率以及保障了业务的连续性和安全性外,同时其高性能,按需扩展,简化部署以及同一管理和nas功能等方面的独特优势更适合新的信息化发展需求。

11、openstack虚拟出来的虚机的个数是按照哪些指标来划分,具体需要考虑哪些条件?请举例说明?

openstack虚拟出来的虚机的个数是按照哪些指标来划分,具体需要考虑哪些条件?请举例说明

asdf-asdf 研究学者 , git.cloud
cpu数量,和负载情况超分最好是cpu的整体倍数. 详细做好业务调研, 后期靠监控完成业务分析.

12、openstack的超分是按照哪个标准来超分的,超分的比例大小对应用来说有什么利和弊?

openstack的超分是按照哪个标准来超分的,超分的比例大小对应用来说有什么利和弊?
比如:超分比1:2 或 1:4 是按照线程还是CPU来划分的,选用各个比例有什么利弊?

asdf-asdf 研究学者 , git.cloud
如果cpu超分最好按照 cpu物理内核数量进行超分配比. 业务轻量情况下可根据超线程技术进行cpu数量超分对比.

13、当虚机一直处于高负荷跑应用的状态下,最终会导致什么后果?

当虚机一直处于高负荷跑应用的状态下,最终会导致什么后果?

asdf-asdf 研究学者 , git.cloud
看虚拟机时什么虚拟技术 如果是 vmware 业务会反应缓慢,或者出现错误
如果是 powervm技术 业务没什么影响,只要负载不在增加 就一直可以稳定运行

14、普通台式机和桌面虚拟化之间的优劣势对比?

客户想上桌面虚拟化产品,但是又觉得不懂这个东西,认为普通台式机就可以正常使用办公,需要一份两者之间的详细对比分析文档表格,突出桌面虚拟化的优势

asdf-asdf 研究学者 , git.cloud
桌面虚拟化,你联系几家做这个的公司 , 让他们给你写 ppt或者 产品手册 对比下

15、vmware做不同存储迁移时是否需要同时挂载不同的存储?

1.vmware做不同存储迁移时是否需要同时挂载不同的存储。
2.vcsa意外停机后,出现下面这个情况,并非类似于exsi主机那样的界面,这种情况应该如何解决

大力水手 售前技术支持 , 北京南天软件股份有限公司
应该是要挂载的,貌似还需要目标与源在同一个集群中

16、VMware有什么高可用性的技术手段,可以实现当虚拟化系统出现问题时,快速无缝的转移到备用系统上面去?

vmware有什么高可用性的技术手段,如果一个虚拟化系统出现问题,可以快速无缝的转移到备用系统上面去。

聂奎甲 项目经理 , 长春长信华天
vmware高可用可以实现物理机故障后,物理机所承载的虚拟机自动漂移到可用的物理机上,业务不中断。

潘延晟潘延晟 系统工程师 , 通化网航
vmware的ha已经做的很好了。配置VMOTION之后。可以做到计划迁移不中断业务,如果要实现物理机宕机业务的无缝切换,就要采用容错了。不过好像老版本限制比较多。

lisen222lisen222 其它 , 泰德制药
vmware的HA和FT是专为虚拟机做的高可用设计,HA会在宿主机出现问题时候虚机在另一台正常的宿主机上重启,中断时间是虚拟机启动时间;FT可做到宿主机出现问题时立即启动另一台宿主机的虚拟机副本。
不过这都是针对物理机故障,不是针对虚拟机故障的,虚拟机故障还是需要系统或应用层的容错机制实现高可用。

王巧雷王巧雷 系统工程师 , 华胜天成
本地:ha和ft
灾备:srm

17、vmware和docker各自的优缺点主要什么呢?

容器技术现在很流行,vmware和docker这两种技术各自都有什么优缺点呢,如果相比较来说。

聂奎甲 项目经理 , 长春长信华天
vmware是虚拟化,docker是容器,正常来讲二者没有可比性,只是docker在部署上比vmware的部署更加的轻量化。

王巧雷 系统工程师 , 华胜天成
下图是传统虚拟机和容器技术的架构图对比,图片来着docker官网
个人感觉两者的区别关键在hypervisor层,docker更轻量级,只是共享了类库和bin资源。对资源更加节省,基于image更加容易实现快速部署。在集群调度方面现有有docker自己的swarm、apache的mesos和Google的kubernetes,处在一个快速发展的阶段。
传统虚拟机技术基于hypervior层,是一个完整的操作系统。隔离级别更高,发展多年方案更成熟。

asdf-asdf 研究学者 , git.cloud
vmware和docker 是两个完全不同的虚拟化层面
vmware上面可以架构docker技术
业务层面不同

18、微分区关机的时候hang住,hmc强制关机都关不了,有遇到过类似的问题并且找出原因的吗?

vios是2.2.3.4,时间久了,没有记录版本。
HMC是V8.0.
关机hang在一段代码。还好做了HA,后来直接把整机关了解决。

张文正 系统工程师 , 神州数码系统集成服务有限公司
有日志吗?从日志分析,代码也没有提供。不好回答,也有可能是触发了某个bug

王巧雷 系统工程师 , 华胜天成
如果hmc和小机的通讯正常,硬关机肯定是可以关的。
如果硬关机也卡的时间特别长,可以看下硬关机的时候,hmc会提示是不是正在更换cache 电池,要选择否,如果选择了是,就是卡住

asdf-asdf 研究学者 , git.cloud
微分区 aix内部wpar吗
如果是lpar 无法关闭 可能是 hmc 通讯问题 ,遇到一次hmc无法控制lpar的问题 重启动hmc后解决了
如果是 wpar 直接在 aix里面做下操作可以解决问题

19、请问虚拟化在选型过程中有哪些要点?

我们目前所有的系统和数据库都是独立服务器模式,而且没有做冗余,安全性不高,希望能上虚拟化系统以提高安全性并节约运维成本,请问虚拟化在选型过程中有哪些要点需要着重注意?

聂奎甲 项目经理 , 长春长信华天
主要有现在的系统占用的资源情况包括cpu、内存等资源,数据量的大小,是采用磁盘阵列柜还是存在服务器本地。

asdf-asdfasdf-asdf 研究学者 , git.cloud
看你业务需求 高可靠业务必须 外置存储
如果你业务模型见到 用 vsan也可以

20、powervc 的sdn 如何对接cisco aci和VMware nsx ?

powervc 的sdn 如何对接cisco aci和VMware nsx 使得power虚机和vmware 的虚机组成的应用组在同一个vxlan下形成一套应用组合。通过运管平台,通过只改变vxlan id不改变VM IP的方式,可以快速复制应用组合。

asdf-asdf 研究学者 , git.cloud
目前没有看到 powervc使用 sdn的案例, powervc1.4里面有这样的配置 目前没有见到测试成熟案例

21、对比主流的虚拟化和云化技术怎么抉择?

虚拟化是为了更好的实现资源的利用,云化则是更好的由调度算法分配虚拟化资源。目前企业主流的虚拟化和云化技术是什么,都有什么优缺点。

asdf-asdf 研究学者 , git.cloud
vmware 和openstack , powrevm 企业必须的选择

22、VMware 磁盘怎么使用更合理?

Mware 磁盘怎么使用更合理,比如我现在有存储IBM V7000 和华为的oceanStor 5500V3和5300V3,高性能用于VC的系统,数据库,低性能用于非结构化数据图片等,那V7000大约有30TB,这个lun划分多大一个合适,比如10TB一lun或者在大些。

asdf-asdf 研究学者 , git.cloud
现在存储已经是虚拟化结构的卷大小和性能取决于,存储高低级别,v7000中端存储是看磁盘raid组中磁盘数量和性能进行数据读取和存入的.主要还是看磁盘性能.但lun大小还是看厂商推荐

23、如何在vmware虚拟化环境横向于纵向界定cpu资源使用情况?

如何在vmware虚拟化环境横向于纵向界定cpu资源使用情况!如何更加完善的监控虚拟机cpu使用情况!

asdf-asdf 研究学者 , git.cloud
vmware的资源使用率是有自身监控数据的可以随时拿出来进行分析,
单个vm的cpu使用也是有数据的可详细分析
如果感觉vmware中的数据无法马上形成分析内容,可在vm中部署os基本的监控软件完成cpu分析
在实际项目中,建议两个方案都用 综合参考进行 性能分析

24、因为网络隔离的要求,多个虚拟化平台跨网络如何统一管理?

现有四套VC环境,跨机房,跨网络,如何统一管理?

asdf-asdf 研究学者 , git.cloud
云管理平台如果设计的比较完善的话 会使用 分层架构
portal 只是页面操作 业务层在做资源分配处理
中间会添加 mq 消息队列
消息会发送到 执行的 厂商接口比如 vmware的pyvmomi接口封装 ,或者java vsphere client接口封装
只要在不同网络部署一个接口层能连接到mq就可以完成 多隔离网络统一管理

如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!

2

添加新评论0 条评论

Ctrl+Enter 发表

本文隶属于专栏

活动总结
活动总结是社区交流活动内容的总结及延伸,为大家提供了社区专家们丰富且高水平的理论知识、实践经验以及常见问题的最佳解决方法,非常值得大家收藏学习。

作者其他文章

  • 数据中心虚拟化实践探讨
    评论 3 · 赞 11
  • 用hmc完成vios的配置
    评论 0 · 赞 3
  • 全新开始
    评论 0 · 赞 0
  • 相关文章

    相关问题

    相关资料

    X社区推广