不考虑拉远,在计算节点上用NVMe盘,高可用的话可以用以下几个办法1:应用层面高可用,例如数据库的高可用2:考虑用LINBIT的DRBD,可以在两个节点中选择两块盘做镜像,支持同异步复制,Linux内核级速度快不需要装代理,类似于网络RAID
我们公司专注做异构存储统一管理的,在这个方面有一些经验,分享一下:1)目前我接触的应用场景(银行居多),很少针对分布式存储做集中管理的,因为分布式存储多用在云场景下,控制层一般交付给云平台了,如果只是监控层面的管理需求的
如楼上所述,这个过程必然且痛苦,加强监控,特别是性能方面的监控吧。
主要还要看您公司的IT架构,是否已经云化,IaaS和PaaS层都用了什么平台和技术,多大规模才能针对性的提建议。
存储不怕硬件故障,就怕性能故障。用在核心交易系统的存储一般都是高端存储,本身的稳定性和性能就不差,但只盯着存储是不够的,对于OLTP业务,一般采用高性能的SAN网络,为了数据安全还有同城和异地的灾备,甚至构建在同城双活存
我不太了解您说的深度是什么意思,那就从我的经验出发说说我的想法:1)我猜测您现有的监控还是依赖设备自身的控制台和报警能力,这已经很具有深度了。毕竟存储厂商的内部检测机制是能否发现无论是硬件还是软件层面的异常的
从命令行里看没戏,我们的存储管理软件里能够自动转换,都是通过代码实现的,netapp卷的序列号通过转换就可以对应上svc卷的wwn,我直接把代码贴出来你自己看吧,注意7-mode和Cluster-mode有差别: public static String getVolu
选存储架构一定不要只考虑本地存储,还要考虑数据保护需求,包括异地数据灾备。如果对数据保护要求高,例如金融行业一定要求要异地灾备的,那传统集中式存储在这方面的解决方案无疑是成熟的。另外还要考虑厂商提供的CSI驱动,
1)一般的私有云都会用其专用的存储,传统数据库云DBaaS平台用集中式存储的多,VMWare用集中式SAN或分布式块存储的多,OpenStack云用NAS的,桌面云用分布式块的,等等。2)运维监控方面,看现场的组织结构情况了,没有专职的存储管理员
三步走,采数建模和分析。 1)采数:容易理解,通过存储设备的管理接口,持续的,周期性(分析性能瓶颈的话周期最少5分钟)的采集各类指标数据。注意的是对于一些关键指标,例如存储上的IOPS、延迟,光交上的吞吐、丢包、光功率等都要
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024 talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30