备份海量小文件,主要还是文件结构层面inode数量的处理太过庞大,没什么太好的解决办法,无非是整卷备或者小文件打包备;回归简单省事的办法吧,多打快照,可以定期clone然后split到NAS的其他位置;再就是改成对象存储来用,效率能提...
1、服务器保证兼容性,不选用特殊类型的硬件,比如定制的卡2、根据对于性能的需求预期,选择合适存储介质,特别是各种类型的SSD,对于Ceph性能发挥的关键在于缓存技术3、集群规模除了与性能相关部分,还要考虑单个池和整个集群的...
建议多纬度考虑,综合现有规模、数据类型、未来预期扩展性、部署应用类型特性、运维能力和 TCO 等条件来判断;只有适合与否,没有绝对正确答案。
SDS相比于传统存储最直接的收益就是TCO降低,Gartner的5年分析模型基本上是接近50%;其他层面我认为在数据湖模型中,SDS会有如鱼得水的感觉,体量越大优势越明显;当然在高端存储场景还是传统AFA的天下,除此之外都有可能被SDS所...
分布式存储:分布式文件系统: glusterfs 、 hdfs 等开源体系; isilon 、 qumolo 、华为 N9000 、龙存等企业级分布式块存储: ceph 开源体系; purestorage 、 solidfire 、华为等企业级对象存储: ceph 开源体系;传统厂商如 IBM...
主要还是看前端应用的需求,分布式存储固有的延迟很难做到集中式存储那样超低,所以双模IT架构是一定存在的。10多年前做分布式cluster网络使用infiniband,比如isilon有自己的横向内存池机制,必须要超低延迟才能实现;近些年...
ceph换盘就是删除原有osd,换硬件,添加新的osd这样的流程,严格来讲数据修复分成两次,第一次是osd当掉,这时候会在现有的可用空间内把损坏osd的数据重建,然后加入了新的osd,这时候PG重新计算和映射osd关系,再做一次数据的重平衡...
1、ceph如果是rbd协议,多池对接kvm,热迁移是比较困难的,因为pool ID通常被数据库识别后,如果更换pool,变更ID,虚拟机做迁移必须要有停机窗口,且更改后台数据库。所以现在产品厂商会研究使用虚拟pool的概念,使用VPool对接kvm...
开源Ceph在扩容时候由于缺乏重平衡的QoS控制,所以大概率会影响到前端应用,这个问题一直存在,目前看只有产品化后才有较合理的正面解决方案。前期规划真的很重要,一个资源池多大规模,预计多少OSD都要预计清楚,否则不仅是性能...
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024 talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30