重删在带来空间节省、IO效率提高的同时,有什么弊端?

现在重删技术广泛用于备份领域,如知名的EMC DD。那么在存储领域,重删技术在各厂商之间也是各有一手儿,现在SVC在后续版本中是否已经考虑了融入重删技术?重删在带来空间节省、IO效率提高有什么其他的弊端没?...显示全部

现在重删技术广泛用于备份领域,如知名的EMC DD。那么在存储领域,重删技术在各厂商之间也是各有一手儿,现在SVC在后续版本中是否已经考虑了融入重删技术?重删在带来空间节省、IO效率提高有什么其他的弊端没?

收起
参与42

查看其它 8 个回答kkkru的回答

kkkrukkkru技术支持哈尔滨银行

由于每个供应商检查的数据块大小各不相同。一些供应商固定数据块的大小,一些则使用不同大小的块(有一些甚至允许终端用户改变固定块的大小,这会令人更加困惑)。固定块的大小可能为8 KB或64 KB,区别在于块越小,被判定为冗余的几率越大。这也就意味着消除的冗余更多,存储的数据更少。固定块只存在一个问题:如果文件发生变化,而重复数据删除产品依然利用上次检查到的固定块,那就可能无法监测冗余部分,因为文件中的数据块已被改变或移除,而利用的固定块仍是变化之前的,剩下的比较就没有意义了。

  各种规模的块能够提高普通冗余的监测几率,尤其是在文件发生变化以后。这种方法能够监测文件中可能发生的实样模或断点,从而分割数据。即使文件变化,数据块被转移,这种方法也能发现重复的数据。不足之处呢?这种方法能改变块大小,需要供应商追踪并比较多个ID,因此会影响增大规模、增加计算时间。


互联网服务 · 2016-01-21
浏览4018

回答者

kkkru
kkkru0517
技术支持哈尔滨银行
擅长领域: 存储灾备存储双活

kkkru 最近回答过的问题

回答状态

  • 发布时间:2016-01-21
  • 关注会员:11 人
  • 回答浏览:4018
  • X社区推广