一个目录下面数百万海量小文件如何快速备份和恢复?

一个目录下面数百万海量小文件如何快速备份和恢复?当一个目录下有数百万小文件做备份时,备份之前备份软件的扫描和技术就要花去大量时间,恢复的时间也要花费比普通备份多的多的时间。我知道的一种解决方案是采用image全盘备份和恢复方式可以大大加快备份和恢复过程.是否还有...显示全部

一个目录下面数百万海量小文件如何快速备份和恢复?
当一个目录下有数百万小文件做备份时,备份之前备份软件的扫描和技术就要花去大量时间,恢复的时间也要花费比普通备份多的多的时间。我知道的一种解决方案是采用image全盘备份和恢复方式可以大大加快备份和恢复过程.是否还有别的更好的方法进行效率备份和恢复呢?

收起
参与57

查看其它 11 个回答wangshuai_go的回答

wangshuai_gowangshuai_go  存储工程师 , 证券

对的,采用全盘备份,无论是Windows的 vss 快照备份全部还是Linux lvm快照来备份最终恢复的时都只能恢复整个盘。不能做到小的颗粒度。
合并文件还是要考应用层面的设计和改进。不知道有没有其他更好的方式在备份层面来优化呢。当然换VM备份整个VM也是一种方式。但是很多时候换不了呀。感觉很无解的样子。不知道Google ,百度那些互联网公司是怎么玩备份的。他们的文件数目应该非常非常多。

证券 · 2017-06-29
浏览12797

回答者

wangshuai_go
存储工程师证券
擅长领域: 存储灾备分布式架构

wangshuai_go 最近回答过的问题

回答状态

  • 发布时间:2017-06-29
  • 关注会员:15 人
  • 回答浏览:12797
  • X社区推广