传统的解决方法是利用高性能的虚拟带库+高速FC-san存储网络+NBU/commvault等建立统一备份平台,便于集中化管理,验证备份数据可用性可以使用恢复演练的方式验证,如果数据量超过几百tb,这个可能又要换一种思路了。
收起就我的工作情况和理解,谈谈我的看法。我们大多都在讨论如何通过技术手段来实现。我们在规划“金保二期”方案时,对数据安全性,可靠性,做了比较多的考虑。比如生产区的存储考虑了双机镜像,本地带库备份,同城灾备,跟省中心还有一个数据灾备。以当时我们的能力和条件,做到这些已经自我感觉不错了,对数据安全也比较放心了。但使用过程中,还是出现过一次一个周未数据库操作人员的误操作,使得周一部分业务无法办理。而只靠当时的几种数据备份是无法恢复数据的。这种情况即使应用级的灾备怕也解决不了当时的问题。
这个情况告诉我们,即使各方面考虑的再周到,如果管理跟不上,出现问题也是没有办法解决的。也就是不能只依靠技术来考虑问题,技术不能够解决所有问题。所以应该结合等级保护的要求,建立一套适合自己的规范管理办法才可以尽可能减少出现问题。
收起数据中心几十TB上百TB数据量的数据,可以设计本地加云两级全增量策略保护模型,本地的索引用来快速支持数据的变化检查,云端的索引用于本地失效后的变化检测,以及在线数据服务接口的支持。索引全部采用分区分段构建,在每一次的数据备份时刻,都会记录相应的数据映射关系,这样可以满足任意时间点的数据恢复和使用检索需求。基于云的两级增量模型最大的好处就是在TB级数据规模下,具备超低投入,按时间刻度恢复的特点。
收起