数据库复制技术如何保障源端和目标端的数据的一致性,通过什么工具和技术能够进行数据验证?
全库比对的数据验证方式,耗时长,实际环境中如何解决?
欢迎大家在此帖中针对上述两个问题交流探讨!
这部分工作应该分两个方面吧,第一个是技术角度,单纯的数据验证,如果已实施的灾备方案中,使用的产品自带校验当然是最好的了,比如说Oracle goldengate的veridata。
第二个应该是日常贯流方面,需要有严格的管理制度,定期进行灾备演练。
灾备解决方案中,数据的一致性和完整性一直是重中之重。那么如何确保灾备中心的数据和生产中心一致,并且在灾难的时候可用呢。
这给灾备系统运维提出了较高的要求。
在灾备系统运维过程中要经常的进行数据验证,并且要定期进行灾难恢复演练。
数据验证可以通过相关的比对工具对源库和目标库的数据进行验证。最可靠的方式是做全库比对,当然所需的时间以及所消耗的资源开销也是巨大的。通常采用进行主要数据的比对,例如通过对特定表的数据验证,对特定表的数据统计等等操作。
实际应用场景中,不管是数据库复制技术还是存储复制技术,灾备端数据的定期验证都是有必要的。
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30