分布式数据库处于发展期,还未达到成熟期,使用过程中遇到的各类问题较多,需要及时修复,但是现在普片数据库厂商版本迭代太快,对厂商来说可以更好及时修复问题,进行功能优化。但是没有考虑到用户的实际情况,如果升级频繁可能对原有系统带来风险和问题,现在市场上OB、TDSQL、TIDB等等分布式数据库都有这个问题,而且维护人员还需要重新进行一次熟悉和安全检测。用户如果自己选择时间进行升级,跨多版本进行升级,跨度太大,这样对各个版本前后兼容问题会带来很大风险,而且有的还必须让厂商来做,这里边还会涉及行内配合费用,厂商的人天也很贵的,对用户来说是升级也不是,不升级也不是的困境。
针对眼下分布式数据库版本的迭代频率,大家如何考虑?对大家来说真的好吗?大家在分布式数据库版本迭代上是如何处理的,如何应对版本频繁升级?希望大家在投票后可以谈谈自己企业的应对经验!
版本迭代升级需要大量的回归性测试工作,会引起业务停机时间变长及增加相关人员工作内容及协调难度。整体的运维成本其实是挺高的,应定期评估软件bug影响程度,对于重大的bug要及时升级 ,对于有其他变通做法的bug 不做升级,让应用开发商尽可能修改。每年做一次升级评估,定期升级 ,保持数据库版本在行业主流版本的范围内。
收起目前tidb是火车头发布 每月一个版本,我们最早上的是4.2 现在他们发布到6.1了 我们测试也升到6.1,生产环境一般不能升级,升级需要停库升级,这个太要命了。如果有问题就只能通过备份恢复数据库 从备份做全恢复的话 停机时间太长接受不了,所以我们用TIDB,只能在底层硬件替换的时候会换大版本升级,测试环境啥的都是可以及时更新的。
收起每次厂商发布了新的版本,的确可以带来激动人心的新特性新功能,也可以解决当前已上线系统的痛点。但是,对于生产系统运维管理,做加法的同时也要做减法。对于版本升级要充分评估利弊,影响范围,是否具备回退路径,综合考虑后再去决定是否跟进升级。
收起版本更新太快肯定是不好的,说明版本也不稳定,很多bug,还不太成熟,虽然国产化是需要一段路,但是也不能给用户带来太多风险和坑,现在我用过的tdsql版本更新就很快,2019到2022,差不多从14到19大版本,中间小版本都没法统计,更新带来太多麻烦和风险。
收起对于各种产品的版本迭代,真的是件矛盾的事情。产品研发上线的周期短。缺少充足的测试时间导致产品本身有很多bug,加上各种业务需求不断更新导致产品不断的额更新。但是数据库是整个业务的核心。多数情况下,企业都难以承受数据库版本更新所可能产生的各种风险而选择维持现状,但时间一久。又会加加大产品本身带来问题的风险。
面对现在不断更新的版本。虽然明知道过快的版本迭代不好。但其实还是要正面这个问题。选择一个折中的周期来进行版本的更新。既不要过于频繁的更新数据库版本而增加风险和运维压力。也不要长时间的不更新,等到喝市场主流版本脱节而导致更新成本激增,甚至到无法解决的地步
个人认为版本迭代也分情况考虑:
1、小版本迭代通常是用于修复Bug,不带入新增功能,此种类型的小版本快速迭代有助于快速修复数据库Bug与隐患。
2、大版本迭代通常是增加新功能与性能优化。此类型的版本快速迭代不适用于对稳定性要求较高的系统。而对于一些对数据库性能要求较高的系统,可在测试环境试用最新版本,验证新版本在性能上的提升程度。另外我认为大版本的迭代,应尽量减少运维体系的变化,降低运维学习成本。
从用户角度只能接受有计划的版本迭代和升级,否则面对的都是风险和麻烦!国产数据库厂商在这块做的尤为不好,看着好像厂商针对问题及时进行bug完善,对用户来说是好事,其实不然,用户是需要稳定和安全,一个版本的上线,已经经过很多人的参与,如果短时间内又要经过版本更新,对用户的运行维护来说实在不便。从用户角度来说绝对不是一件好事情。
收起厂商版本更新没关系,对用户来说是绝对不行随时版本进行更新迭代的,但是如果版本跨度太大,更新会更加繁琐和麻烦,很多自己还搞不定,并且未来兼容以及不确定因素太多,所以国产数据库的稳定性还是需要加强,兼容性也需要加强。我们用的OB和TIDB都是这样,版本迭代快,意味着问题也多。
收起