1tb-5tb级数据量,大家采用的什么优化策略?

数据量越来越大,现在都是以TB为单位来计算了。发了两个主题,一个是“1tb-5tb级数据量,大家采用的什么优化策略?”,另一个是“10tb级数据量,大家采用的什么优化策略?”,欢迎大家一同参与讨论互动,抱团取暖一下下!如果您有过类似经验,也欢迎分享,总结、遇到的问题都行。看到很多朋友都...显示全部
数据量越来越大,现在都是以TB为单位来计算了。发了两个主题,一个是“1tb-5tb级数据量,大家采用的什么优化策略?”,另一个是“10tb级数据量,大家采用的什么优化策略?”,欢迎大家一同参与讨论互动,抱团取暖一下下!

如果您有过类似经验,也欢迎分享,总结、遇到的问题都行。


看到很多朋友都给出了自己的经验分享,谢谢!本人绝对是新手一枚,喜欢刨根问底。大家所说的哪些策略,都具体是怎么做,有参考的步骤和具体的操作文档吗?收起
参与15

查看其它 7 个回答lixin199036061的回答

lixin199036061lixin199036061网站架构师苏州新宇软件
苏宁的会员中心,几十亿条数据。
分成了10个物理主库,每个物理主库再配置HADR10个读库。
程序操作时先计算一个hash值,按照这个值进行分库操作。
这样增删改查都可以知道到哪个库里去执行了.
缺点是不能像一个表一样进行join操作了
互联网服务 · 2014-05-30
浏览1590

回答者

lixin199036061
网站架构师苏州新宇软件
擅长领域: 中间件

lixin199036061 最近回答过的问题

回答状态

  • 发布时间:2014-05-30
  • 关注会员:3 人
  • 回答浏览:1590
  • X社区推广