块大小优化

机器信息我就不描述了, 问题:预期:数据量会很大,文件也会比较大实施:为了保证nameNode内存使用更节省,使用联邦,2个namespace,同时将block块的大小调整到512M问题:nameNode的元数据信息占用内存情况比较理想,hbase也基于这个集群,大block对hbase影响应该会很大如果我关闭集群,调整块大小,重新启动后对原有的数据有影响吗?块调整到多少才算合适(注:文件一般都在100-150M之间)
参与5

2同行回答

美国队长美国队长研发工程师Alibaba
让hbase不要自动进行分开跟调整,根据自身的数据量决定何时可以统一进行一次合并跟分裂,因为频繁合并或者分裂会影响造成系统假死,连接超时等一系列问题显示全部
让hbase不要自动进行分开跟调整,根据自身的数据量决定何时可以统一进行一次合并跟分裂,因为频繁合并或者分裂会影响造成系统假死,连接超时等一系列问题收起
互联网服务 · 2015-08-24
浏览978
尘世随缘尘世随缘技术总监上海某互联网金融公司
hadoop2.0默认是128M,这个值是经过多次摸索后得到的结果,一般不需要调整。512M的块调整为128M的块对HBase原有数据不会有影响,建议调整后重新执行一次大合并,HBase会根据调整后的块大小重新划分新块。...显示全部
hadoop2.0默认是128M,这个值是经过多次摸索后得到的结果,一般不需要调整。512M的块调整为128M的块对HBase原有数据不会有影响,建议调整后重新执行一次大合并,HBase会根据调整后的块大小重新划分新块。收起
互联网服务 · 2015-08-21
浏览1059

提问者

haorengoodman
研发工程师ooxx

问题来自

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2015-08-21
  • 关注会员:1 人
  • 问题浏览:4296
  • 最近回答:2015-08-24
  • X社区推广