Hadoop/spark等大数据处理平台对服务器的配置要求和最佳实践

Hadoop/storm/spark等大数据处理平台对服务器的配置要求和最佳实践,比如CPU/内存/磁盘/IO等.
希望专家能把要求给详细说说,还有就是如果有一些参考实践的内容
参与6

4同行回答

zchunlinzchunlin系统架构师阳光保险
关于hadoop、spark、storm的配置和最佳实践的具体文档?显示全部
关于hadoop、spark、storm的配置和最佳实践的具体文档?收起
保险 · 2015-07-09
浏览5870
phanxphanx系统工程师银行
回复 3# liucx Hadoop平台网络尽量考虑万兆。 节点间的流量大,千兆会成为瓶颈。你可以阅读一下Cloudera的这篇Blog。 Cloudera是Hadoop的一个企业发行版厂商,Cloudera和Hadoop的关系类似Redhat和Linux的关系。How-to: Select the Right Hardware for Your New Hadoop Clust...显示全部
回复 3# liucx


Hadoop平台网络尽量考虑万兆。 节点间的流量大,千兆会成为瓶颈。
你可以阅读一下Cloudera的这篇Blog。 Cloudera是Hadoop的一个企业发行版厂商,Cloudera和Hadoop的关系类似Redhat和Linux的关系。

How-to: Select the Right Hardware for Your New Hadoop Cluster
http://blog.cloudera.com/blog/20 ... new-hadoop-cluster/收起
银行 · 2015-06-20
浏览5653
liucxliucx研发工程师rj
建议使用Hadoop Hbase,Spark系统需要消耗大量磁盘和内存,服务器选择 2*8 核心,>128G内存,6-12*2T磁盘,双 ...tongxiaojun 发表于 2015-6-4 15:07 为什么是双网卡千M?能提高网络io么,服务器选择 2*8 核心,>128G内存,6-12*2T磁盘,双网卡千M,这样的配置服务器在什么价位?谢谢...显示全部
建议使用Hadoop Hbase,Spark系统需要消耗大量磁盘和内存,服务器选择 2*8 核心,>128G内存,6-12*2T磁盘,双 ...
tongxiaojun 发表于 2015-6-4 15:07


为什么是双网卡千M?能提高网络io么,服务器选择 2*8 核心,>128G内存,6-12*2T磁盘,双网卡千M,这样的配置服务器在什么价位?谢谢收起
软件开发 · 2015-06-17
浏览5529
tongxiaojuntongxiaojun技术总监北京红象云腾系统技术有限公司
建议使用Hadoop Hbase,Spark系统需要消耗大量磁盘和内存,服务器选择 2*8 核心,>128G内存,6-12*2T磁盘,双网卡千M。跑MapReduce的服务器一般配置多个磁盘,6-12个,数据节点做raid0直接挂在不要做raid5。通过 hdfs-site.xml 配置 dfs.data.dir=/disk1/hadoop/hdfs/data,/disk2...显示全部
建议使用Hadoop Hbase,Spark系统需要消耗大量磁盘和内存,服务器选择 2*8 核心,>128G内存,6-12*2T磁盘,双网卡千M。
跑MapReduce的服务器一般配置多个磁盘,6-12个,数据节点做raid0直接挂在不要做raid5。通过 hdfs-site.xml 配置 dfs.data.dir=/disk1/hadoop/hdfs/data,/disk2/hadoop/hdfs/data,/diskN/hadoop/hdfs/data 支持多个磁盘,通过配置 yarn.nodemanager.local-dirs=/disk1/hadoop/yarn/local,/disk2/hadoop/yarn/local,/diskN/hadoop/yarn/local为多个磁盘。收起
互联网服务 · 2015-06-04
浏览5593

提问者

zxguang
系统架构师中国移动

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2015-06-04
  • 关注会员:2 人
  • 问题浏览:9536
  • 最近回答:2015-07-09
  • X社区推广