spark是否在选择服务器时需要大容量内存?

spark对于内存操作要大于hadoop,是否在选择服务器时需要大容量内存?是不是相同服务器型号时,spark内存使用会更高?显示全部
spark对于内存操作要大于hadoop,是否在选择服务器时需要大容量内存?是不是相同服务器型号时,spark内存使用会更高?收起
参与6

查看其它 2 个回答tongxiaojun的回答

tongxiaojuntongxiaojun技术总监北京红象云腾系统技术有限公司
Spark 大量使用内存做中间结果优化,需要消耗大量内存。一般需要配置 128G 内存。其实MapReduce在Sort 过程中也需要消耗内存。Hbase 的memstore模块更使使用内存作为HDSF文件系统文件缓冲。NameNode 使用内存作为元数据存储快速响应。
互联网服务 · 2015-06-04
浏览1692

回答者

tongxiaojun
技术总监北京红象云腾系统技术有限公司
擅长领域: 大数据数据库大数据平台

tongxiaojun 最近回答过的问题

回答状态

  • 发布时间:2015-06-04
  • 关注会员:1 人
  • 回答浏览:1692
  • X社区推广