spark是否在选择服务器时需要大容量内存?

spark对于内存操作要大于hadoop,是否在选择服务器时需要大容量内存?是不是相同服务器型号时,spark内存使用会更高?显示全部
spark对于内存操作要大于hadoop,是否在选择服务器时需要大容量内存?是不是相同服务器型号时,spark内存使用会更高?收起
参与6

查看其它 2 个回答jy00810061的回答

jy00810061jy00810061系统运维工程师chinaunicom
回复 2# tongxiaojun


    如果使用Spark架构,是不是优先考虑物理内存的配置
互联网服务 · 2015-06-04
浏览1676

回答者

jy00810061
系统运维工程师chinaunicom
擅长领域: 服务器系统管理

jy00810061 最近回答过的问题

回答状态

  • 发布时间:2015-06-04
  • 关注会员:1 人
  • 回答浏览:1676
  • X社区推广