Hadoop下的Linux配置和Spark下的Linux有何异同?

Hadoop下的Linux配置和Spark下的Linux有何异同?
参与2

1同行回答

xuyanhuixuyanhui信息分析/架构师58同城大数据
在国内一些主要的应用场景中,Hadoop和Spark的配置其实是一致的,尤其是Spark on Yarn的使用场景,Spark是被当做Hadoop上的一个计算应用来提供服务的,调度以及资源分配完全依赖于Yarn。显示全部
在国内一些主要的应用场景中,Hadoop和Spark的配置其实是一致的,尤其是Spark on Yarn的使用场景,Spark是被当做Hadoop上的一个计算应用来提供服务的,调度以及资源分配完全依赖于Yarn。收起
互联网服务 · 2015-08-26
浏览1173

提问者

jeromhan
数据库管理员中铁物总电子商务技术有限公司
擅长领域: 服务器系统管理AIX

问题来自

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2015-08-26
  • 关注会员:1 人
  • 问题浏览:3947
  • 最近回答:2015-08-26
  • X社区推广