大数据环境下该选Hadoop还是Spark?

参与3

1同行回答

xuyanhuixuyanhui信息分析/架构师58同城大数据
其实两者是一个意思,大数据环境下两者服务是互补的,先说Hadoop的服务,主要依赖于HDFS的存储,离线的计算MR或者hive以及其他组件,Spark可以作为Hadoop HDFS基础上的一种基于迭代计算的服务组件,相互配合使用更为合理,所以在官方的Hadoop架构图中Spark是其Yarn上的一个计算单元来...显示全部
其实两者是一个意思,大数据环境下两者服务是互补的,先说Hadoop的服务,主要依赖于HDFS的存储,离线的计算MR或者hive以及其他组件,Spark可以作为Hadoop HDFS基础上的一种基于迭代计算的服务组件,相互配合使用更为合理,所以在官方的Hadoop架构图中Spark是其Yarn上的一个计算单元来提供的。收起
互联网服务 · 2015-08-26
浏览1479

提问者

psm0914
it技术咨询顾问IBM
擅长领域: 云计算安全网络

问题来自

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2015-08-25
  • 关注会员:1 人
  • 问题浏览:4496
  • 最近回答:2015-08-26
  • X社区推广