其实两者是一个意思,大数据环境下两者服务是互补的,先说Hadoop的服务,主要依赖于HDFS的存储,离线的计算MR或者hive以及其他组件,Spark可以作为Hadoop HDFS基础上的一种基于迭代计算的服务组件,相互配合使用更为合理,所以在官方的Hadoop架构图中Spark是其Yarn上的一个计算单元来...
显示全部其实两者是一个意思,大数据环境下两者服务是互补的,先说Hadoop的服务,主要依赖于HDFS的存储,离线的计算MR或者hive以及其他组件,Spark可以作为Hadoop HDFS基础上的一种基于迭代计算的服务组件,相互配合使用更为合理,所以在官方的Hadoop架构图中Spark是其Yarn上的一个计算单元来提供的。
收起