虽然目前Spark的宣传力度很大,但是从原理和机制上来看很难撼动hadoop的地位。Spark是内存计算,当数据量巨大的时候,Spark也不一定能搞的定。所以不要考虑将来怎么样,现在抓紧时间学起来,不管spark还是MapReduce,其实机制和原理都差不多。...
显示全部虽然目前Spark的宣传力度很大,但是从原理和机制上来看很难撼动hadoop的地位。Spark是内存计算,当数据量巨大的时候,Spark也不一定能搞的定。
所以不要考虑将来怎么样,现在抓紧时间学起来,不管spark还是MapReduce,其实机制和原理都差不多。
收起