请问一下,在内存计算的使用上,大家都采用什么模式呢?

1、、在内存计算这方面,请问一下大家使用Spark Standalone模式,还是On Yarn模式呢?或者使用其他什么模式?2、使用Hive on Spark 较多呢?还是直接使用Spark SQL直接处理问题呢?显示全部

1、、在内存计算这方面,请问一下大家使用Spark Standalone模式,还是On Yarn模式呢?或者使用其他什么模式?
2、使用Hive on Spark 较多呢?还是直接使用Spark SQL直接处理问题呢?

收起
参与14

查看其它 1 个回答rein07的回答

rein07rein07  系统架构师 , 某证券
  1. 应该是spark on yarn多些,基于yarn的任务管理方便,且有助于资源的统一管理。
    2、spark sql比hive sql要新一点,两者都可以使用,像我们更多的是直接使用spark core,还是看场景吧。
证券 · 2017-07-04
浏览3647

回答者

rein07
系统架构师某证券
擅长领域: 人工智能大数据机器学习

rein07 最近回答过的问题

回答状态

  • 发布时间:2017-07-04
  • 关注会员:4 人
  • 回答浏览:3647
  • X社区推广