传统ETL ,Mapreduce,Hive,Spark等处理数据文件的应用场景都有哪些?
楼上说的比较清楚了,我再补充一些,hive其底层也是转化为mapreduce运行,对于使用者而言用sql代替写mapreduce,方便很多,但是同时也会失去一些灵活性,而spark主要基于内存运算,如果机器内存足够,使用spark能够更加快捷,应用场景比如比如实时推荐、聚类分析等等。
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30