利用spark进行数据清洗的内幕是什么,是否有安全性隐患?

利用spark进行数据清洗的内幕是什么,是否有安全性隐患。

参与12

2同行回答

美国队长美国队长研发工程师Alibaba
spark应该说是类似Mapreduce的内存计算,他的每一个task最终都会转换成map或者reduce计算,只不过他是基于内存的,另外你的说的安全性隐患不知道是什么意思?显示全部

spark应该说是类似Mapreduce的内存计算,他的每一个task最终都会转换成map或者reduce计算,只不过他是基于内存的,另外你的说的安全性隐患不知道是什么意思?

收起
互联网服务 · 2017-07-07
浏览2188
haichuan0227haichuan0227项目经理新浪云计算
spark数据清洗原理,简单来说是,由定时器RecurringTimer周期性将任务发布给EventLoop,EventLoop接受到任务后,通过processEvent来处理ClearMetadata和ClearCheckpointData,这两个任务正是实现了清理RDD数据/元数据及checkpoint缓存数据。...显示全部

spark数据清洗原理,简单来说是,由定时器RecurringTimer周期性将任务发布给EventLoop,EventLoop接受到任务后,通过processEvent来处理ClearMetadata和ClearCheckpointData,这两个任务正是实现了清理RDD数据/元数据及checkpoint缓存数据。

收起
互联网服务 · 2017-07-07
浏览2089

提问者

hleio
网络工程师安徽广播电视台
擅长领域: 存储安全网络

问题来自

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2017-07-06
  • 关注会员:3 人
  • 问题浏览:4870
  • 最近回答:2017-07-07
  • X社区推广