互联网服务大数据sparkrdd

在使用spark计算引擎时,如何创建RDD?

1、RDD是Spark的核心数据模型,但是个抽象类,全称为Resillient Distributed Dataset,即弹性分布式数据集。
2、RDD在抽象上来说是一种元素集合,包含了数据。它是被分区的,分为多个分区,每个分区分布在集群中的不同节点上,从而让RDD中的数据可以被并行操作。

如何在编写spark程序中创建RDD?

参与10

提问者

lxcorange
软件架构设计师某券商
擅长领域: 大数据数据库数据仓库

问题来自

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2018-10-18
  • 关注会员:2 人
  • 问题浏览:3418
  • 最近回答:2018-10-19
  • X社区推广