spark的灵魂:RDD和DataSet

发布时间:2020-07-27 11:01:10 作者:xiao酒窝
来源:网络 阅读:340

spark建立在抽象的RDD上,把不同处理的数据的需求转化为RDD,然后对RDD进行一系列的算子运算,从而得到结果。
RDD是一个容错的,并行的数据结构,可以将数据存储到磁盘和内存中,并能控制数据分区,并提供了丰富的API来操作数据。

1:RDD的定义及五大特性剖析
RDD是分布式内存的一个抽象概念,是一种高度受限的共享内存模型,即RDD时只读的记录分区的集合,能跨集群所有节点并行计算,是一种基于工作集的抽象模型。
(1)分区列表
(2)每一个分区都有一个计算函数
(3)依赖于其它RDD的列表
(4)key-value数据类型的RDD分区器
(5)每一个分区都有一个优先位置列表
2:DataSet的定义及内部机制剖析

推荐阅读:
  1. Spark 系列(八)—— Spark SQL 之 DataFrame 和 Dataset
  2. spark基础--rdd的生成

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

spark rdd dataset

上一篇:用python做数据分析的方法

下一篇:Mac下配置xampp和Xdebug

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》