如何通过map操作看RDD的Map过程

发布时间:2021-12-30 09:29:43 作者:iii
来源:亿速云 阅读:99

本篇内容介绍了“如何通过map操作看RDD的Map过程”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

RDD中的map,flatMap等操作是怎么串在一起形成DAG图的呢?这是个很重要的问题,理解了这一点才能更好的理解Spark的内核实现。本文通过map过程来试图解释这一点。

先看看RDD的一个子类:MapPartitionsRDD,它会用在map函数场景下。

它的定义:

private[spark] class MapPartitionsRDD[U: ClassTag, T: ClassTag](
    var prev: RDD[T],
    f: (TaskContext, Int, Iterator[T]) => Iterator[U],  // (TaskContext, partition index, iterator)
    preservesPartitioning: Boolean = false,
    isFromBarrier: Boolean = false,
    isOrderSensitive: Boolean = false)
  extends RDD[U](prev)

prev是父RDD,就是父类RDD的入参,在后面的代码里就是firstParent。

F代表了map函数的定义,其中第二个Int参数是分区索引号。我们先不管这个f入参怎么传进来的,先看看MapPartitionsRDD需要做哪些事。

前面说过,对于RDD来说,最重要的函数就是compute,MapPartitionsRDD的compute方法定义:

override def compute(split: Partition, context: TaskContext): Iterator[U] =
    f(context, split.index, firstParent[T].iterator(split, context))

很明确,就是用当前的solit分区来执行入参的f函数!

那么,这个MapPartitionsRDD是怎么产生的呢?原来是在RDD类中的map函数产生的:

def map[U: ClassTag](f: T => U): RDD[U] = withScope {
    val cleanF = sc.clean(f)
    new MapPartitionsRDD[U, T](this, (_, _, iter) => iter.map(cleanF))
  }

这几行代码什么意思?这里还是需要好好分析一下的。

对照MapPartitionsRDD的定义,我们知道:

(_, _, iter) => iter.map(cleanF)

里面的_,_代表TaskContext和分区索引,因为在MapPartitionsRDD的compute方法中已经有了split入参和context入参,所以在RDD中就不需要传这两个参数了。

iter代表要处理的数据集,在MapPartitionsRDD中的compute方法中定义为:

firstParent[T].iterator(split, context)

函数就是第一个父类RDD的split分区的数据集。这里就很清楚了,对这个数据集做cleanF操作(也就是sc.clean之后的map函数,sc.clean是去掉不能序列号的字节码的意思,保证可以序列化后分发到其他节点执行)。

“如何通过map操作看RDD的Map过程”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!

推荐阅读:
  1. GO map 基础操作
  2. Dynamic Map

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

map rdd

上一篇:SQL SERVER 空格的坑”以及PostgreSQL类似的坑如何避开

下一篇:Spring与Mybatis整合的MapperScannerConfigurer怎么用

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》