spark中的累加器accumulator怎么用

发布时间:2021-12-16 22:01:43 作者:柒染
来源:亿速云 阅读:231

spark中的累加器accumulator怎么用,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。

累加的结果类型与合并的元素类型相同时,更简单的可累加值,即仅通过关联操作“添加”到的变量,因此可以有效地并行支持。它们可用于实现计数器(如MapReduce)或求和。Spark本机支持数值类型的累加器,程序员可以添加对新类型的支持。

通过调用SparkContext#acculator,从初始值v创建累加器。然后,可以使用Accumulable#+=操作符将集群上运行的任务添加到集群中。但是,它们无法读取其值。只有驱动程序才能使用其值方法读取累加器的值。

下面的解释器会话显示用于添加数组元素的累加器:

scala> val accum = sc.accumulator(0)
accum: spark.Accumulator[Int] = 0scala> sc.parallelize(Array(1, 2, 3, 4)).foreach(x => accum += x)
...10/09/29 18:41:08 INFO SparkContext: Tasks finished in 0.317106 s

scala> accum.value
res2: Int = 10

看完上述内容,你们掌握spark中的累加器accumulator怎么用的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注亿速云行业资讯频道,感谢各位的阅读!

推荐阅读:
  1. Spark 系列(六)—— 累加器与广播变量
  2. 生产常用Spark累加器剖析之四

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

spark accumulator

上一篇:怎么用SPARK对PM2.5数据进行分析

下一篇:python匿名函数怎么创建

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》