Spark运行原理及RDD解密

发布时间:2020-06-30 15:21:17 作者:moviebat
来源:网络 阅读:286

Spark是分布式内存计算框架,而不是分布式内容存储框架,搭配tachyon分布式内存文件系统,会更加有效果。

在文件模式下,spark比hadoop快10倍,在内存计算模式下,快100倍!

下面是一些

1 spark是分布式 基于内存 特别适合于迭代计算的计算框架

2 mapReduce就两个阶段map和reduce,而spark是不断地迭代计算,更加灵活更加强大,容易构造复杂算法。

3 spark不能取代hive,hive做数据仓库存储,spark sql只是取代hive的计算引擎,成为分析平台,hadoop作为存储平台

4 spark中间数据可以在内存也可以在磁盘

5 partition是一个数据集合

6 注意:初学者执行多个步骤要注意分步检验,不然不知哪里错了

7 var data = sc.textFile("/user") 不必写hdfs:// ,根据上下文判断

8 读文件得到HadoopRDD,去掉文件中索引,得到MapPartitionsRDD,这样一系列分片的数据分布在 不同的机器。

9 移动计算而不是移动数据

移动计算表示分布到各个机器上,分别计算自身负责的那部分数据,而不是把数据从各个机器上移动来进行计算。

计算完后进行数据汇总。

推荐阅读:
  1. spark基础-rdd特性
  2. Spark Core 的RDD

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

spark hive rdd

上一篇:大数据教程Scala系列之方法的嵌套和方法多态

下一篇:好程序员Linux云计算教程分享Shell脚本面试题

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》