Spark缓存的使用示例分析

发布时间:2021-12-14 17:55:17 作者:iii
来源:亿速云 阅读:210

本篇内容介绍了“Spark缓存的使用示例分析”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

注:因为使用的是内部数据文件, 在这边就不公布出来了. 大家看看测试代码跟测试结果即可。

这次测试是在JupyterNotebook这种交互式的环境下测试的. 如果是直接的submit一个job, 可能结果不太一样。

测试步骤

初始化Spark

from pyspark.sql import SparkSession  spark = SparkSession\  .builder\  .appName("Cache Demo")\  .master("spark://10.206.132.113:7077") \  .config('spark.driver.memory', '5g') \  .config('spark.executor.memory', '5g') \  .config("spark.cores.max", 20) \  .getOrCreate()

分别读两个文件做测试, 并且其中一个使用Cache

ds1 = spark.read.json(os.path.join(data_path, "data.2018-01-04"))  ds2 = spark.read.json(os.path.join(data_path, "data.2018-01-05"))  ds1.cache() # 对于***个dataframe进行cache.

注: 这两个数据文件分别是1月4日跟1月5日产生的. 大小非常接近, 都是3.1G.

为了防止Spark自己做了什么Cache影响实验, 在这里读取两个不同的数据文件.

计算时间:

import time  def calc_timing(ds, app_name) :  t1 = time.time()  related = ds.filter("app_name = '%s'" % app_name)  _1stRow = related.first()  t2 = time.time()  print "cost time:", t2 - t1

测试结果:

calc_timing(ds1, "DrUnzip") # cost time: 13.3130679131  calc_timing(ds2, "DrUnzip") # cost time: 18.0472488403  calc_timing(ds1, "DrUnzip") # cost time: 0.868658065796  calc_timing(ds2, "DrUnzip") # cost time: 15.8150720596

可以看到:

因此可以猜想, Spark的DataFrame读取数据之后, 即使进行两个相同的操作, 消耗的时间也不能减少, 因为Spark  默认不会把DS放到内存之中.

“Spark缓存的使用示例分析”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!

推荐阅读:
  1. HTTP缓存的示例分析
  2. shiro缓存机的示例分析

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

spark

上一篇:Spark的集群deploy模式有哪些

下一篇:Spark UDF变长参数的方法是什么

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》