Spark History Server 配置部署

发布时间:2020-06-10 23:09:41 作者:无锋剑
来源:网络 阅读:845

简介

为了可以通过WebUI控制台页面来查看具体的运行细节,解决应用程序运行结束,无法继续查看监控集群信息。无法回顾运行的程序细节,配置开启spark.history服务.Spark History Server可以很好地解决上面的问题。

配置文件位置:

$SPARK_HOME$/conf目录下的spark-defaults.conf文件。默认spark-defaults.conf是不存在的,我们可以根据Spark提供的template文件新建。

配置参数描述

spark.master                     spark://172.20.101.157:7070,172.20.101.164:7070,172.20.101.165:7070
#spark集群的Master节点的ip地址

spark.history.updateInterval
#默认值:10,以秒为单位,更新日志相关信息的时间间隔

spark.history.retainedApplications
#默认值:50,在内存中保存Application历史记录的个数,如果超过这个值,旧的应用程序信息将被删除,当再次访问已被删除的应用信息时需要重新构建页面。

spark.history.ui.port
#默认值:4040,HistoryServer的web端口

spark.history.ui.acls.enable
#默认值:false,授权用户查看应用程序信息的时候是否检查acl。如果启用,只有应用程序所有者和spark.ui.view.acls指定的用户可以查看应用程序信息;否则,不做任何检查

spark.eventLog.enabled 
#默认值:false ,是否记录Spark事件,用于应用程序在完成后重构webUI

spark.eventLog.dir
#默认值:file:///tmp/spark-events,保存日志相关信息的路径,可以是hdfs://开头的HDFS路径,也可以是file://开头的本地路径,都需要提前创建

spark.eventLog.compress 
#默认值:false,是否压缩记录Spark事件,前提spark.eventLog.enabled为true,默认使用的是snappy

本地文件存储日志配置案例:

spark-defaults.conf

spark.master                     spark://172.20.101.157:7070,172.20.101.164:7070,172.20.101.165:7070
spark.history.ui.port            18080
spark.history.retainedApplications  10
spark.eventLog.compress          true
spark.eventLog.enabled           true
spark.eventLog.dir               file:/data/sparkhistory
spark.history.fs.logDirectory    file:/data/sparkhistory

启动服务

$SPARK_HOME/sbin/start-history-server.sh

访问

浏览器:http://nodeIP:18080
推荐阅读:
  1. Spark笔记整理(十二):日志记录与监控
  2. SPARK启动历史任务查看

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

spark history server

上一篇:cisco ASA 551X系列防火墙限速

下一篇:麦哲伦海外仓系统对接API接口

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》