利用docker 部署 spark项目的端口问题

发布时间:2020-08-03 22:02:15 作者:去买大白兔
来源:网络 阅读:1333

利用Docker  安装项目:

local模式要设置sparklocal.spark.driver.host

yarn模式中只设置sparklocal.spark.driver.host和可以启动,但是无法执行任何语句,需要再设置

sparkyarn.spark.driver.bindAddress

和 blockmanager

即可,在spark启动时指定对应host和bindaddress,docker指定访问设定的host和bindAddress

和 blockmanager即可

注意:sparkyarn.spark.driver.bindAddress 是spark2.1.0才有的参数,之前是没有的。所以说,在2.1.0之前,spark与docker结合,以上办法行不通。


推荐阅读:
  1. 动手搭建docker并在docker容器中建spark集群
  2. Docker部署Flask应用的实现步骤

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

spark 大数据 hadoop doc dock

上一篇:实时同步工具原理解释及环境准备inotify

下一篇:LVS 负载均衡 ------ DR模式 + Keepali

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》