spark分布式集群安装

发布时间:2020-07-04 12:18:03 作者:原生zzy
来源:网络 阅读:981

第一步:版本的选择:

spark-0.x

spark-1.x(主流:Spark-1.3 和 Spark-1.6)

spark-2.x(最新 Spark-2.4)

下载地址:http://spark.apache.org/downloads.html(官网)

其他镜像网站:https://mirrors.tuna.tsinghua.edu.cn/apache/spark/

                                   https://www.apache.org/dyn/closer.lua/spark/spark-2.3.0/  

                                   https://www.apache.org/dyn/closer.lua/spark/  

注意这里我选择是:spark-2.3.0-bin-hadoop2.7.tgz

 

第二步:关于搭建spark集群的环境:

注意:由于安装比较简单,此时略过java以及scala的安装。

转载:https://www.cnblogs.com/liugh/p/6623530.html(Linux下安装java)

转载:https://www.cnblogs.com/freeweb/p/5623795.html(Linux下安装scala)

 

第三步:spark集群的规划:

Server

Master

Worker

hostname01

 

hostname02

 

hostname03

 

 

第四步:具体的集群安装:

①上传下载好的spark安装包到集群的任意一个节点(由于个人品味不一,这里上传软件的方式也不同,作者使用的是Xshell)

②解压,并放置到统一管理的目录下(注意这个目录一定要有读写的权限):tar zxvf spark-2.3.2-bin-hadoop2.7.tgz -C /application/

③进入相应的spark的conf目录:cd $SPARK_HOME/conf:
   [user01@hostname01 ~]$ mv spark-env.sh.template spark-env.sh
   [user01@hostname01 conf]$ vim  spark-env.sh(加入以下配置)
       export JAVA_HOME=/application/jdk1.8.0_73

       export SPARK_MASTER_HOST=hostname01

       export SPARK_MASTER_PORT=7077


④修改$SPARK_HOME/conf/slaves(在其中加入集群的从节点的主机或者IP,这里我将hostname02、hostname03当做从节点)
       hostname02
       hostname03
注意:这里的配置,不要用任何多余的空格和空行!!!

⑤将spark安装包copy到集群的其他节点上
scp -r  /application/spark-2.3.2-bin-hadoop2.7   hostname02: /application
scp -r  /application/spark-2.3.2-bin-hadoop2.7   hostname03: /application
注意:由于这里集群的节点不是很多,所以在分发安装包的时候,可以手动输入密码,个人建议还是配置一下ssh面秘钥登录。
转载:https://blog.csdn.net/furzoom/article/details/79139570

⑥配置spark的环境变量:(注意这里需要所有的集群节点都要配置,当然配置的地方,根据不同要求而定)
我这里配置在/etc/profile :  (由于提前做了sudo的权限设置,所以在普通用户下依然可以修改/etc/profile)
       export SPARK_HOME=/application/spark-2.3.2-bin-hadoop2.7
       PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin  #注意这里的bin和sbin都要配置

⑦最终启动集群:
  [user01@hostname01 ~]$ /application/spark-2.3.2-bin-hadoop2.7/sbin/start-all.sh
切记:如果集群有hadoop集群,那么在hadoop的sbin目录下也有start-all.sh的命令,所以这里只能使用全路径  

 

第五步:测试是否启动成功

第一种方法

使用jps命令查看进程:master是集群的主节点,worker是集群的从节点:

spark分布式集群安装spark分布式集群安装spark分布式集群安装

第二种方法:查看web UI界面:

spark分布式集群安装

最终出现上述情况任意一个,说明集群搭建成功。这里分享的是分布式集群,HA集群,需要步骤比较复杂

并且需要zookeeper组件。

推荐阅读:
  1. Spark笔记整理(一):spark单机安装部署、分布式集群与HA安装部署+spark源码编译
  2. Spark介绍,安装

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

大数据 spark spar

上一篇:Android系统之Binder子系统(下)

下一篇:我对互联网体系结构的认识

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》