Linux系统如何安装Spark

发布时间:2022-01-24 10:42:17 作者:小新
来源:亿速云 阅读:196

小编给大家分享一下Linux系统如何安装Spark,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

Spark 是专为大规模数据处理而设计的快速通用的计算引擎。

Spark简介:

Linux系统安装Spark具体步骤:

安装约定

软件上传目录:/opt/soft

软件安装目录:/opt

环境变量配置文件:/etc/profile.d/hadoop-etc.sh

环境依赖:需安装zookeeper、Scala

1) 解压hadoop安装软件

tar -zxvf /opt/soft/spark-2.0.2-bin-hadoop2.7.tgz -C /opt/

2) 重命名

mv /opt/spark-2.0.2-bin-hadoop2.7 /opt/spark

3) 复制并重命名配置文件

cd /opt/spark/conf

cp spark-env.sh.template spark-env.sh

4) 修改spark-env.sh配置文件

vi spark-env.sh

export JAVA_HOME=/opt/jdk

export SCALA_HOME=/opt/scala

export SPARK_MASTER_IP=lky01

export SPARK_MASTER_PORT=7077

export SPARK_WORKER_CORES=1

export SPARK_WORKER_INSTANCES=1

export SPARK_WORKER_MEMORY=1g

export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop

5) 复制并重命名slaves.template文件

cp slaves.template slaves

6) 修改slaves配置文件

添加两行记录(注销掉localhost)

lky02

lky03

7)将mysql驱动架包mysql-connector-java-5.1.39-bin.jar复制到/opt/spark/jars目录下

8)拷贝spark至其他机器

scp -r /opt/spark root@lky02:/opt

scp -r /opt/spark root@lky03:/opt

9)拷贝环境变量至其他机器

scp /etc/profile.d/hadoop-etc.sh root@lxq2:/etc/profile.d/

scp /etc/profile.d/hadoop-etc.sh root@lxq03:/etc/profile.d/

10)让配置生效: source /etc/profile.d/hadoop-etc.sh

修改启动项

为了避免和hadoop中的start/stop-all.sh脚本发生冲突,将spark/sbin/start/stop-all.sh重命名

cd /opt/spark/sbin/

mv start-all.sh start-spark-all.sh

mv stop-all.sh stop-spark-all.sh

11)启动spark

sbin/start-spark-all.sh

12)访问验证

访问spark web服务:http://ip:8080

以上是“Linux系统如何安装Spark”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!

推荐阅读:
  1. Spark入门及安装与配置
  2. spark安装和优化

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

linux spark

上一篇:如何安装Linux系统时LSI RAID卡的驱动挂载

下一篇:如何在CentOS 8/RHEL 8系统中安装PHP 7.4

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》