SPARK standlone安装配置

发布时间:2020-07-11 19:29:20 作者:谁伴我闯荡
来源:网络 阅读:608

集群一共有3台机器,集群使用hadoop用户运行,3台机器如下:

1DEV-HADOOP-01192.168.9.110
2DEV-HADOOP-02192.168.9.111
3DEV-HADOOP-03192.168.9.112


  1. 配置集群间hadoop用户的无密码登录

  2. 配置每台机器的/etc/hosts

  3. 安装JDK1.8.0_60

  4. 安装scala

    1. 下载scala-2.11.7.tar

    2. 把scala-2.11.7.tar解压到/data/server目录

    3. 设置环境变量 /etc/profile

      1. export SCALA_HOME=/usr/scala/scala-2.11.7

      2. 使配置生效 source /etc/profile

  5. 安装spark

    1. 下载spark-1.5.0.tar

    2. 把spark-1.5.0.tar解压到/data/server目录

    3. 配置环境变量 /etc/profile

      1. export SPARK_HOME=/data/server/spark-1.5.0-bin-hadoop2.6

      2. export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

      3. 使配置生效 source /etc/profile

    4. 修改spark配置文件

      1. spark-env.sh配置文件

        1. export SCALA_HOME=/data/server/scala-2.11.7

        2. export JAVA_HOME=/usr/java/jdk1.8.0_60/

        3. export SPARK_MASTER_IP=DEV-HADOOP-01

        4. export SPARK_WORKER_MEMORY=2048m

      2. slaves配置文件

        1. DEV-HADOOP-02

        2. DEV-HADOOP-03

  6. 启动spark集群

    1. sbin/start-all.sh

  7. 集群启动验证

    1. 执行jps命令,master节点可以看到Master进程,slave可以看到Worker进程

  8. 查看Spark UI

    1. http://192.168.9.110:8080/

  9. 关闭集群

    1. sbin/stop-all.sh 

推荐阅读:
  1. Spark框架:Win10系统下搭建Scala开发环境
  2. PyCharm搭建Spark开发环境

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

安装 spark spar

上一篇:如何恢复手机通讯录号码呢?该怎么恢复呢

下一篇:spark基础-rdd特性

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》