如何在CentOS上安装Spark

发布时间:2025-03-12 13:43:08 作者:小樊
来源:亿速云 阅读:108

在CentOS上安装Apache Spark可以分为几个步骤,以下是详细的步骤说明:

环境准备

  1. 更新系统
    sudo yum update -y
    
  2. 安装Java: Spark需要Java 8或更高版本。可以通过以下命令安装OpenJDK 8:
    sudo yum install java-1.8.0-openjdk-devel -y
    
    安装完成后,使用以下命令确认Java是否安装成功:
    java -version
    

下载和安装Spark

  1. 下载Spark: 访问Spark官方网站,下载适合的版本。例如,下载Spark 3.1.1版本:
    wget https://downloads.apache.org/spark/spark-3.1.1/spark-3.1.1-bin-hadoop3.2.tgz
    
  2. 解压文件: 使用tar命令解压下载的压缩包:
    tar -xvf spark-3.1.1-bin-hadoop3.2.tgz
    
  3. 移动到指定目录: 为了便于管理,将解压后的文件移动到/opt目录下:
    sudo mv spark-3.1.1-bin-hadoop3.2 /opt/spark
    

配置环境变量

  1. 编辑.bashrc文件: 在/.bashrc文件中添加Spark的环境变量:
    echo 'export SPARK_HOME=/opt/spark' >> ~/.bashrc
    echo 'export PATH=$PATH:$SPARK_HOME/bin' >> ~/.bashrc
    source ~/.bashrc
    

启动Spark

  1. 启动Spark Master: 进入Spark的sbin目录并启动Master节点:
    cd /opt/spark/sbin
    ./start-master.sh
    
  2. 启动Spark Worker: 在Master节点上使用以下命令启动Worker节点,替换MasterIP为Master节点的实际IP地址:
    ./start-slave.sh spark://MasterIP:7077
    
  3. 验证运行状态: 可以通过浏览器访问http://MasterIP:8080来查看Spark的Web UI,确认Master和Worker的状态是否正常。

运行示例应用程序

  1. 运行Spark Pi示例: 使用以下命令运行Spark Pi示例程序:
    /opt/spark/bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://MasterIP:7077 /opt/spark/examples/jars/spark-examples_2.12-3.1.1.jar 100
    
    如果一切正常,您将看到计算Pi值的输出。

通过以上步骤,您可以在CentOS上成功安装和运行Spark。希望这些信息对您有所帮助!

推荐阅读:
  1. Spark Streaming编程初级源码分析
  2. Spark如何提升工作效率

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

spark linux

上一篇:安装Spark在Linux上难吗

下一篇:Linux Spark如何轻松安装

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》