ubuntu

Hadoop在Ubuntu上的配置步骤是什么

小樊
47
2025-08-03 19:30:09
栏目: 智能运维

在Ubuntu上配置Hadoop的步骤如下:

准备工作

  1. 安装Java

    sudo apt update
    sudo apt install openjdk-11-jdk
    

    确认Java安装成功后,使用以下命令检查:

    java -version
    
  2. 下载并解压Hadoop

    可以从Apache Hadoop官网下载Hadoop的二进制包。以下命令以Hadoop 3.3.0为例:

    cd /opt
    sudo wget https://downloads.apache.org/hadoop/core/hadoop-3.3.0/hadoop-3.3.0.tar.gz
    sudo tar -xzvf hadoop-3.3.0.tar.gz
    sudo mv hadoop-3.3.0 hadoop
    
  3. 设置环境变量

    编辑~/.bashrc文件,添加以下内容:

    export HADOOP_HOME=/opt/hadoop
    export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    

    使用以下命令使更改生效:

    source ~/.bashrc
    

配置Hadoop

  1. 配置core-site.xml

    编辑$HADOOP_HOME/etc/hadoop/core-site.xml文件,添加以下配置:

    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
        </property>
    </configuration>
    
  2. 配置hdfs-site.xml

    编辑$HADOOP_HOME/etc/hadoop/hdfs-site.xml文件,添加以下配置:

    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>/opt/hadoop/dfs/name</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>/opt/hadoop/dfs/data</value>
        </property>
    </configuration>
    
  3. 配置mapred-site.xml

    复制$HADOOP_HOME/etc/hadoop/mapred-site.xml.template文件为mapred-site.xml,然后编辑该文件,添加以下配置:

    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>
    
  4. 配置yarn-site.xml

    编辑$HADOOP_HOME/etc/hadoop/yarn-site.xml文件,添加以下配置:

    <configuration>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
        <property>
            <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
            <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
    </configuration>
    

格式化HDFS并启动Hadoop

  1. 格式化HDFS

    hdfs namenode -format
    
  2. 启动Hadoop

    启动HDFS:

    start-dfs.sh
    

    启动YARN:

    start-yarn.sh
    
  3. 验证安装

    使用以下命令检查Hadoop服务的状态:

    jps
    

    如果输出包含Namenode、Datanode、ResourceManager和NodeManager等相关进程,说明Hadoop已成功启动。

请注意,以上步骤是基于Hadoop 3.3.0版本的配置指南,不同版本的Hadoop可能会有细微的配置差异。建议参考所使用版本的官方文档进行详细配置。

0
看了该问题的人还看了