linux

Hadoop集群Linux系统如何搭建

小樊
51
2025-10-06 01:52:52
栏目: 智能运维

Hadoop集群在Linux系统上的搭建步骤

1. 环境准备

2. 安装Java环境

Hadoop基于Java开发,需在所有节点安装Java运行环境:

3. 下载并解压Hadoop

从Apache Hadoop官网下载最新稳定版本(如3.3.5),解压至指定目录(如/usr/local):

wget https://downloads.apache.org/hadoop/core/hadoop-3.3.5/hadoop-3.3.5.tar.gz  # 替换为最新版本链接
tar -zxvf hadoop-3.3.5.tar.gz -C /usr/local/  # 解压到/usr/local
ln -s /usr/local/hadoop-3.3.5 /usr/local/hadoop  # 创建软链接(简化命令)

设置Hadoop目录权限:sudo chown -R hadoop:hadoop /usr/local/hadoop(hadoop为用户,需提前创建)。

4. 配置Hadoop环境变量

编辑所有节点的~/.bashrc(或/etc/profile)文件,添加以下内容:

export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64  # 根据实际Java安装路径修改
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

保存后执行source ~/.bashrc(或source /etc/profile)使配置生效。

5. 配置Hadoop核心文件

进入Hadoop配置目录($HADOOP_HOME/etc/hadoop),修改以下关键文件:

修改完成后,保存所有文件。

6. 配置SSH免密登录

实现Master节点与所有Slave节点的无密码通信:

7. 格式化NameNode

仅在Master节点执行,初始化HDFS文件系统:

hdfs namenode -format

此操作会清除HDFS中的所有数据,请谨慎执行(首次搭建时需执行)。

8. 启动Hadoop集群

9. 验证集群状态

以上步骤完成后,Hadoop集群即搭建完成,可进行后续的HDFS文件操作、MapReduce作业提交等任务。

0
看了该问题的人还看了