debian

Debian上HDFS集群怎么搭建

小樊
43
2025-10-30 00:16:14
栏目: 智能运维

1. 准备工作

2. 安装Java环境 Hadoop依赖Java 11及以上版本,推荐使用OpenJDK:

sudo apt update && sudo apt install -y openjdk-11-jdk
# 验证安装
java -version  # 应输出Java 11及以上版本信息

3. 创建Hadoop专用用户 为避免权限问题,创建专用用户并授予权限:

sudo adduser hadoop  # 设置密码及个人信息
sudo usermod -aG sudo hadoop  # 加入sudo组
# 切换至hadoop用户
su - hadoop

4. 下载并解压Hadoop 从Apache官网下载稳定版Hadoop(如3.3.6),解压至/usr/local/并重命名:

wget https://downloads.apache.org/hadoop/core/hadoop-3.3.6/hadoop-3.3.6.tar.gz
sudo tar -xzvf hadoop-3.3.6.tar.gz -C /usr/local/
sudo mv /usr/local/hadoop-3.3.6 /usr/local/hadoop
# 设置目录权限
sudo chown -R hadoop:hadoop /usr/local/hadoop

5. 配置Hadoop环境变量 编辑/etc/profile文件,添加Hadoop及Java环境变量:

echo 'export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64' >> /etc/profile
echo 'export HADOOP_HOME=/usr/local/hadoop' >> /etc/profile
echo 'export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin' >> /etc/profile
# 使配置生效
source /etc/profile

6. 配置SSH免密码登录 在NameNode上生成SSH密钥,并复制至所有节点(包括自身):

ssh-keygen -t rsa -b 4096 -C "hadoop@cluster"  # 直接回车,默认路径
ssh-copy-id hadoop@master  # 复制至NameNode自身
ssh-copy-id hadoop@node1   # 复制至DataNode1
ssh-copy-id hadoop@node2   # 复制至DataNode2
# 测试免密登录(如ssh hadoop@node1应无需密码)

7. 配置Hadoop核心文件 所有配置文件位于$HADOOP_HOME/etc/hadoop/目录下,需修改以下文件:

8. 格式化NameNode 仅在NameNode上执行一次,用于初始化HDFS元数据:

hdfs namenode -format
# 执行后会提示“Successfully formatted”,表示成功

9. 启动HDFS集群 在NameNode上启动HDFS服务(包含NameNode和DataNode):

$HADOOP_HOME/sbin/start-dfs.sh
# 查看进程是否启动
jps  # 应显示NameNode、DataNode进程

10. 验证集群状态

注意事项

0
看了该问题的人还看了