Ubuntu 上更新 HDFS 配置的规范流程
一 操作前准备
env | grep HADOOP;确保有 sudo 权限与集群维护窗口。hdfs dfsadmin -refreshNodes、重启单个服务或滚动重启。stop-dfs.sh && start-dfs.sh。二 修改配置文件
cd $HADOOP_HOME/etc/hadoop。<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode01:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/data/hadoop/tmp</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///data/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///data1/hadoop/dfs/data,file:///data2/hadoop/dfs/data</value>
</property>
<!-- 可选:Secondary NameNode Web 地址 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>secondary01:50090</value>
</property>
</configuration>
export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64
三 分发与生效
rsync -av $HADOOP_HOME/etc/hadoop/ nodeX:$HADOOP_HOME/etc/hadoop/),保持集群一致性。sudo mkdir -p /data/hadoop/dfs/{name,data}
sudo chown -R hdfs:hdfs /data/hadoop
JAVA_HOME 或 HADOOP_HOME):echo 'export HADOOP_HOME=/usr/local/hadoop' >> ~/.bashrc
echo 'export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin' >> ~/.bashrc
source ~/.bashrc
hdfs dfsadmin -refreshNodes 使节点名单生效。四 涉及数据目录变更时的安全做法
dfs.datanode.data.dir,旧目录保留;hdfs dfsadmin -report 显示新盘已使用且数据块恢复完成后,再下线旧盘。hdfs dfsadmin -report 查看 Live Nodes、容量与磁盘使用;hdfs fsck / -files -blocks -locations 检查块分布与健康;五 验证与回滚
hdfs dfsadmin -report
hdfs dfs -ls /
hdfs fsck / -files -blocks -locations
访问 NameNode Web UI:http://