CentOS 环境下 HDFS 配置失败排查与修复
一 快速自检清单
java -version、hadoop version,确认版本可用。JAVA_HOME、HADOOP_HOME、PATH,并执行 source /etc/profile 或 source ~/.bashrc 使其生效。fs.defaultFS、dfs.namenode.name.dir、dfs.datanode.data.dir、dfs.replication、dfs.namenode.http-address 等参数正确。hdfs namenode -format(会清空已有数据),随后用 sbin/start-dfs.sh 启动。jps 查看 NameNode/DataNode 进程,访问 http://namenode_ip:50070 查看 Web UI;日志通常在 $HADOOP_HOME/logs 或 /var/log/hadoop/。二 常见故障与修复
VERSION 文件中的 clusterID 调整为与 NameNode 一致。chown/chmod 修正,并以具备权限的用户(如 hdfs 用户)执行操作。source 使环境变量生效。三 最小可用配置示例
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/tmp</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/opt/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>0.0.0.0:50070</value>
</property>
</configuration>
mkdir -p /opt/hadoop/{tmp,dfs/name,dfs/data}chown -R hdfs:hdfs /opt/hadoophdfs namenode -formatsbin/start-dfs.shjps 应看到 NameNode/DataNode;访问 http://namenode_ip:50070 查看状态。四 定位技巧与后续优化