Hadoop在Linux上的故障排查可按以下步骤进行:
$HADOOP_HOME/logs目录,使用tail -f *.log或grep "ERROR" *.log实时查看或搜索错误信息。jps命令确认NameNode、DataNode、ResourceManager等进程是否正常运行。ping测试节点间连通性,netstat或ss检查端口监听状态,确保防火墙开放所需端口(如50070、8088等)。core-site.xml、hdfs-site.xml等配置参数(如fs.defaultFS、路径权限)是否正确。top、vmstat、df -h等工具监控CPU、内存、磁盘空间,排查资源不足问题。hdfs dfsadmin -report查看HDFS状态,yarn node -list查看YARN节点状态。hdfs dfs -chmod调整文件权限。若以上步骤无法解决,可参考官方文档或在社区(如Stack Overflow)寻求帮助。