Hadoop在Linux上的故障排查可按以下步骤进行:
$HADOOP_HOME/logs
目录,使用tail -f *.log
或grep "ERROR" *.log
实时查看或搜索错误信息。jps
命令确认NameNode、DataNode、ResourceManager等进程是否正常运行。ping
测试节点间连通性,netstat
或ss
检查端口监听状态,确保防火墙开放所需端口(如50070、8088等)。core-site.xml
、hdfs-site.xml
等配置参数(如fs.defaultFS
、路径权限)是否正确。top
、vmstat
、df -h
等工具监控CPU、内存、磁盘空间,排查资源不足问题。hdfs dfsadmin -report
查看HDFS状态,yarn node -list
查看YARN节点状态。hdfs dfs -chmod
调整文件权限。若以上步骤无法解决,可参考官方文档或在社区(如Stack Overflow)寻求帮助。