Hadoop在Linux故障排查可按以下步骤进行:
$HADOOP_HOME/logs目录,用tail -f或grep查看实时日志,搜索ERROR关键字定位异常。jps命令确认NameNode、DataNode、ResourceManager等核心进程是否正常运行。ping测试节点间连通性,检查防火墙是否开放Hadoop所需端口(如50070、8088等)。core-site.xml、hdfs-site.xml等配置参数是否正确,如fs.defaultFS、dfs.namenode.name.dir等。top、iostat、vmstat等工具监控CPU、内存、磁盘I/O,排查资源不足问题。stop-all.sh)并重新启动Hadoop服务,确保配置生效。http://namenode:50070)和YARN(http://resourcemanager:8088)Web界面查看集群状态和任务详情。hdfs dfs -chmod调整目录权限。yarn-site.xml中内存参数或优化作业资源分配。参考来源: