Hadoop在Linux故障排查可按以下步骤进行:
$HADOOP_HOME/logs
目录,用tail -f
或grep
查看实时日志,搜索ERROR
关键字定位异常。jps
命令确认NameNode、DataNode、ResourceManager等核心进程是否正常运行。ping
测试节点间连通性,检查防火墙是否开放Hadoop所需端口(如50070、8088等)。core-site.xml
、hdfs-site.xml
等配置参数是否正确,如fs.defaultFS
、dfs.namenode.name.dir
等。top
、iostat
、vmstat
等工具监控CPU、内存、磁盘I/O,排查资源不足问题。stop-all.sh
)并重新启动Hadoop服务,确保配置生效。http://namenode:50070
)和YARN(http://resourcemanager:8088
)Web界面查看集群状态和任务详情。hdfs dfs -chmod
调整目录权限。yarn-site.xml
中内存参数或优化作业资源分配。参考来源: