Ubuntu HDFS日志分析方法如下:
日志文件定位
/var/log/hadoop-hdfs/hadoop-*-namenode-*.log
/var/log/hadoop-hdfs/hadoop-*-datanode-*.log
常用命令行工具
tail -f <日志文件>
,如tail -f /var/log/hadoop-hdfs/hadoop-namenode-*.log
。grep "ERROR" <日志文件>
,统计错误次数| wc -l
。awk
提取字段并排序,如awk '/ERROR/ {print $5}' <日志文件> | sort | uniq -c | sort -nr
。工具化分析
hdfs fsck / -files -blocks
:检查块完整性。hdfs dfsadmin -report
:查看集群健康状态。故障排查场景
hdfs fsck
定位损坏块,修复或删除。hdfs dfsadmin -refreshNodes
刷新节点,补充副本。HADOOP_HEAPSIZE
。日志管理建议
logrotate
定期归档日志,避免磁盘占满。参考来源: