Ubuntu HDFS日志分析方法如下:
日志文件定位
/var/log/hadoop-hdfs/hadoop-*-namenode-*.log/var/log/hadoop-hdfs/hadoop-*-datanode-*.log常用命令行工具
tail -f <日志文件>,如tail -f /var/log/hadoop-hdfs/hadoop-namenode-*.log。grep "ERROR" <日志文件>,统计错误次数| wc -l。awk提取字段并排序,如awk '/ERROR/ {print $5}' <日志文件> | sort | uniq -c | sort -nr。工具化分析
hdfs fsck / -files -blocks:检查块完整性。hdfs dfsadmin -report:查看集群健康状态。故障排查场景
hdfs fsck定位损坏块,修复或删除。hdfs dfsadmin -refreshNodes刷新节点,补充副本。HADOOP_HEAPSIZE。日志管理建议
logrotate定期归档日志,避免磁盘占满。参考来源: