HDFS在Linux系统中的日志分析方法如下:
/var/log/hadoop-hdfs/目录下,常见文件包括hadoop-hdfs-namenode-<hostname>.log(NameNode日志)、hadoop-hdfs-datanode-<hostname>.log(DataNode日志)。/var/log/Bigdata/hdfs/目录。tail -f /var/log/hadoop-hdfs/namenode-<hostname>.log # 实时跟踪NameNode日志
grep "ERROR" /var/log/hadoop-hdfs/*.log | awk '{print $1, $2, $3}' # 提取包含"ERROR"的时间戳和信息
awk '/ERROR/{print $5}' /var/log/hadoop-hdfs/namenode-<hostname>.log | sort | uniq -c | sort -nr # 统计错误类型出现次数
logrotate配置自动压缩归档旧日志,避免占用过多空间。NameNode日志中的WARN/ERROR,结合hdfs dfsadmin -report检查节点状态。hdfs fsck /检测损坏块,通过日志定位问题节点。参考来源: