在Debian系统上分析Hadoop日志,可参考以下方法:
定位日志文件
$HADOOP_HOME/logs 目录下,不同组件(如NameNode、DataNode、ResourceManager等)有独立日志文件。/var/log 目录。基础命令行查看
tail -f <日志文件路径>(如 tail -f $HADOOP_HOME/logs/hadoop-namenode-*.log)。grep "ERROR" <日志文件路径>,可结合正则表达式过滤特定信息。less <日志文件路径>,支持搜索(/关键词)和逐页浏览。使用日志聚合工具
yarn-site.xml),将节点日志集中到HDFS,便于统一分析。借助第三方工具
日志轮转与安全
logrotate 定期压缩、删除旧日志,避免磁盘占满。chmod 640),限制敏感信息访问。参考来源: