Hadoop在Ubuntu上的日志管理方法如下:
tail -f <日志路径>:实时查看日志末尾内容,如 tail -f /var/log/hadoop-hdfs/hadoop-namenode.log。grep "关键词" <日志路径>:搜索特定错误或信息,如 grep "ERROR" /var/log/hadoop-yarn/*.log。head -n 10 <日志路径>:查看日志前10行。hadoop fs -ls /path/to/logs:查看HDFS中存储的日志文件。yarn logs -applicationId <应用ID>:获取YARN任务的详细日志。http://<主机>:9870)或ResourceManager(http://<主机>:8088)的Web界面查看集群日志。awk 提取日志字段(如时间戳、错误类型),sort/uniq 去重统计,如:awk '/ERROR/ {print $1, $2}' /var/log/hadoop-logs/*.log | sort | uniq -c。$HADOOP_HOME/etc/hadoop/log4j.properties 文件,设置根日志级别(如 log4j.rootLogger=DEBUG, console),重启服务生效。logrotate 工具定期归档日志,避免文件过大,示例配置:sudo nano /etc/logrotate.d/hadoop
/var/log/hadoop-*.log {
daily
rotate 7
compress
missingok
}
```。
/var/log/hadoop-* 或 $HADOOP_HOME/logs,可通过配置文件修改。参考来源: