Hadoop日志管理在Ubuntu上的操作如下:
查看日志路径
$HADOOP_HOME/logs(如/usr/local/hadoop/logs)。hadoop-env.sh中设置HADOOP_LOG_DIR,或在log4j.properties中配置具体组件日志路径。查看日志内容
tail -f hadoop-<组件>-<主机名>.log(如hadoop-hdfs-namenode-hadoop01.log)。grep "错误关键词" hadoop-<组件>.log。配置日志级别
log4j.properties文件(位于$HADOOP_HOME/etc/hadoop),修改log4j.rootLogger或特定包的日志级别(如DEBUG、ERROR)。$HADOOP_HOME/sbin/stop-all.sh && $HADOOP_HOME/sbin/start-all.sh。日志归档与清理
hadoop archive -archiveName test.har -p /input /outputdir。yarn-site.xml中配置yarn.log-aggregation.retain-seconds)自动清理旧日志。集中管理与分析
yarn-site.xml中启用yarn.log-aggregation-enable=true,并指定聚合服务器。参考来源: