Hadoop日志管理在Ubuntu上的操作如下:
查看日志路径
$HADOOP_HOME/logs
(如/usr/local/hadoop/logs
)。hadoop-env.sh
中设置HADOOP_LOG_DIR
,或在log4j.properties
中配置具体组件日志路径。查看日志内容
tail -f hadoop-<组件>-<主机名>.log
(如hadoop-hdfs-namenode-hadoop01.log
)。grep "错误关键词" hadoop-<组件>.log
。配置日志级别
log4j.properties
文件(位于$HADOOP_HOME/etc/hadoop
),修改log4j.rootLogger
或特定包的日志级别(如DEBUG
、ERROR
)。$HADOOP_HOME/sbin/stop-all.sh
&& $HADOOP_HOME/sbin/start-all.sh
。日志归档与清理
hadoop archive -archiveName test.har -p /input /outputdir
。yarn-site.xml
中配置yarn.log-aggregation.retain-seconds
)自动清理旧日志。集中管理与分析
yarn-site.xml
中启用yarn.log-aggregation-enable=true
,并指定聚合服务器。参考来源: