HDFS的日志文件默认存储在/var/log/hadoop-hdfs/目录下,按组件分类存放,具体路径如下:
/var/log/hadoop-hdfs/hadoop-<username>-namenode-<hostname>.log(<username>为运行HDFS的用户,<hostname>为主机名)/var/log/hadoop-hdfs/hadoop-<username>-datanode-<hostname>.log/var/log/hadoop-hdfs/hadoop-<username>-secondarynamenode-<hostname>.log/var/log/hadoop-hdfs/hadoop-<username>-journalnode-<hostname>.log这些日志文件记录了HDFS组件的运行状态、错误信息及操作日志,是故障排查的核心依据。
若Hadoop部署时修改了默认日志路径,可通过以下方式确认:
hdfs-site.xml配置:打开/etc/hadoop/conf/hdfs-site.xml文件,查找dfs.namenode.log.dir(NameNode日志路径)、dfs.datanode.log.dir(DataNode日志路径)等配置项,其值即为自定义的日志存储目录。HADOOP_LOG_DIR环境变量指定日志路径,可通过echo $HADOOP_LOG_DIR命令查看。若HDFS服务通过systemd管理(如CentOS 7及以上版本),可使用journalctl命令实时查看组件日志:
journalctl -u hadoop-hdfs-namenode -f(-f表示实时跟踪日志更新)journalctl -u hadoop-hdfs-datanode -fjournalctl -u hadoop-hdfs -f此方法无需手动查找日志文件,适合快速定位近期错误。
若需要更详细的日志信息(如调试错误),可调整日志级别:
log4j.properties文件:打开/etc/hadoop/conf/log4j.properties,找到log4j.rootLogger配置项,将INFO改为DEBUG(如log4j.rootLogger=DEBUG, A1),保存后重启HDFS服务(systemctl restart hadoop-hdfs-namenode)。hadoop dfsadmin命令动态设置,如hadoop dfsadmin -setLogLevel org.apache.hadoop.hdfs DEBUG(仅对当前运行实例生效)。通过以上方法,可快速定位并查看CentOS环境下HDFS的配置日志,帮助排查启动失败、数据块损坏等问题。