在Ubuntu上监控HDFS可从命令行、Web界面、第三方工具及日志分析入手,以下是具体方法:
命令行工具
hdfs dfsadmin -report:查看集群状态,包括DataNode数量、容量、剩余空间等。hdfs fsck /:检查文件系统健康状况,检测损坏文件或块。hdfs dfs -du -h /:查看目录/文件大小。jps:检查NameNode、DataNode等进程是否正常运行。Web界面监控
http://namenode-host:9870(Hadoop 3.x)或http://namenode-host:50070(Hadoop 2.x),查看集群状态、DataNode信息及存储使用率。http://resourcemanager-host:8088,监控资源分配情况。第三方监控工具
日志分析
/var/log/hadoop-hdfs/),使用tail -f实时跟踪或grep过滤关键信息(如错误日志)。自定义监控
hdfs dfsadmin -report输出,通过邮件或短信发送异常告警。关键指标建议:重点关注磁盘使用率(>85%告警)、节点失联、副本不足(>10%需处理)、RPC延迟(>200ms异常)等。结合业务场景选择工具组合,例如中小集群可用Zabbix+脚本,大规模集群推荐Prometheus+Grafana+Ambari。