在CentOS上管理HDFS的日志涉及多个步骤,包括日志的收集、存储、轮转和归档。以下是详细的操作指南:
hdfs-site.xml
)中进行相关配置,以启用或禁用某些日志级别、输出位置等。
hadoop.root.logger
:指定日志级别和输出位置,例如:DEBUG,console
表示在控制台输出。hadoop.log.dir
:指定日志文件的存储目录,例如:/var/log/hadoop/hdfs/
。hadoop.log.file
:指定日志文件的名称,例如:hdfs.log
。hadoop.log.level
:指定默认的日志级别,例如:DEBUG
。/etc/logrotate.d/
目录中。
/var/log/hadoop/hdfs/*.log {
daily
rotate 7
compress
missingok
notifempty
create 0640 root root
}
/var/log/Bigdata/hdfs/
目录下,并且可以配置自动归档功能。当日志文件大小超过100MB时,会自动压缩归档。
原有日志名-yyyy-mm-dd_hh-mm-ss.[编号].log.zip
,最多保留最近的100个压缩文件。journalctl
journalctl -k
journalctl -b
sudo groupadd loggers
sudo mkdir /var/log/custom_logs
sudo chown root:loggers /var/log/custom_logs
sudo chmod 640 /var/log/custom_logs
sudo usermod -a -G loggers username
sudo chcon -R -t var_log_t /var/log/custom_logs
# 安装Elasticsearch
wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -
echo "deb https://artifacts.elastic.co/packages/7.x/apt stable main" | sudo tee -a /etc/apt/sources.list.d/elastic-7.x.list
sudo apt-get update && sudo apt-get install elasticsearch
# 安装Logstash
wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -
echo "deb https://artifacts.elastic.co/packages/7.x/apt stable main" | sudo tee -a /etc/apt/sources.list.d/elastic-7.x.list
sudo apt-get update && sudo apt-get install logstash
# 安装Kibana
wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -
echo "deb https://artifacts.elastic.co/packages/7.x/apt stable main" | sudo tee -a /etc/apt/sources.list.d/elastic-7.x.list
sudo apt-get update && sudo apt-get install kibana
通过以上步骤,可以在CentOS上配置HDFS的日志管理,确保日志的有效收集、存储、轮转和归档,同时保证日志的安全性。