在CentOS上管理HDFS的日志涉及多个步骤,包括日志的收集、存储、轮转和归档。以下是详细的操作指南:
hdfs-site.xml)中进行相关配置,以启用或禁用某些日志级别、输出位置等。
hadoop.root.logger:指定日志级别和输出位置,例如:DEBUG,console表示在控制台输出。hadoop.log.dir:指定日志文件的存储目录,例如:/var/log/hadoop/hdfs/。hadoop.log.file:指定日志文件的名称,例如:hdfs.log。hadoop.log.level:指定默认的日志级别,例如:DEBUG。/etc/logrotate.d/目录中。
/var/log/hadoop/hdfs/*.log {
daily
rotate 7
compress
missingok
notifempty
create 0640 root root
}
/var/log/Bigdata/hdfs/目录下,并且可以配置自动归档功能。当日志文件大小超过100MB时,会自动压缩归档。
原有日志名-yyyy-mm-dd_hh-mm-ss.[编号].log.zip,最多保留最近的100个压缩文件。journalctljournalctl -kjournalctl -bsudo groupadd loggerssudo mkdir /var/log/custom_logs
sudo chown root:loggers /var/log/custom_logs
sudo chmod 640 /var/log/custom_logs
sudo usermod -a -G loggers usernamesudo chcon -R -t var_log_t /var/log/custom_logs# 安装Elasticsearch
wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -
echo "deb https://artifacts.elastic.co/packages/7.x/apt stable main" | sudo tee -a /etc/apt/sources.list.d/elastic-7.x.list
sudo apt-get update && sudo apt-get install elasticsearch
# 安装Logstash
wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -
echo "deb https://artifacts.elastic.co/packages/7.x/apt stable main" | sudo tee -a /etc/apt/sources.list.d/elastic-7.x.list
sudo apt-get update && sudo apt-get install logstash
# 安装Kibana
wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -
echo "deb https://artifacts.elastic.co/packages/7.x/apt stable main" | sudo tee -a /etc/apt/sources.list.d/elastic-7.x.list
sudo apt-get update && sudo apt-get install kibana
通过以上步骤,可以在CentOS上配置HDFS的日志管理,确保日志的有效收集、存储、轮转和归档,同时保证日志的安全性。