您好,登录后才能下订单哦!
本篇文章为大家展示了AWS怎么使用CloudWatch Logs收集日志,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
很多时候,我们希望集中收集各服务器日志统一查看、报警。AWS 给我们提供了这种服务,叫 CloudWatch Logs。
我们需要在目标机器安装 CloudWatch Logs Agent 程序,以收集和报告日志。
使用 AWS 服务第一件需要做的事情就是配置权限,这也不例外。有两种方式。
一是给目标实例的 IAM 角色允许这些权限:
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "logs:CreateLogGroup", "logs:CreateLogStream", "logs:PutLogEvents", "logs:DescribeLogStreams" ], "Resource": [ "arn:aws:logs:*:*:*" ] } ] }
二是在下文所述的 awscli.conf
文件里配置允许了这些权限的角色 access-key 和 secret-key。
[default] region = ${REGION} aws_access_key_id = ${ACCESS_KEY} aws_secret_access_key = ${SECRET_KEY}
awslogs 代理程序提供一种自动化的方法将日志数据发送到 CloudWatch Logs。该代理包括以下组件:
一个将日志数据推送到 CloudWatch Logs 的 AWS CLI 插件。
一个运行 CloudWatch Logs aws logs push 命令以将数据发送到 CloudWatch Logs 的脚本(守护程序)。
一个确保该守护程序始终运行的 cron 作业。
如果更喜欢官方文档,请参考 CloudWatch Logs 代理参考。
awscli.conf
配置[plugins] cwlogs = cwlogs [default] region = ${REGION} aws_access_key_id = ${ACCESS_KEY} aws_secret_access_key = ${SECRET_KEY}
awslogs.conf
配置[general] # 状态文件路径 # 该文件用于记录当前日志上传的状态 state_file = <value> # 自定义的 Python Logging Config 格式文件路径 # 可选 logging_config_file = <value> # 启用 GZIP 压缩 use_gzip_http_content_encoding = [true | false] [logstream1] # 日志组名称 log_group_name = <value> # 日志流名称 # 可用的预定义变量:{instance_id} {hostname} {ip_address} log_stream_name = <value> # 时间格式,日志的记录时间以该时间为准 # 如果无法匹配目标事件则以最近一次成功为准,没有最近一次成功则使用当前时间 datetime_format = <value> # 如果不能从时间格式获取时区,则指定时区 time_zone = [LOCAL|UTC] # 待收集的日志源 file = <value> # 以前几行计算识别码 file_fingerprint_lines = <integer> | <integer-integer> # 日志行的匹配模式,匹配该模式则认为上一条日志已结束 # 指定为 {datetime_format} 则以时间格式来匹配 # 默认为 ^[^\s] 即行开头非空则认为是新的日志 multi_line_start_pattern = <regex> | {datetime_format} # 当日志源没有被记录的收集状态时,从何处开始 initial_position = [start_of_file|end_of_file] # 文件编码 encoding = [ascii|utf_8|..] # 批量处理的时间段(单位:ms) buffer_duration = <integer> # 批量处理的最大条目 batch_count = <integer> # 批量处理的最大大小(单位:字节) batch_size = <integer> [logstream2] ...
下面列出了常见 datetime_format 代码。您也可以使用 Python datetime.strptime() 支持的所有 datetime_format 代码。时区偏移量 (%z) 也受支持,[+-]HHMM,不带冒号 (:)。
%y:年份,以零填充的十进制数字表示,不包括代表世纪的数字。00, 01, ..., 99
%Y:年份,以十进制数字形式表示且包括表示世纪的数字。如 1970、1988、2001、2013
%b:月份,使用区域设置的缩写名称形式。Jan、Feb...Dec (en_US);
%B:月份,使用区域设置的完整名称形式。January,February...December (en_US);
%m:月份,使用以零填充的十进制数字形式。01, 02, ..., 12
%d:月份中的日期,使用以零填充的十进制数字形式。01, 02, ..., 31
%H:小时(24 小时制),使用以零填充的十进制数字形式。00, 01, ..., 23
%I:小时(12 小时制),使用以零填充的十进制数字形式。01, 02, ..., 12
%p:区域设置中等效于 AM 或 PM 的表示形式。
%M:分钟,使用以零填充的十进制数字形式。00, 01, ..., 59
%S:秒,使用以零填充的十进制数字形式。00, 01, ..., 59
%f:微秒,在左边使用以零填充的十进制数字形式。000000, ..., 999999
%z:使用 +HHMM 或 -HHMM 形式的 UTC 偏移量。+0000, -0400, +1030
比如可配置为:
[general] state_file = /var/lib/awslogs/agent-state use_gzip_http_content_encoding = true [app] log_group_name = /aws/ec2/app log_stream_name = staging-{hostname} datetime_format = %Y-%m-%d %H:%M:%S multi_line_start_pattern = {datetime_format} time_zone = UTC encoding = utf_8 buffer_duration = 5000 file = /app/logs/app-*.log initial_position = start_of_file
Amazon Linux 自带 awslogs 源。
function install_awslogs() { yum install -q -y awslogs && chkconfig awslogs on service awslogs start } service awslogs status || (service awslogs start || install_awslogs)
代理程序的配置默认在 /etc/awslogs/
,可能有以下几个文件:
awscli.conf
基本配置
awslogs.conf
日志配置(必须)
proxy.conf
网络代理配置
注意,在其他 Linux 上 awslogs 的安装方式和配置路径与此不同。
REGION=$(curl -s http://169.254.169.254/latest/dynamic/instance-identity/document | grep region | awk -F\\\" '{print $4}') function install_awslogs() { curl https://s3.amazonaws.com/aws-cloudwatch/downloads/latest/awslogs-agent-setup.py -O python ./awslogs-agent-setup.py --region ${REGION} -c s3://bucket/config-file-key } service awslogs status || (service awslogs start || install_awslogs)
获取地区值时我们使用了实例的动态数据。具体请参考 检索动态数据 和 检索实例元数据。
当然,在非 Amazon Linux 上通过“用户数据”做启动脚本,需要确认目标 AMI 装有 cloud-init,如果需要使用 aws-cli 也需要确认。
通过 service awslogs status
检查代理程序是否在运行。如果出现异常,代理程序的日志保存在文件 /var/log/awslogs.log
,检查该文件以获知是否存在错误。
你也可以通过 service awslogs start
启动、service awslogs restart
重启、service awslogs stop
停止。在修改配置文件后记得重启服务。
可以在 AWS 控制台设置日志组的事件过期时间。
通过添加指标,可以监控符合给定模式的日志数,如提供筛选模式 "[WARN]"
得到警告级别的日志。具体请参考 筛选器和模式语法。
使用订阅机制实时处理日志数据
批量导出日志数据到 S3
上述内容就是AWS怎么使用CloudWatch Logs收集日志,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注亿速云行业资讯频道。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。