AWS 使用 CloudWatch Logs 收集日志

AWS

很多时候,我们希望集中收集各服务器日志统一查看、报警。AWS 给我们提供了这种服务,叫 CloudWatch Logs。

我们需要在目标机器安装 CloudWatch Logs Agent 程序,以收集和报告日志。

角色

使用 AWS 服务第一件需要做的事情就是配置权限,这也不例外。有两种方式。

一是给目标实例的 IAM 角色允许这些权限:

{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "logs:CreateLogGroup",
                "logs:CreateLogStream",
                "logs:PutLogEvents",
                "logs:DescribeLogStreams"
            ],
            "Resource": [
                "arn:aws:logs:*:*:*"
            ]
        }
    ]
}

二是在下文所述的 awscli.conf 文件里配置允许了这些权限的角色 access-key 和 secret-key。

[default]
region = ${REGION}
aws_access_key_id = ${ACCESS_KEY}
aws_secret_access_key = ${SECRET_KEY}

代理程序

awslogs 代理程序提供一种自动化的方法将日志数据发送到 CloudWatch Logs。该代理包括以下组件:

  1. 一个将日志数据推送到 CloudWatch Logs 的 AWS CLI 插件。
  2. 一个运行 CloudWatch Logs aws logs push 命令以将数据发送到 CloudWatch Logs 的脚本(守护程序)。
  3. 一个确保该守护程序始终运行的 cron 作业。

如果更喜欢官方文档,请参考 CloudWatch Logs 代理参考

awscli.conf 配置

[plugins]
cwlogs = cwlogs

[default]
region = ${REGION}
aws_access_key_id = ${ACCESS_KEY}
aws_secret_access_key = ${SECRET_KEY}

awslogs.conf 配置

[general]
# 状态文件路径
# 该文件用于记录当前日志上传的状态
state_file = <value>
# 自定义的 Python Logging Config 格式文件路径
# 可选
logging_config_file = <value>
# 启用 GZIP 压缩
use_gzip_http_content_encoding = [true | false]

[logstream1]
# 日志组名称
log_group_name = <value>
# 日志流名称
# 可用的预定义变量:{instance_id} {hostname} {ip_address}
log_stream_name = <value>
# 时间格式,日志的记录时间以该时间为准
# 如果无法匹配目标事件则以最近一次成功为准,没有最近一次成功则使用当前时间
datetime_format = <value>
# 如果不能从时间格式获取时区,则指定时区
time_zone = [LOCAL|UTC]
# 待收集的日志源
file = <value>
# 以前几行计算识别码
file_fingerprint_lines = <integer> | <integer-integer>
# 日志行的匹配模式,匹配该模式则认为上一条日志已结束
# 指定为 {datetime_format} 则以时间格式来匹配
# 默认为 ^[^\s] 即行开头非空则认为是新的日志
multi_line_start_pattern = <regex> | {datetime_format}
# 当日志源没有被记录的收集状态时,从何处开始
initial_position = [start_of_file|end_of_file]
# 文件编码
encoding = [ascii|utf_8|..]
# 批量处理的时间段(单位:ms)
buffer_duration = <integer>
# 批量处理的最大条目
batch_count = <integer>
# 批量处理的最大大小(单位:字节)
batch_size = <integer>

[logstream2]
...
时间格式

下面列出了常见 datetime_format 代码。您也可以使用 Python datetime.strptime() 支持的所有 datetime_format 代码。时区偏移量 (%z) 也受支持,[+-]HHMM,不带冒号 (:)。

%y:年份,以零填充的十进制数字表示,不包括代表世纪的数字。00, 01, ..., 99

%Y:年份,以十进制数字形式表示且包括表示世纪的数字。如 1970、1988、2001、2013

%b:月份,使用区域设置的缩写名称形式。Jan、Feb...Dec (en_US);

%B:月份,使用区域设置的完整名称形式。January,February...December (en_US);

%m:月份,使用以零填充的十进制数字形式。01, 02, ..., 12

%d:月份中的日期,使用以零填充的十进制数字形式。01, 02, ..., 31

%H:小时(24 小时制),使用以零填充的十进制数字形式。00, 01, ..., 23

%I:小时(12 小时制),使用以零填充的十进制数字形式。01, 02, ..., 12

%p:区域设置中等效于 AM 或 PM 的表示形式。

%M:分钟,使用以零填充的十进制数字形式。00, 01, ..., 59

%S:秒,使用以零填充的十进制数字形式。00, 01, ..., 59

%f:微秒,在左边使用以零填充的十进制数字形式。000000, ..., 999999

%z:使用 +HHMM 或 -HHMM 形式的 UTC 偏移量。+0000, -0400, +1030

样例

比如可配置为:

[general]
state_file = /var/lib/awslogs/agent-state
use_gzip_http_content_encoding = true

[app]
log_group_name = /aws/ec2/app
log_stream_name = staging-{hostname}
datetime_format = %Y-%m-%d %H:%M:%S
multi_line_start_pattern = {datetime_format}
time_zone = UTC
encoding = utf_8
buffer_duration = 5000
file = /app/logs/app-*.log
initial_position = start_of_file

Amazon Linux

Amazon Linux 自带 awslogs 源。

function install_awslogs() {
    yum install -q -y awslogs && chkconfig awslogs on
    service awslogs start
}

service awslogs status || (service awslogs start || install_awslogs)

代理程序的配置默认在 /etc/awslogs/,可能有以下几个文件:

  • awscli.conf 基本配置
  • awslogs.conf 日志配置(必须)
  • proxy.conf 网络代理配置

注意,在其他 Linux 上 awslogs 的安装方式和配置路径与此不同。

Ubuntu Server、CentOS、Red Hat

REGION=$(curl -s http://169.254.169.254/latest/dynamic/instance-identity/document | grep region | awk -F\\\" '{print $4}')

function install_awslogs() {
    curl https://s3.amazonaws.com/aws-cloudwatch/downloads/latest/awslogs-agent-setup.py -O
    python ./awslogs-agent-setup.py --region ${REGION} -c s3://bucket/config-file-key
}
service awslogs status || (service awslogs start || install_awslogs)

获取地区值时我们使用了实例的动态数据。具体请参考 检索动态数据检索实例元数据

当然,在非 Amazon Linux 上通过“用户数据”做启动脚本,需要确认目标 AMI 装有 cloud-init,如果需要使用 aws-cli 也需要确认。

问题排查

通过 service awslogs status 检查代理程序是否在运行。如果出现异常,代理程序的日志保存在文件 /var/log/awslogs.log,检查该文件以获知是否存在错误。

你也可以通过 service awslogs start 启动、service awslogs restart 重启、service awslogs stop 停止。在修改配置文件后记得重启服务。

日志过期时间

可以在 AWS 控制台设置日志组的事件过期时间。

日志筛选指标

通过添加指标,可以监控符合给定模式的日志数,如提供筛选模式 "[WARN]" 得到警告级别的日志。具体请参考 筛选器和模式语法

日志处理

使用订阅机制实时处理日志数据

批量导出日志数据到 S3

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容