Prometheus 告警

github alertmanager 文档
Prometheus Alerting rules
Prometheus alerting configuration

前几篇文章讲了Prometheus的监控,这一篇文章,讲通过监控指标触发告警

常用的告警方式有发邮件、调用指定接口(webhook) 等。本文讲解webhook方式,完成这个示例需要准备4个组件:prometheus、node_exporter、alertmanagers、接受webhook调用的web服务

1

首先准备一个rule_file,机器的近1分钟负载超过0.8,就触发告警。如下:
my_rules.yml:

groups: # 一组告警规则
- name: cpu_gt30 # 这个组的名称
  rules:  # 下面可以写多条规则
  - alert: cpu_usage_high  # 告警名称
    expr: node_load1 > 0.8  # PromQL 表达式(计算规则)
    for: 1m # 持续超标1分钟才触发
    labels:
      severity: warning # 告警级别,可选字段为warning、critical和emergency
    annotations: # 告警的描述信息
      summary: "{{$labels.instance}}: 节点CPU使用率过高"
      description: "{{$labels.instance}}: CPU使用率超过 80% (当前: {{ $value }}"

上面配置中expr和for是比较重要的。prometheus每隔一段时间就会计算一下expr是否满足触发条件。
如果expr计算结果不满足,这条告警就是inactive状态:


如果计算结果满足这条规则就变成了pending状态:


如果连续1分钟(for配置的值)expr都满足,就会触发告警,变成firing状态


2

修改alertmanager配置文件:
alertmanager.yml

route:
  group_by: ['alertname']  # 根据alertname标签进行分组,具有相同标签的告警将被视为一组,聚合成一条发送。alertname标签 对应rule文件里的 alert: cpu_usage_high
  group_wait: 30s # 告警分组的时间窗口,如果第一个告警触发后,30秒内又触发了具有相同alertname的告警,它们将被合并为一个告警组
  group_interval: 5m # 告警组的刷新间隔。每5分钟,Alertmanager 会重新评估告警组,并将新的告警添加到现有的组中
  repeat_interval: 1h # 告警的重复间隔。如果一个告警已经被发送,那么在告警状态没有变化的情况下,它会每隔1小时再次发送
  receiver: 'web.hook'
receivers:
  - name: 'web.hook'
    webhook_configs:
      - url: 'http://192.168.254.1:5000/alert'

启动alertmanager ./alertmanager --config.file=./alertmanager.yml

3

修改prometheus配置文件为如下内容
prometheus.yml:

global:
  ... # 省略一些与本节内容无关的配置
  evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.

# Alertmanager configuration
alerting:
  alertmanagers:
    - static_configs:
        - targets:
          - 192.168.243.99:9093

# Load rules once and periodically evaluate them according to the global 'evaluation_interval'.
rule_files:
  - "/my_rules.yml"

使用上述配置文件启动prometheus

4

起一个web服务,接受webhook调用:

from fastapi import FastAPI, Request
import uvicorn

app = FastAPI(debug=False)

@app.post("/alert")
async def print_args(request: Request):
    body = await request.json()
    print(body)

    return {}

if __name__ == '__main__':
    uvicorn.run(app, host="0.0.0.0", port=5000)

运行python脚本使CPU飙高:

import math
import time

def cpu_intensive_task():
    while True:
        for i in range(1000000):
            math.sqrt(i)

try:
    cpu_intensive_task()
except KeyboardInterrupt:
    print("exited")

然后静待告警触发,你会看到上面3个告警状态的变化,web服务收到的请求参数为:

{'receiver': 'web.hook',
     'status': 'firing',
     'alerts': [{'status': 'firing',
                 'labels': {'alertname': 'cpu_usage_high',
                            'instance': '192.168.243.99:9100',
                            'job': 'node_exporter',
                            'severity': 'warning'},
                 'annotations': {
                     'description': '192.168.243.99:9100: CPU使用率超过 80% (当前: 0.97',
                     'summary': '192.168.243.99:9100: 节点CPU使用率过高'},
                 'startsAt': '2024-10-22T14:02:11.03Z',
                 'endsAt': '0001-01-01T00:00:00Z',
                 'generatorURL': 'http://f2f05a8126f0:9090/graph?g0.expr=node_load1+%3E+0.8&g0.tab=1',
                 'fingerprint': 'd3155240a05e4626'}],
     'groupLabels': {'alertname': 'cpu_usage_high'},
     'commonLabels': {'alertname': 'cpu_usage_high',
                      'instance': '192.168.243.99:9100',
                      'job': 'node_exporter',
                      'severity': 'warning'},
     'commonAnnotations': {'description': '192.168.243.99:9100: CPU使用率超过 80% (当前: 0.97',
                           'summary': '192.168.243.99:9100: 节点CPU使用率过高'},
     'externalURL': 'http://master:9093',
     'version': '4',
     'groupKey': '{}:{alertname="cpu_usage_high"}',
     'truncatedAlerts': 0}

等待告警解除后,又会收到一个 告警已解决的通知

{'receiver': 'web.hook', 'status': 'resolved', ...} # 其余部分更上面差不多,就不粘贴出来了
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,392评论 5 470
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,258评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,417评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,992评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,930评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,199评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,652评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,327评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,463评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,382评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,432评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,118评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,704评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,787评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,999评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,476评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,057评论 2 341

推荐阅读更多精彩内容