当您需要将某Prometheus实例的监控数据导出,进行自定义业务处理时,可以使用Prometheus数据投递功能,将Prometheus实例数据投递至云消息队列Kafka版或云原生大数据计算服务(MaxCompute)处理。您可以根据业务需求,选择相应的投递目标。本文介绍如何创建数据投递任务。
前提条件
已接入Prometheus实例,具体操作,请参见:
已开通事件总线EventBridge服务,并登录EventBridge控制台对需要的投递目标类型授权。具体操作,请参见开通事件总线EventBridge并授权。
已创建投递目标相关资源,例如云消息队列Kafka版或云原生大数据计算服务(MaxCompute)。投递目标不同,需要创建的资源也不同。具体操作,请参见云消息队列Kafka版快速入门或将Prometheus数据投递至大数据计算服务MaxCompute。
操作步骤
在左侧导航栏,单击数据投递。
在数据投递页面,单击顶部菜单栏选择目标地域,然后单击新建任务。
在对话框中输入任务名称和任务描述后,单击确定。
在任务编辑页面,配置数据源和投递目标。
单击+ 添加数据源,配置以下参数,然后单击确定。
配置项
说明
示例
Prometheus实例
被投递的Prometheus数据源。
c78cb8273c02*****
数据过滤
根据白名单或黑名单模式填入需要过滤的指标,通过Label筛选投递数据。
支持正则表达式,多个条件换行,多个条件为且(&&)的关系。
__name__=rpc.* job=apiserver instance=192.*
攒批设置
指数据量超过多大投递一次数据或者超过多久投递一次数据。设置为空时使用默认值,推荐使用默认值。
100 MB
单击添加目标,根据投递类型配置投递目标,重试区域建议使用默认配置。
目标类型选择阿里云消息队列Kafka版时,请参见将Prometheus数据投递至Kafka。
目标类型选择云原生大数据计算服务 MaxCompute时,请参见将Prometheus数据投递至大数据计算服务MaxCompute。
目标类型选择Prometheus Remote Write时。请参见将Prometheus数据投递至云上或自建Prometheus实例。
配置完成后,在任务编辑页面,单击确定,然后单击保存创建投递任务。
新创建的投递任务为未启动状态,在任务详情页面,单击右上角的开启,即可开始投递任务。投递任务启动后,数据经过2~5分钟的延迟即可到达投递目标。
数据示例
为使Prometheus监控数据适用于其他阿里云产品,数据投递功能会将传统指标数据转化为JSON格式的数据。
Prometheus监控数据:
http_requests_total{method="POST", handler="/api/tracks"} 1027 1609459200000
转化为JSON格式数据:
{ "__name__": "http_requests_total", "method": "POST", "handler": "/api/tracks", "value": 1027, "timestamp": 1609459200000 }
- 本页导读 (1)