本文介绍如何通过创建SLS Sink Connector,通过事件总线EventBridge将数据从云消息队列 Kafka 版实例的数据源Topic导出至日志服务SLS。
前提条件
- 云消息队列 Kafka 版
- 为云消息队列 Kafka 版实例开启Connector。更多信息,请参见开启Connector。
- 为云消息队列 Kafka 版实例创建数据源Topic。更多信息,请参见步骤一:创建Topic。
- 事件总线EventBridge
- 开通事件总线EventBridge并授权
- 创建可信实体为阿里云服务的RAM角色并授权。若您需要通过系统策略获取完整的访问权限,创建的RAM角色的权限策略中可使用
AliyunLogFullAccess
系统策略,信任策略管理配置如下所示:{ "Statement": [ { "Action": "sts:AssumeRole", "Effect": "Allow", "Principal": { "Service": [ "eventbridge.aliyuncs.com" ] } } ], "Version": "1" }
说明 如需通过自定义配置对权限进行精细管理,请参见步骤二:为RAM用户授权。
- 日志服务SLS
- 创建日志项目。详细步骤,请参见创建Project。
- 创建日志库。详细步骤,请参见创建Logstore。
背景信息
您可以在云消息队列 Kafka 版控制台创建数据同步任务,将云消息队列 Kafka 版Topic中的数据同步至日志服务的日志库中。该同步任务将依赖阿里云事件总线EventBridge实现,具体为事件总线EventBridge中的事件流。更多信息,请参见事件流概述。注意事项
创建并部署SLS Sink Connector
创建并部署用于将数据从云消息队列 Kafka 版同步至日志服务的SLS Sink Connector。
- 登录云消息队列 Kafka 版控制台,在概览页面的资源分布区域,选择地域。
- 在左侧导航栏,单击Connector 任务列表,从选择实例的下拉列表选择Connector所属的实例,然后单击创建 Sink(导出kafka)。
- 在创建 Connector配置向导页面,完成以下操作。
- 创建完成后,在Connector 任务列表页面,找到创建的Connector ,单击其操作列的部署。任务创建并部署完成后,将会自动在事件总线服务的同账号同区域下创建一个同名事件流任务。
发送测试消息
部署SLS Sink Connector后,您可以向云消息队列 Kafka 版的数据源Topic发送消息,测试数据能否被同步至日志服务。
- 在Connector 任务列表页面,找到目标Connector,在其右侧操作列,单击测试。
- 在发送消息面板,设置以下参数,发送测试消息。
参数 说明 示例值 消息 Key 发送的测试消息的Key值。 demo 消息内容 测试的消息内容。 {"key": "test"} 发送到指定分区 - 是:在分区 ID文本框中输入分区的ID。如果您需查询分区的ID,请参见查看分区状态。
- 否:不指定分区。
否
查看日志
向云消息队列 Kafka 版的数据源Topic发送消息后,在日志服务控制台查看日志,验证是否收到消息。
- 登录日志服务控制台。在Project列表区域,单击目标Project。
- 在日志库页面,单击目标Logstore。
- 单击查询/分析,查看查询分析结果。
查看同步进度
任务部署完成并进入运行中状态后,可在Connector任务列表页面单击目标任务右侧操作列的消费进度,查看当前任务的数据同步状态。