本文说明如何创建云原生数据湖分析(Data Lake Analytics)Sink Connector,简称DLA Sink Connector,实现将云消息队列 Kafka 版数据同步至DLA分析计算。
前提条件
- 云原生数据湖分析(DLA)
- 已开通云原生数据湖分析服务。更多信息,请参见开通云原生数据湖分析服务。
- 已创建Spark引擎的虚拟集群。更多信息,请参见创建虚拟集群。
- 如果您使用RAM用户登录,需要授予RAM用户AliyunDLAFullAccess权限。更多信息,请参见为RAM账号授权。
- 如果您使用RAM用户登录,需要将DLA子账号绑定到RAM用户。更多信息,请参见DLA子账号绑定RAM账号。
- 云消息队列 Kafka 版
创建DLA Sink Connector
- 登录云消息队列 Kafka 版控制台。
- 在概览页面的资源分布区域,选择地域。
- 在左侧导航栏,单击Connector 任务列表。
- 在Connector 任务列表页面,从选择实例的下拉列表选择Connector所属的实例,然后单击创建 Connector。
- 在创建 Connector配置向导页面,完成以下操作。
- 如果没有创建湖仓, 跳转至Lakehouse湖仓一体化页面,创建入湖湖仓;如果已经创建湖仓,跳转至新建工作负载页面,在Kafka数据源页签,创建入湖工作负载,并启用工作负载进行数据分析。具体操作,请参见Kafka实时入湖建仓分析。在云消息队列 Kafka 版控制台的Connector 任务列表页面,您也可以查看创建的DLA Sink Connector任务。在操作列,还可以进行以下操作:
- 单击详情,您可以查看DLA Sink Connector任务的配置信息。
- 单击查看任务,跳转至Data Lake Analytics控制台,启用工作负载进行数据分析。
- 单击删除,您可以清理任务。