文档

创建Kafka数据源

更新时间:

通过创建Kafka数据源能够实现Dataphin读取Kafka的业务数据或向Kafka写入数据。本文为您介绍如何创建Kafka数据源。

背景信息

Kafka是一种消息队列,用于处理实时数据。Dataphin支持对接Kafka09、Kafka010、Kafka011。如果您使用的是Kafka,在对接Dataphin进行数据开发或将Dataphin的数据导出至Kafka,您需要先完成Kafka数据源的创建。Kafka不同版本的功能介绍,请参见官方文档:

前提条件

目前阿里云Dataphin仅支持公网接入Kafka。

  • 若您的Kafka集群为本地部署方式,请确保您的Kafka集群具备公网访问能力,或者您可以使用阿里云VPN等方式接入阿里云。更多信息,请参见网络方案概述

  • 若您的Kafka集群为阿里云的消息队列Kafka版,请使用实例的公网接入点。更多信息,请参见接入点对比

权限说明

Dataphin仅支持具有新建数据源权限点的自定义角色和超级管理员数据源管理员板块架构师项目管理员角色创建数据源。

操作步骤

  1. 在Dataphin首页,单击顶部菜单栏管理中心

  2. 按照以下操作指引,进入新建数据源对话框。

    依次单击数据源管理->数据源

    image

  3. 新建数据源对话框的消息队列区域,选择Kafka

    如果您最近使用过Kafka,也可以在最近使用区域选择Kafka。同时,您也可以在搜索框中,输入Kafka的关键词,快速筛选。image

  4. 新建Kafka数据源对话框中,配置连接数据源参数。

    1. 配置数据源的基本信息。

      参数

      描述

      数据源名称

      命名规则如下:

      • 只能包含中文、字母、数字、下划线(_)或短划线(-)。

      • 长度不能超过64个字符。

      数据源编码

      配置数据源编码后,您可以在Flink_SQL任务中通过数据源编码.表名称数据源编码.schema.表名称的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table${数据源编码}.schema.table的变量格式访问。更多信息,请参见Flink_SQL任务开发方式

      重要

      数据源编码配置成功后不支持修改。

      数据源描述

      对数据源的简单描述。不超过128个字符。

      数据源配置

      选择需要配置的数据源:

      • 如果业务数据源区分生产数据源和开发数据源,则选择生产+开发数据源

      • 如果业务数据源不区分生产数据源和开发数据源,则选择生产数据源

      标签

      您可根据标签给数据源进行分类打标,如何创建标签,请参见管理数据源标签

    2. 配置数据源与Dataphin的连接参数。

      若您的数据源配置选择生产+开发数据源,则需配置生产+开发数据源的连接信息。如果您的数据源配置为生产数据源,仅需配置生产数据源的连接信息。

      说明

      通常情况下,生产数据源和开发数据源需配置非同一个数据源,以使开发数据源与生产数据源的环境隔离,降低开发数据源对生产数据源的影响。但Dataphin也支持配置成同一个数据源,即相同参数值。

      参数

      描述

      连接地址

      Kafka集群地址。配置格式host:port,如果需要配置多个节点的地址使用英文逗号(,)隔开。

      重要

      目前阿里云Dataphin仅支持公网接入Kafka。更多信息,请参见前提条件

      Dataphin支持对接Kafka09、Kafka010、Kafka011,如何配置不同版本的Kafka集群地址,请参见官方文档:

      认证方式

      支持无认证Kerberos用户名+密码三种认证方式。

      • 无认证:若您的Kafka集群采用无认证方式您可以选择该项。

      • Kerberos:Kerberos是一种基于对称密钥技术的身份认证协议,常用于集群各组件间的认证。开启Kerberos能够提升集群的安全性。如果您选择Kerberos认证,需配置以下参数:

        • krb5文件:上传Kerberos的Krb5配置文件。

        • Keytab File:上传Keytab文件,通过Keytab文件进行用户认证。

        • Principal:输入Kerberos认证的Principal名。例如XXXX/hadoopclient@xxx.xxx。

        • Jaas文件:如您的jaas文件中只包含Krb5文件、Keytab Flle及Principal参数,可选择仅填写Principal。如您的jaas文件中包含除Krb5文件、Keytab File及Principal之外的其他参数,需上传jaas文件。

      • 用户名+密码:用户名+密码认证方式需配置以下参数:

        • 加密方式:可选PLAINSCRAM-SHA-256SCRAM-SHA-512

          说明

          加密方式选择SCRAM-SHA-256、SCRAM-SHA-512时,不支持开启SSL加密,且该数据源仅可用于离线集成

        • 用户名、密码:输入连接Kafka集群的用户名和密码。

      SSL加密

      若您需要通过SSL方式加密Dataphin与Kafka之间的数据传输,您可以开启SSL加密。开启SSL加密需配置以下参数:

      说明

      Kerberos认证方式用户名+密码认证方式的加密方式选择SCRAM-SHA-256SCRAM-SHA-512时,不支持SSL加密。

      • Truststore证书:用于SSL加密的Truststore证书。

      • Truststore证书密码:填写Truststore证书的密码。

      • 主机名端点识别算法: 非必填,使用服务器证书验证服务器主机名的端点识别算法,不填写默认禁用主机名验证。例如,HTTPS。

      • SSL双向认证:即Dataphin和Kafka之间使用SSL进行双向身份验证。常用于需要对通信进行严格控制和验证的应用场景,例如,金融交易或敏感数据的传输。开启SSL双向认证需上传Ketystore证书填写Ketystore证书密码Ketystore私钥密码

      Schema Registry

      Schema Registry为Confluent Kafka所支持功能,若您的Confluent Kafka开启了Schema Registry,请在此选择开启。

  5. 单击测试连接,测试数据源是否可以和Dataphin进行正常的连通。

  6. 测试成功后,单击确定,即可完成Kafka数据源的创建。

  • 本页导读 (0)