文档

创建Kafka数据源

更新时间:

通过创建Kafka数据源能够实现Dataphin读取Kafka的业务数据或向Kafka写入数据。本文为您介绍如何创建Kafka数据源。

背景信息

Kafka是一种消息队列,用于处理实时数据。Dataphin支持对接Kafka09、Kafka010、Kafka011。如果您使用的是Kafka,在对接Dataphin进行数据开发或将Dataphin的数据导出至Kafka,您需要先完成Kafka数据源的创建。Kafka不同版本的功能介绍,请参见官方文档:

权限说明

Dataphin仅支持超级管理员数据源管理员板块架构师项目管理员角色创建数据源。

操作步骤

  1. 在Dataphin首页,单击顶部菜单栏管理中心

  2. 按照下图操作指引,进入新建数据源对话框。image..png

  3. 新建数据源对话框的消息队列区域,选择Kafka

    如果您最近使用过Kafka,也可以在最近使用区域选择Kafka。同时,您也可以在搜索框中,输入Kafka的关键词,快速筛选。image..png

  4. 新建Kafka数据源对话框中,配置连接数据源参数。

    1. 配置数据源的基本信息。

      参数

      描述

      数据源名称

      命名规则如下:

      • 只能包含中文、字母、数字、下划线(_)或中划线(-)。

      • 长度不能超过64字符。

      数据源描述

      对数据源的简单描述。不得超过128个字符。

      数据源配置

      选择需要配置的数据源:

      • 如果业务数据源区分生产数据源和开发数据源,则选择生产+开发数据源

      • 如果业务数据源不区分生产数据源和开发数据源,则选择生产数据源

      标签

      您可根据标签给数据源进行分类打标,如何创建标签,请参见数据源管理标签

    2. 配置数据源与Dataphin的连接参数。

      若您的数据源配置选择生产+开发数据源,则需配置生产+开发数据源的连接信息。如果您的数据源配置为生产数据源,仅需配置生产数据源的连接信息。

      说明

      通常情况下,生产数据源和开发数据源需配置非同一个数据源,以使开发数据源与生产数据源的环境隔离,降低开发数据源对生产数据源的影响。但Dataphin也支持配置成同一个数据源,即相同参数值。

      参数

      描述

      连接地址

      Kafka集群地址。配置格式host:port,如果需要配置多个节点的地址使用英文逗号(,)隔开。

      Dataphin支持对接Kafka09、Kafka010、Kafka011,如何配置不同版本的Kafka集群地址,请参见官方文档:

      认证方式

      支持无认证Kerberos用户名+密码三种认证方式。

      • 无认证:若您的Kafka集群采用无认证方式您可以选择该项。

      • Kerberos:Kerberos是一种基于对称密钥技术的身份认证协议,常用于集群各组件间的认证。开启Kerberos能够提升集群的安全性。如果您选择Kerberos认证,需配置以下参数:

        • krb5文件:上传Kerberos的Krb5配置文件。

        • Keytab File:上传Keytab文件,通过Keytab文件进行用户认证。

        • Principal:输入Kerberos认证的Principal名。例如XXXX/hadoopclient@xxx.xxx。

        • Jaas文件:如您的jaas文件中只包含Krb5文件、Keytab Flle及Principal参数,可选择仅填写Principal。如您的jaas文件中包含除Krb5文件、Keytab File及Principal之外的其他参数,需上传jaas文件。

      • 用户名+密码:用户名+密码认证方式需配置以下参数:

        • 加密方式:可选PLAINSCRAM-SHA-256SCRAM-SHA-512

          说明

          加密方式选择SCRAM-SHA-256、SCRAM-SHA-512时,不支持开启SSL加密,且该数据源仅可用于离线集成

        • 用户名、密码:输入连接Kafka集群的用户名和密码。

      SSL加密

      若您需要通过SSL方式加密Dataphin与Kafka之间的数据传输,您可以开启SSL加密。开启SSL加密需要上传Truststore证书及输入Truststore证书密码

      Schema Registry

      Schema Registry为Confluent Kafka所支持功能,若您的Confluent Kafka开启了Schema Registry,请在此选择开启。

      重要

      创建Kafka数据源时不支持测试数据源是否可以和Dataphin进行正常的连通,因此需要您确保连接信息的正确性。

  5. 单击测试连接,测试数据源是否可以和Dataphin进行正常的连通。

  6. 测试成功后,单击确定,完成Kafka数据源的创建。

后续步骤

完成Kafka数据源的创建后,即可将Kafka的业务数据引入至Dataphin,或将Dataphin的数据写入至Kafka。详情请参见数据集成概述

  • 本页导读 (0)
文档反馈