通过创建Kafka数据源能够实现Dataphin读取Kafka的业务数据或向Kafka写入数据。本文为您介绍如何创建Kafka数据源。
前提条件
目前阿里云Dataphin仅支持公网接入Kafka。
背景信息
Kafka是一种消息队列,用于处理实时数据。Dataphin支持对接Kafka09、Kafka010、Kafka011。如果您使用的是Kafka,在对接Dataphin进行数据开发或将Dataphin的数据导出至Kafka,您需要先完成Kafka数据源的创建。Kafka不同版本的功能介绍,请参见官方文档:
权限说明
Dataphin仅支持具有新建数据源权限点的自定义角色和超级管理员、数据源管理员、板块架构师、项目管理员角色创建数据源。
操作步骤
在Dataphin首页的顶部菜单栏中,选择管理中心 > 数据源管理。
在数据源页面,单击+新建数据源。
在新建数据源对话框的消息队列区域,选择Kafka。
如果您最近使用过Kafka,也可以在最近使用区域选择Kafka。同时,您也可以在搜索框中,输入Kafka的关键词,快速筛选。
在新建Kafka数据源对话框中,配置连接数据源参数。
配置数据源的基本信息。
参数
描述
数据源名称
命名规则如下:
只能包含中文、英文字母大小写、数字、下划线(_)或短划线(-)。
长度不能超过64个字符。
数据源编码
配置数据源编码后,您可以在Flink_SQL任务中通过
数据源编码.表名称
或数据源编码.schema.表名称
的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table
或${数据源编码}.schema.table
的变量格式访问。更多信息,请参见Flink_SQL任务开发方式。重要数据源编码配置成功后不支持修改。
数据源描述
对数据源的简单描述。不超过128个字符。
数据源配置
选择需要配置的数据源:
如果业务数据源区分生产数据源和开发数据源,则选择生产+开发数据源。
如果业务数据源不区分生产数据源和开发数据源,则选择生产数据源。
标签
您可根据标签给数据源进行分类打标,如何创建标签,请参见管理数据源标签。
配置数据源与Dataphin的连接参数。
若您的数据源配置选择生产+开发数据源,则需配置生产+开发数据源的连接信息。如果您的数据源配置为生产数据源,仅需配置生产数据源的连接信息。
说明通常情况下,生产数据源和开发数据源需配置为非同一个数据源,以实现开发数据源与生产数据源的环境隔离,降低开发数据源对生产数据源的影响。但Dataphin也支持配置成同一个数据源,即相同参数值。
参数
描述
连接地址
Kafka集群地址。配置格式
host:port
,如果需要配置多个节点的地址使用英文逗号(,)隔开。重要目前阿里云Dataphin仅支持公网接入Kafka。更多信息,请参见前提条件。
Dataphin支持对接Kafka09、Kafka010、Kafka011,如何配置不同版本的Kafka集群地址,请参见官方文档:
认证方式
支持无认证、Kerberos、用户名+密码三种认证方式。
无认证:若您的Kafka集群采用无认证方式您可以选择该项。
Kerberos:Kerberos是一种基于对称密钥技术的身份认证协议,常用于集群各组件间的认证。开启Kerberos能够提升集群的安全性。如果您选择Kerberos认证,需配置以下参数:
krb5文件:上传Kerberos的Krb5配置文件。
Keytab File:上传Keytab文件,通过Keytab文件进行用户认证。
Principal:输入Kerberos认证的Principal名。例如XXXX/hadoopclient@xxx.xxx。
Jaas文件:如您的jaas文件中只包含Krb5文件、Keytab Flle及Principal参数,可选择仅填写Principal。如您的jaas文件中包含除Krb5文件、Keytab File及Principal之外的其他参数,需上传jaas文件。
用户名+密码:用户名+密码认证方式需配置以下参数:
加密方式:可选PLAIN、SCRAM-SHA-256、SCRAM-SHA-512。
说明加密方式选择SCRAM-SHA-256、SCRAM-SHA-512时,不支持开启SSL加密,且该数据源仅可用于离线集成。
用户名、密码:输入连接Kafka集群的用户名和密码。
SSL加密
若您需要通过SSL方式加密Dataphin与Kafka之间的数据传输,您可以开启SSL加密。开启SSL加密需配置以下参数:
说明Kerberos认证方式及用户名+密码认证方式的加密方式选择SCRAM-SHA-256、SCRAM-SHA-512时,不支持SSL加密。
Truststore证书:用于SSL加密的Truststore证书。
Truststore证书密码:填写Truststore证书的密码。
主机名端点识别算法:非必填,使用服务器证书验证服务器主机名的端点识别算法,不填写默认禁用主机名验证。例如,HTTPS。
SSL双向认证:即Dataphin和Kafka之间使用SSL进行双向身份验证。常用于需要对通信进行严格控制和验证的应用场景,例如,金融交易或敏感数据的传输。开启SSL双向认证需上传Keystore证书及填写Keystore证书密码和Keystore私钥密码。
Schema Registry
Schema Registry为Confluent Kafka所支持功能,若您的Confluent Kafka开启了Schema Registry,请在此选择开启。
单击测试连接,测试数据源是否可以和Dataphin进行正常的连通。
完成数据源的上述信息配置后,您可以单击操作列的测试连接针对公共调度集群或已经在Dataphin注册且正常使用的自定义集群进行连接测试。公共调度集群为系统默认选中,不支持取消选中。自定义集群下不存在资源组时,不支持进行连接测试,需先创建资源组后再进行测试连接。
所选集群只用于测试与当前数据源的网络连通,不用于后续相关任务的运行。
测试连接时长通常在2分钟内,若超时,您可以单击图标查看具体原因并重试。
无论测试结果为连接失败、连接成功或成功有风险,系统都将为您记录最终结果的生成时间。
测试结果为连接失败时,您可以单击图标查看具体失败原因。
测试结果为成功有风险时,代表应用集群连接成功、调度集群连接失败,当前数据源无法用于数据开发和集成。您可以单击图标查看日志信息。
说明仅公共调度集群的测试结果包含成功有风险、连接成功、连接失败三种连接状态;在Dataphin注册的自定义集群的测试结果仅包含连接成功、连接失败两种连接状态。
请确保至少存在一个集群可以与数据源连通,否则不支持保存数据源信息。
重要如果连接测试失败,您可以根据网络连通常见问题进行排查。详细内容,请参见网络连通解决方案。
测试成功后,单击确定,即可完成Kafka数据源的创建。