通过创建Hudi数据源能够实现Dataphin读取Hudi的业务数据或向Hudi写入数据。本文为您介绍如何创建Hudi数据源。
背景信息
Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多详情请参见Apache Hudi官网。
权限说明
仅支持具备新建数据源权限点的自定义全局角色和超级管理员、数据源管理员、板块架构师、项目管理员角色创建数据源。
操作步骤
在Dataphin首页,单击顶部菜单栏管理中心 > 数据源管理。
在数据源页面,单击+新建数据源。
在新建数据源对话框的大数据存储区域,选择Hudi。
如果您最近使用过Hudi,也可以在最近使用区域选择Hudi。同时,您也可以在搜索框中,输入Hudi的关键词,快速搜索。
在新建Hudi数据源对话框中,配置连接数据源参数。
配置数据源的基本信息。
参数
描述
数据源名称
命名规则如下:
只能包含中文、英文字母大小写、数字、下划线(_)或短划线(-)。
长度不能超过64字符。
数据源编码
配置数据源编码后,您可以在Flink_SQL任务中通过
数据源编码.表名称
或数据源编码.schema.表名称
的格式引用数据源中的表;如果需要根据所处环境自动访问对应环境的数据源,请通过${数据源编码}.table
或${数据源编码}.schema.table
的变量格式访问。更多信息,请参见Flink_SQL任务开发方式。重要目前仅支持MySQL、Hologres、MaxCompute数据源。
数据源编码配置成功后不支持修改。
数据源描述
对数据源简单的描述。不得超过128个字符。
数据源配置
选择需要配置的数据源:
如果业务数据源区分生产数据源和开发数据源,则选择生产+开发数据源。
如果业务数据源不区分生产数据源和开发数据源,则选择生产数据源。
配置数据源与Datahpin的连接参数。
若您的数据源配置选择生产+开发数据源,则需配置生产+开发数据源的连接信息。如果您的数据源配置为生产数据源,仅需配置生产数据源的连接信息。
说明通常情况下,生产数据源和开发数据源需配置非同一个数据源,以使开发数据源与生产数据源的环境隔离,降低开发数据源对生产数据源的影响。但Dataphin也支持配置成同一个数据源,即相同参数值。
参数
描述
存储配置
支持HDFS或OSS存储。
存储路径
HDFS存储:填写HDFS存储路径,请确保flink用户有访问路径的权限。格式为:
hdfs://host:port/path
。OSS存储:填写OSS存储路径。填写示例:
oss://dp-oss/hudi/
。若使用OSS存储还需填写OSS的Endpoint、AccessKeyID、AccessKeySecret。
Endpoint:若使用阿里云OSS,您可根据OSS的所在地域,选择对应的网络类型进行填写。详情请参见查看公共云下OSS Region和Endpoint对照表。
AccessKeyID、AccessKeySecret:OSS所在账号的AccessKey ID和AccessKey Secret。如何获取,请参见获取AccessKey。
元数据同步
开启后将会同步Hudi表的schema到Hive MetaStore中。
若您使用HDFS存储配置,开启元数据同步后,还需配置以下信息:
版本:支持CDH6:2.1.1、CDP7.1.3:3.1.300。
同步模式:支持hms和jdbc。各同步模式需配置不同参数:
hms:Hive元数据库的thrift地址、同步到Hive的数据库名称。
重要如果选择hms,则hive需开启metastore server。
jdbc:Hive元数据库的jdbc地址、Hive元数据库的用户名、Hive元数据库的密码、同步到Hive的数据库名称。
若您使用OSS存储配置,开启元数据同步后,还需配置以下信息:
同步模式:默认为hms,不支持修改。
元数据目标库:默认为DLF,不支持修改。
DLF服务的地域名:填写DLF服务的地域域名。详情请参见DLF Region和Endpoint对照表。
DLF服务的Endpoint:填写DLF服务的Endpoint地址。详情请参见DLF Region和Endpoint对照表。
同步到Hive的数据库名称:填写同步到Hive的数据库名称。
单击确定,完成Hudi数据源的创建。
重要创建Hudi数据源时不支持测试数据源是否可以和Dataphin进行正常的连通,因此需要您确保连接信息的正确性。您可根据网络连通解决方案自行排查。