创建Hudi数据源
通过创建Hudi数据源能够实现Dataphin读取Hudi的业务数据或向Hudi写入数据。本文为您介绍如何创建Hudi数据源。
背景信息
Hudi即Apache Hudi,Hudi是一个通用的大数据存储系统,将核心仓库和数据库功能直接引入到数据库中,并支持记录级别的插入更新和删除数据的能力。更多详情请参见Apache Hudi官网。
使用限制
Dataphin仅支持超级管理员、数据源管理员、板块架构师、项目管理员角色创建数据源。
超级管理员、数据源管理员角色添加与配置请参见添加、配置及管理Dataphin成员。
板块架构师配置请参见创建数据板块。
项目管理员配置请参见添加项目成员。
操作步骤
请参见数据源管理入口,进入数据源管理页面。
在数仓规划页面,按照下图指引,进入新建数据源对话框。
在新建数据源对话框的大数据存储区域,选择Hudi。
如果您最近使用过Hudi,也可以在最近使用区域选择Hudi。同时,您也可以在快搜索框中,输入Hudi的关键词,快速筛选。
在新建Hudi数据源对话框中,配置连接数据源参数。
配置数据源的基本信息。
参数
描述
数据源名称
命名规则如下:
只能包含中文、字母、数字、下划线(_)或中划线(-)。
长度不能超过64字符。
数据源描述
对数据源简单的描述。不得超过128个字符。
数据源配置
选择需要配置的数据源:
如果业务数据源区分生产数据源和开发数据源,则选择生产+开发数据源。
如果业务数据源不区分生产数据源和开发数据源,则选择生产数据源。
配置数据源与Datahpin的连接参数。
若您的数据源配置选择生产+开发数据源,则需配置生产+开发数据源的连接信息。如果您的数据源配置为生产数据源,仅需配置生产数据源的连接信息。
说明通常情况下,生产数据源和开发数据源需配置非同一个数据源,以使开发数据源与生产数据源的环境隔离,降低开发数据源对生产数据源的影响。但Dataphin也支持配置成同一个数据源,即相同参数值。
参数
描述
存储配置
支持HDFS或OSS存储。
存储路径
HDFS存储:填写HDFS存储路径,请确保flink用户有访问路径的权限。格式为:
hdfs://host:port/path
。OSS存储:填写OSS存储路径。填写示例:
oss://dp-oss/hudi/
。若使用OSS存储还需填写OSS的Endpoint、AccessKeyID、AccessKeySecret。
Endpoint:若使用阿里云OSS,您可根据OSS的所在地域,选择对应的网络类型进行填写。详情请参见查看公共云下OSS Region和Endpoint对照表。
AccessKeyID、AccessKeySecret:OSS所在账号的AccessKey ID和AccessKey Secret。如何获取,请参见获取AccessKey。
元数据同步
开启后将会同步Hudi表的schema到Hive MetaStore中。
若您使用HDFS存储配置,开启元数据同步后,还需配置以下信息:
版本:支持CDH6:2.1.1、CDP7.1.3:3.1.300。
同步模式:支持hms和jdbc。各同步模式需配置不同参数:
hms:Hive元数据库的thrift地址、同步到Hive的数据库名称。
重要如果选择hms,则hive需开启metastore server。
jdbc:Hive元数据库的jdbc地址、Hive元数据库的用户名、Hive元数据库的密码、同步到Hive的数据库名称。
若您使用OSS存储配置,开启元数据同步后,还需配置以下信息:
同步模式:默认为hms,不支持修改。
元数据目标库:默认为DLF,不支持修改。
DLF服务的地域名:填写DLF服务的地域域名。详情请参见DLF Region和Endpoint对照表。
DLF服务的Endpoint:填写DLF服务的Endpoint地址。详情请参见DLF Region和Endpoint对照表。
同步到Hive的数据库名称:填写同步到Hive的数据库名称。
单击确定,完成Hudi数据源的创建。
重要创建Hudi数据源时不支持测试数据源是否可以和Dataphin进行正常的连通,因此需要您确保连接信息的正确性。您可根据附录:网络连通解决方案自行排查。
后续步骤
完成Hudi数据源的创建后,在使用开源Flink或Ververica Flink计算引擎新建元表时,可引入Hudi数据源进行开发。详情请参见:新建元表。