文档

新建元表

更新时间:

元表是通过数据管理的跨存储类型表,开发过程中所用到的输入表、输出表、维表可以通过创建元表进行创建和管理。本文为您介绍如何新建元表。

功能优势

元表具有以下优势:

  • 安全可靠:通过元表可以有效避免直接编写原生Flink DDL语句导致的敏感信息透出问题。

  • 提升效率和体验:通过一次建表,可多次引用。您无需重复编写DDL语句,无需进行繁杂的输入、输出、维表映射。简化开发,提升效率和体验。

  • 资产血缘:通过元表可以维护上下游的资产血缘信息。

元表作用

使用元表,您可以实现以下应用场景:

  • 平台化:统一维护所有实时元表和相关schema信息。

  • 资产化:统一配置和管理实时研发过程中的表。

步骤一:新建元表

  1. 在Dataphin首页,单击顶部菜单栏研发。默认进入数据开发页面。

  2. 按照下图操作指引,进入新建表对话框。

    image

  3. 新建表对话框,配置参数。

    参数

    描述

    表类型

    选择元表。

    元表名称

    命名规则如下:

    • 英文字符、数字、下划线(_)。

    • 首字符不能为数字。

    • 不能超过64个字符。

    数据源

    选择目录

    默认选择的是表管理。同时您也可以在表管理页面创建目标文件夹后,选择该目标文件夹为元表的目录。image

    描述

    填写简单的描述,1000字符以内。

  4. 单击确定

步骤二:添加字段

Dataphin元表支持以下三种添加字段方式:

通过SQL导入的方式添加字段

  1. 在实时元表页面,鼠标悬停至添加字段上,选择SQL导入

    image..png

  2. SQL导入对话框中,编写SQL代码:

    image..png

    说明
    • Dataphin 将根据您的数据源类型提示对应的参考示例,您可在窗口中单击参考示例image查看对应代码示例。

    • 完成代码编写后,您可单击格式化image,一键调整您的代码的格式。

    • 若您勾选同时导入with参数中的参数值with的参数中的值将一并导入。

    MySQL数据源代码示例如下:

    create table import_table (
      retailer_code INT comment ''
      ,qty_order VARCHAR comment ''
      ,cig_bar_code INT comment ''
      ,org_code INT comment ''
      ,sale_reg_code INT comment ''
      ,order_date TIMESTAMP comment ''
      ,PRIMARY KEY(retailer_code)
    ) with (
      'connector' = 'mysql'
      ,'url' = 'jdbc'
      ,'table-name' = 'ads'
      ,'username' = 'dataphin'
    );
  3. 单击确定,完成字段的添加。

通过批量导入的方式添加字段

  1. 在实时元表页面,鼠标悬停至添加字段上,选择批量导入image..png

  2. 批量导入对话框中,请根据批量导入格式编写代码:

    • 批量导入格式

    字段名||字段类型||描述||是否主键||是否元数据
    • 示例

      ID||INT||描述||false||false
      name||INT||描述||false||false
  3. 单击确定

通过单行添加的方式添加字段

  1. 在实时元表页面,鼠标悬停至添加字段上,选择单行添加

  2. 单行添加对话框,配置参数。

    参数

    描述

    是否元数据

    默认为否,若选择,则无需填写是否主键及原始字段类型,需要选择Flink SQL字段类型。

    image

    字段名

    输入字段名称。

    是否主键

    请根据业务需求选择该字段是否为主键。

      说明

      若您的数据源为Kafka且Connector为Kafka时,则选择是否消息键。

      若您的数据源为Hbase时,则选择RowKey。

    字段类型和原始字段类型

    • Hbase没有原始字段类型,需要选择Flink SQL字段类型。此外,若该字段不是RowKey则需填写列簇。

      image

    • 若元表的Flink SQL字段类型与原始字段类型为多对一,则需选择Flink SQL字段类型。由Flink SQL字段类型映射出原始字段类型,此时原始字段类型只作展示,无法进行编辑,例如Kafka。

      image

    • 如果此种数据源的Flink SQL字段类型与原始字段类型为一对多,则先选择原始字段类型,选择原始字段类型后允许编辑,可手动添加精度,例如MySQL、Oracle、PostgreSQL、SQLServer、Hive等数据源。

      image

  3. 单击确定,完成字段的添加。

步骤四:配置元表属性

  1. 完成元表创建后,单击右侧属性按钮,可以配置元表基本信息元表参数引用信息和修改调试测试数据表。

    配置项

    参数

    描述

    基本信息

    元表名称

    默认为所创建的元表名称,不支持修改。

    数据源

    默认为所创建的数据源类型。

    数据源参数

    不同计算引擎支持不同数据源,不同数据源所需配置参数不同。更多信息,详情请参见附录:实时数据源配置信息说明

    描述

    请输入对源表的描述,1000字符以内。

    元表参数

    参数名称

    根据数据源类型提供不同的元表参数,您可进行下拉获取该数据源支持的元表参数及其对应的说明,也可进行手动填写。若需新增参数,您可单击添加参数。

    参数个数不超过50个,参数名称只能是数字、大小写字母、下划线、减号、点号、冒号、除号。

    参数值

    参数值根据参数类型提供可选项,无可选项则需手动输入,不支持单引号。例如:参数名称:address,参数值:宁波。

    操作

    您可单击image删除对应参数。

    引用信息

    Flink任务名

    将为您展示引用此元表的Flink任务名称。

    说明

    草稿态任务不计入引用信息。

    调试测试配置

    任务调试时默认读取

    设置任务调试时默认读取的数据表,支持选择生产表和开发表。

    如果选择可读取生产表,调试时可读取对应的生产表数据,存在数据泄漏风险,请谨慎操作。

    若设置了任务调试时默认读取生产表,则需申请个人账号的开发及生产数据源权限。如何申请数据源权限,请参见申请数据源权限

    说明

    Hive表、Paimon表暂不支持调试。

    开发环境测试时读取

    设置任务测试时默认读取的数据表,支持选择生产表和开发表。

    如果选择可读取生产表,测试时可读取对应的生产表数据,存在数据泄漏风险,请谨慎操作。

    若设置了任务测试时默认读取生产表,则需申请个人账号的开发及生产数据源权限。如何申请数据源权限,请参见申请数据源权限

    开发环境测试时写入

    支持选择当前来源表和其他测试表,如果选择其他测试表,则需要选择表。

  2. 单击确定

步骤五:提交或发布元表

按照下图操作指引,提交元表。

image

如果项目的模式为Dev-Prod,则您需要发布元表至生产环境。具体操作,请参见管理发布任务

附录:实时数据源配置信息说明

数据源

配置

描述

MaxCompute

来源表、blinkType

来源表:数据的来源表。

blinkType:支持选择odps或continuous-odps。

  • odps:作为source表为全量读取,可作为sink表。

  • continuous-odps:作为source表为增量读取,不可以作为sink表。

Tablestore、StarRocks、Lindorm(宽表)、Hologres、ClickHouse、AnalyticDB for PostgreSQL、AnalyticDB for MySQL 3.0、Hive、RocketMQ、PolarDB-X(原DRDS)、Aliyun HBase、Paimon

来源表

来源表:数据的来源表。

Log Service、DataHub

来源topic

来源topic:数据的来源topic。

PostgreSQL、MySQL

来源表、读取方式

  • 来源表:数据的来源表。

  • 读取方式:支持选择JDBC读写表或CDC Source表。

    • JDBC读写表:使用JDBC支持表查询,表写入,用于流写,批读写等。

    • CDC Source表:增量流式读取。

Kafka

来源topic、connector 、消息体格式

  • 来源表:数据的来源表。

  • connector :支持选择kafka或upsert-kafka。

  • 消息体格式:支持csv、jsonavro、avro-confluent、debezium-json、canal-json、maxwell-json、ogg-json、raw。

Hudi

来源表、Hudi表类型

  • 来源表:数据的来源表。

  • Hudi表类型 :支持选择MERGE_ON_READ或COPY_ON_WRITE。

    • MERGE_ON_READ:写入更新延迟较低,读取延迟较高。

    • COPY_ON_WRITE:写入更新延迟较高,读取延迟较低。

Elasticsearch

connector、index、typeName

  • connector:支持选择Elasticsearch、Elasticsearch-6、Elasticsearch-7。

    • 作为source表或dim表时,请选择Elasticsearch。

      说明

      只支持阿里云Elasticsearch。

    • 作为sink表时,请选择Elasticsearch-6或Elasticsearch-7。

  • index:请输入或选择来源index。

  • typeName:请输入或选择typeName。

Redis

后续步骤

完成元表创建后,您可基于元表开发实时任务。更多信息,请参见:

  • 本页导读 (0)
文档反馈