湖仓开发工具集成

更新时间:
复制为 MD 格式

AnalyticDB for MySQL支持Spark和兼容MySQL协议的XIHE两种计算引擎,在进行数据湖开发时,您可以将其与DataWorks、DMS等在线开发工具(IDE)集成,实现在线编写、调试SQL/Python代码,并将开发完成的工作流发布至调度系统,实现开发到生产的无缝衔接。

作业开发与调度

计算引擎

集成工具

使用方式

相关文档

Spark引擎(PySpark)

DataWorks

  1. 创建Job型资源组。

  2. 使用DataWorks Notebook开发Python/SQL工作流。

  3. Notebook发布至DataWorks进行调度。

基于DataWorks+AnalyticDB Spark构建湖仓分析

DMS

  1. 创建Job型资源组。

  2. 使用DMS Notebook开发Python/SQL工作流。

  3. Notebook发布至DMS Airflow进行调度。

Spark引擎(SparkSQL)

DataWorks

  1. 创建Spark Interactive型资源组。

  2. DataWorks创建AnalyticDB Spark SQL节点。

  3. 定义SQL处理逻辑并进行调度。

ADB Spark SQL节点

DMS

  1. 创建Spark Interactive型资源组。

  2. DMS上创建一个Airflow实例,需与AnalyticDB集群处于同一VPC。

  3. AirflowDAG代码里定义一个ADBSparkSQLOperator。

DMSAnalyticDBSparkSqlOperator

XIHE引擎

DataWorks

  1. DataWorks创建AnalyticDB Spark SQL节点。

  2. 定义SQL处理逻辑并进行调度。

ADB for MySQL节点

DMS

  1. DMS上创建一个Airflow实例,需与AnalyticDB集群处于同一VPC。

  2. AirflowDAG代码里定义一个ADBSparkSQLOperator。

DMSSqlOperator

数据治理

功能

说明

相关文档

数据血缘

ETL任务都通过DataWorksSQL实现,可使用DataWorks的数据血缘功能追踪数据链路。

数据血缘分析

数据质量

通过DataWorks配置监控规则,对AnalyticDB for MySQL的数据质量进行校验和告警。

数据质量