Lindorm计算引擎兼容CDH(Cloudera's Distribution Including Apache Hadoop)。您可在DataWorks上通过注册CDH集群并配置Lindorm计算引擎连接信息的方式,在DataWorks上基于Lindorm计算引擎进行交互式SQL查询、SQL任务开发、JAR任务执行等。本文为您介绍如何在DataWorks通过注册CDH集群来访问Lindorm计算引擎,并基于Lindorm计算引擎进行各类任务的开发、调度及运维。
背景信息
Lindorm计算引擎是基于云原生架构的分布式计算服务,支持社区版计算模型、兼容Spark接口、深度融合Lindorm存储引擎特性;能够利用底层数据存储特征及索引能力,高效地完成分布式作业任务;可用于海量数据生产、交互式分析、计算学习和图计算等场景。
前提条件
在DataWorks基于Lindorm计算引擎进行任务开发前,您需完成以下操作:
已创建Lindorm实例并开通Lindorm计算引擎。DataWorks需基于该引擎执行相关任务开发操作。详情请参见开通计算引擎。
已创建CDH集群并注册至DataWorks。DataWorks通过注册CDH集群的方式,访问Lindorm计算引擎数据。详情请参见注册CDH或CDP集群至DataWorks。
注册CDH集群时,集群连接信息需要配置为Lindorm计算引擎的链接信息,且集群版本选择为6.3.2版本,您只需正确填写HiveServer2以及Metastore的配置信息即可,其他配置可以留空。
说明若您希望将作业提交至特定的Lindorm资源组,可执行如下操作:
在登录Lindorm管理控制台。创建ETL资源组(名称例如:mycomputegroup)。操作详情请参见创建和管理资源组。
在DataWorks注册计算引擎时,
JDBC地址
(即HiveServer2参数的输入内容)后需添加参数compute-group=<compute_group_name>
。例如,jdbc:hive2://ld-abcd123xyz-proxy-ldps.lindorm.aliyuncs.com:10009/;?token=aaaa-bbb-ccc-ddd;compute-group=mycomputegroup
。
已创建业务流程。DataWorks的数据开发(DataStudio)基于业务流程执行不同引擎的具体开发操作,您可在业务流程中按需编排任务流,以直观查看任务间的依赖关系。详情请参见创建业务流程。
步骤一:开发Lindorm计算引擎任务
本文为您介绍使用SQL方式及JAR方式进行任务开发。
SQL方式(单击即可展开查看详情)
JAR方式(单击即可展开查看详情)
步骤二:配置任务调度
如您需周期性执行创建的节点任务,可单击节点编辑页面右侧的调度配置,根据业务需求配置该节点任务的调度信息。详情请参见任务调度属性配置概述。
您需要设置节点的重跑属性和依赖的上游节点,才可提交节点。
步骤三:调试任务代码
根据需要执行如下操作,查看任务是否符合预期。
您也可在业务流程面板,单击图标,调试整个业务流任务。
步骤四:提交发布任务
节点任务配置完成后,需执行提交发布操作,提交发布后,节点会根据调度配置内容进行周期性运行。
您也可在业务流程面板,单击图标,提交整个业务流任务。
单击工具栏中的图标,保存节点。
单击工具栏中的图标,提交节点任务。
提交时需在提交对话框中输入变更描述,并根据需要选择是否在节点提交后执行代码评审。
说明您需设置节点的重跑属性和依赖的上游节点,才可提交节点。
代码评审可对任务的代码质量进行把控,防止由于任务代码有误,未经审核直接发布上线后出现任务报错。如进行代码评审,则提交的节点代码必须通过评审人员的审核才可发布,详情请参见代码评审。
如您使用的是标准模式的工作空间,任务提交成功后,需单击节点编辑页面右上方的发布,将该任务发布至生产环境执行,操作请参见发布任务。
后续操作
任务运维
任务提交发布后,会基于节点的配置周期性运行,您可单击节点编辑界面右上角的运维,进入DataWorks的运维中心查看周期任务的调度运行情况。详情请参见查看并管理周期任务。
数据管理
您可在DataWorks的数据地图,将通过Lindorm计算引擎创建的表元数据采集至DataWorks进行统一管理。
采集元数据:在数据地图查看元数据前,您需要先创建元数据采集器,详情请参见CDH Hive数据抽样采集器。
查看元数据:在数据地图,您可查看元数据的基础信息、字段信息等,详情请参见查看表详情。