Spark SQL可实现分布式SQL查询引擎处理结构化数据,提高作业的执行效率。DataWorks的CDH Spark SQL节点可进行CDH Spark SQL任务的开发和周期性调度,以及与其他作业的集成操作。本文为您介绍如何配置及使用CDH Spark SQL节点。
前提条件
已创建阿里云CDH集群,并注册CDH集群至DataWorks。操作详情请参见注册CDH集群至DataWorks。
(可选,RAM账号需要)进行任务开发的RAM账号已被添加至对应工作空间中,并具有开发或空间管理员(权限较大,谨慎添加)角色权限,添加成员的操作详情请参见为工作空间添加空间成员。
说明如果您使用的是主账号,则可忽略该添加操作。
已开发创建项目目录,详情请参见项目目录。
已在DataWorks配置Hive数据源并通过连通性测试,详情请参见创建并管理数据源。
已创建CDH Spark SQL节点,详情请参见创建任务节点。
操作步骤
在CDH Spark SQL节点编辑页面,执行如下开发操作。
开发SQL代码
在SQL编辑区域开发任务代码,您可在代码中使用${变量名}的方式定义变量,并在节点编辑页面右侧调度配置的调度参数中为该变量赋值。实现调度场景下代码的动态传参,调度参数使用详情,请参考调度参数支持格式,示例如下。
CREATE TABLE IF NOT EXISTS test_spark.test_lineage_table_f1 (`id` BIGINT, `name` STRING) PARTITIONED BY (`ds` STRING); CREATE TABLE IF NOT EXISTS test_spark.test_lineage_table_t2 AS SELECT * FROM test_spark.test_lineage_table_f1; INSERT INTO test_spark.test_lineage_table_t2 SELECT id,${var} FROM test_spark.test_lineage_table_f1;
说明示例在
test_spark
数据库中创建test_lineage_table_f1
、test_lineage_table_t2
表,并且从test_lineage_table_f1
表向test_lineage_table_t2
表复制数据,本示例仅为参考,实际使用时请替换为您自己的数据库环境。代码中的
${var}
参数赋值为字段name
。
执行SQL任务
在调试配置的计算资源中,选择配置计算资源和DataWorks资源组。
计算资源选择您在DataWorks上注册的CDH集群名称。
资源组选择与数据源测试连通性成功的调度资源组。详情请参见网络连通方案。
说明您还可以根据任务执行所需的资源情况来调度 CU。默认CU为
0.25
。在工具栏的参数对话框中选择已创建的Hive数据源,单击运行SQL任务。
如需定期执行节点任务,请根据业务需求配置调度信息。配置详情请参见调度配置。
节点任务配置完成后,需对节点进行发布。详情请参见节点发布。
任务发布后,您可以在运维中心查看周期任务的运行情况。详情请参见运维中心入门。