您可以通过创建EMR(E-MapReduce) Spark SQL节点,实现分布式SQL查询引擎处理结构化数据,提高作业的执行效率。
前提条件
已创建阿里云EMR集群,并注册EMR集群至DataWorks。操作详情请参见注册EMR集群至DataWorks。
(可选,RAM账号需要)进行任务开发的RAM账号已被添加至对应工作空间中,并具有开发或空间管理员(权限较大,谨慎添加)角色权限,添加成员的操作详情请参见为工作空间添加空间成员。
如果您使用的是主账号,则可忽略该添加操作。
已开发创建项目目录,详情请参见项目目录。
如果您在开发任务时,需要特定的开发环境支持,可使用DataWorks提供的自定义镜像功能,定制化构建任务执行所需的组件镜像。更多信息,请参见镜像管理。
已创建EMR Spark SQL节点,详情请参见创建周期任务。
使用限制
仅支持使用Serverless资源组(推荐)或独享调度资源组运行该类型任务。
DataLake或自定义集群若要在DataWorks管理元数据,需先在集群侧配置EMR-HOOK。详情请参见配置Spark SQL的EMR-HOOK。
若未在集群侧配置EMR-HOOK,则无法在DataWorks中实时展示元数据、生成审计日志、展示血缘关系、开展EMR相关治理任务。
EMR on ACK类型的Spark集群不支持查看血缘,EMR Serverless Spark集群支持查看血缘。
DataLake集群与自定义集群支持使用可视化注册函数,EMR on ACK 类型的Spark集群、EMR Serverless Spark集群不支持使用可视化注册函数。
操作步骤
在EMR Spark SQL节点编辑页面,执行如下开发操作。
开发SQL代码
在SQL编辑区域开发任务代码,您可在代码中使用${变量名}的方式定义变量,并在节点编辑页面右侧调度配置的调度参数中为该变量赋值。实现调度场景下代码的动态传参,调度参数使用详情,请参考调度参数支持格式,示例如下。
SHOW TABLES; -- 通过${var}定义名为var的变量,若将该变量赋值${yyyymmdd},可实现创建以业务日期作为后缀的表。 CREATE TABLE IF NOT EXISTS userinfo_new_${var} ( ip STRING COMMENT'IP地址', uid STRING COMMENT'用户ID' )PARTITIONED BY( dt STRING ); --可以结合调度参数使用。
SQL语句最大不能超过130KB。
(可选)配置高级参数
您可在节点调度配置的EMR节点参数中配置特有属性参数。更多Spark属性参数设置,请参考Spark Configuration。不同类型EMR集群可配置的高级参数存在部分差异,具体如下表。
DataLake集群/自定义集群:EMR on ECSEMR Serverless Spark集群Spark集群:EMR on ACKHadoop集群:EMR on ECS高级参数
配置说明
queue
提交作业的调度队列,默认为default队列。关于EMR YARN说明,详情请参见队列基础配置。
priority
优先级,默认为1。
FLOW_SKIP_SQL_ANALYZE
SQL语句执行方式。取值如下:
true
:表示每次执行多条SQL语句。false
(默认值):表示每次执行一条SQL语句。
该参数仅支持用于数据开发环境测试运行流程。
ENABLE_SPARKSQL_JDBC
提交SQL代码的方式。取值如下:
true
:表示采用JDBC的方式提交SQL代码。当EMR集群无Kyuubi服务时,提交SQL代码至Spark Thrift-Server,当EMR集群有Kyuubi服务时,则通过JDBC方式提交SQL代码至Kyuubi,并支持自定义Spark参数。两种方式均支持元数据血缘,但提交至Thrift-Server的任务会缺少元数据对应节点任务的产出信息。
false
(默认值):表示采用Spark-submit cluster方式提交SQL代码。此提交方式下,Spark2和Spark3均支持元数据血缘和产出信息。还支持自定义Spark参数。Spark-submit cluster提交方式默认在EMR集群HDFS的
/tmp
目录下创建临时文件及目录,您需要保证目录具有读写权限。当选择Spark-submit cluster方式提交时,您可以直接在高级配置里追加自定义SparkConf参数。提交代码时DataWorks会自行在命令中加上新增的参数。例如,
"spark.driver.memory" : "2g"
。
DATAWORKS_SESSION_DISABLE
适用于开发环境直接测试运行场景。取值如下:
true
:表示每次运行SQL语句都会新建一个JDBC Connection。false
(默认值):表示用户在一个节点里运行不同的SQL语句时会复用同一个JDBC Connection。
该参数配置为
false
时不会打印Hive的yarn applicationId
,如需打印yarn applicationId
,请将该参数配置为true
。其他
自定义Spark Configuration参数,添加Spark特有属性参数。
配置格式如下:
spark.eventLog.enabled : false
,DataWorks会自动在最终下发EMR集群的代码中进行补全,格式为:--conf key=value
。DataWorks支持您设置全局Spark参数,即按照工作空间粒度指定DataWorks各模块使用的Spark参数,您可自行指定该全局Spark参数的优先级是否高于指定模块内的Spark参数。关于设置全局Spark参数,详情请参见设置全局Spark参数。
相关参数设置请参见提交Spark任务参数设置。
高级参数
配置说明
queue
提交作业的调度队列,默认为dev_queue队列。
priority
优先级,默认为1。
FLOW_SKIP_SQL_ANALYZE
SQL语句执行方式。取值如下:
true
:表示每次执行多条SQL语句。false
(默认值):表示每次执行一条SQL语句。
该参数仅支持用于数据开发环境测试运行流程。
ENABLE_SPARKSQL_JDBC
提交SQL代码的方式。取值如下:
true
:表示采用JDBC的方式提交SQL代码。当EMR集群无Kyuubi服务时,提交SQL代码至Spark Thrift-Server,当EMR集群有Kyuubi服务时,则通过JDBC方式提交SQL代码至Kyuubi,并支持自定义Spark参数。两种方式均支持元数据血缘,但提交至Thrift-Server的任务会缺少元数据对应节点任务的产出信息。
false
(默认值):表示采用Spark-submit cluster方式提交SQL代码。此提交方式下,Spark2和Spark3均支持元数据血缘和产出信息。还支持自定义Spark参数。Spark-submit cluster提交方式默认在EMR集群HDFS的
/tmp
目录下创建临时文件及目录,您需要保证目录具有读写权限。当选择Spark-submit cluster方式提交时,您可以直接在高级配置里追加自定义SparkConf参数。提交代码时DataWorks会自行在命令中加上新增的参数。例如,
"spark.driver.memory" : "2g"
。
DATAWORKS_SESSION_DISABLE
适用于开发环境直接测试运行场景。取值如下:
true
:表示每次运行SQL语句都会新建一个JDBC Connection。false
(默认值):表示用户在一个节点里运行不同的SQL语句时会复用同一个JDBC Connection。
该参数配置为
false
时不会打印Hive的yarn applicationId
,如需打印yarn applicationId
,请将该参数配置为true
。SERVERLESS_RELEASE_VERSION
Spark引擎版本,默认使用管理中心的计算资源中集群配置的默认引擎版本。如需为不同任务设置不同的引擎版本,您可在此进行设置。
注册集群指定的SQL Compute(会话)在EMR Serverless Spark控制台处于未启动状态的时候,高级设置配置中的
SERVERLESS_RELEASE_VERSION
参数才会生效。SERVERLESS_QUEUE_NAME
指定资源队列,默认使用管理中心的计算资源中集群配置的默认资源队列。如有资源隔离和管理需求,可通过添加队列实现。详情请参见管理资源队列。
注册集群指定的SQL Compute(会话)在EMR Serverless Spark控制台处于未启动状态的时候,高级设置配置中的
SERVERLESS_QUEUE_NAME
参数才会生效。SERVERLESS_SQL_COMPUTE
指定SQL Compute(SQL会话),默认使用管理中心的计算资源中集群配置的默认SQL Compute。如需面向不同任务设置不同的SQL会话,您可在此进行设置。如需创建管理SQL会话,详情请参见管理SQL会话。
其他
自定义Spark Configuration参数,添加Spark特有属性参数。
配置格式如下:
spark.eventLog.enabled : false
,DataWorks会自动在最终下发EMR集群的代码中进行补全,格式为:--conf key=value
。DataWorks支持您设置全局Spark参数,即按照工作空间粒度指定DataWorks各模块使用的Spark参数,您可自行指定该全局Spark参数的优先级是否高于指定模块内的Spark参数。关于设置全局Spark参数,详情请参见设置全局Spark参数。
高级参数
配置说明
FLOW_SKIP_SQL_ANALYZE
SQL语句执行方式。取值如下:
true
:表示每次执行多条SQL语句。false
(默认值):表示每次执行一条SQL语句。
该参数仅支持用于数据开发环境测试运行流程。
其他
自定义Spark Configuration参数,添加Spark特有属性参数。
配置格式如下:
spark.eventLog.enabled : false
,DataWorks会自动在最终下发EMR集群的代码中进行补全,格式为:--conf key=value
。DataWorks支持您设置全局Spark参数,即按照工作空间粒度指定DataWorks各模块使用的Spark参数,您可自行指定该全局Spark参数的优先级是否高于指定模块内的Spark参数。关于全局Spark参数设置,详情请参见设置全局Spark参数。
高级参数
配置说明
queue
提交作业的调度队列,默认为
default
队列。关于EMR YARN说明,详情请参见队列基础配置。priority
优先级,默认为1。
FLOW_SKIP_SQL_ANALYZE
SQL语句执行方式。取值如下:
true
:表示每次执行多条SQL语句。false
(默认值):表示每次执行一条SQL语句。
该参数仅支持用于数据开发环境测试运行流程。
USE_GATEWAY
设置本节点提交作业时,是否通过Gateway集群提交。取值如下:
true
:通过Gateway集群提交。false
(默认值):不通过Gateway集群提交,默认提交到header节点。
如果本节点所在的集群未关联Gateway集群,此处手动设置参数取值为
true
时,后续提交EMR作业时会失败。其他
自定义Spark Configuration参数,添加Spark特有属性参数。
配置格式如下:
spark.eventLog.enabled : false
,DataWorks会自动在最终下发EMR集群的代码中进行补全,格式为:--conf key=value
。DataWorks支持您设置全局Spark参数,即按照工作空间粒度指定DataWorks各模块使用的Spark参数,您可自行指定该全局Spark参数的优先级是否高于指定模块内的Spark参数。关于设置全局Spark参数,详情请参见设置全局Spark参数。
执行SQL任务
在调试配置选择配置计算资源和资源组。
您还可以根据任务执行所需的资源情况来调度 CU。默认CU为
0.25
。访问公共网络或VPC网络环境的数据源需要使用与数据源测试连通性成功的调度资源组。详情请参见网络连通方案。
在工具栏的参数对话框中选择对应的数据源,单击运行SQL任务。
如需定期执行节点任务,请根据业务需求配置调度信息。配置详情请参见节点调度。
节点任务配置完成后,需对节点进行发布。详情请参见节点/工作流发布。
任务发布后,您可以在运维中心查看周期任务的运行情况。详情请参见运维中心入门。
常见问题
- 本页导读 (1)
- 前提条件
- 使用限制
- 操作步骤
- 常见问题