EMR Spark SQL节点

更新时间:2025-04-27 07:17:13

您可以通过创建EMR(E-MapReduce) Spark SQL节点,实现分布式SQL查询引擎处理结构化数据,提高作业的执行效率。

前提条件

  • 已创建阿里云EMR集群,并注册EMR集群至DataWorks。操作详情请参见注册EMR集群至DataWorks

  • (可选,RAM账号需要)进行任务开发的RAM账号已被添加至对应工作空间中,并具有开发空间管理员(权限较大,谨慎添加)角色权限,添加成员的操作详情请参见为工作空间添加空间成员

    说明

    如果您使用的是主账号,则可忽略该添加操作。

  • 已开发创建项目目录,详情请参见项目目录

  • 如果您在开发任务时,需要特定的开发环境支持,可使用DataWorks提供的自定义镜像功能,定制化构建任务执行所需的组件镜像。更多信息,请参见镜像管理

  • 已创建EMR Spark SQL节点,详情请参见创建周期任务

使用限制

  • 仅支持使用Serverless资源组(推荐)或独享调度资源组运行该类型任务。

  • DataLake或自定义集群若要在DataWorks管理元数据,需先在集群侧配置EMR-HOOK。详情请参见配置Spark SQLEMR-HOOK

    说明

    若未在集群侧配置EMR-HOOK,则无法在DataWorks中实时展示元数据、生成审计日志、展示血缘关系、开展EMR相关治理任务。

  • EMR on ACK类型的Spark集群不支持查看血缘,EMR Serverless Spark集群支持查看血缘。

  • DataLake集群与自定义集群支持使用可视化注册函数,EMR on ACK 类型的Spark集群、EMR Serverless Spark集群不支持使用可视化注册函数。

操作步骤

  1. EMR Spark SQL节点编辑页面,执行如下开发操作。

    开发SQL代码

    SQL编辑区域开发任务代码,您可在代码中使用${变量名}的方式定义变量,并在节点编辑页面右侧调度配置调度参数中为该变量赋值。实现调度场景下代码的动态传参,调度参数使用详情,请参考调度参数支持格式,示例如下。

    SHOW TABLES; 
    -- 通过${var}定义名为var的变量,若将该变量赋值${yyyymmdd},可实现创建以业务日期作为后缀的表。
    CREATE TABLE IF NOT EXISTS userinfo_new_${var} (
    ip STRING COMMENT'IP地址',
    uid STRING COMMENT'用户ID'
    )PARTITIONED BY(
    dt STRING
    ); --可以结合调度参数使用。
    说明

    SQL语句最大不能超过130KB。

    (可选)配置高级参数

    您可在节点调度配置EMR节点参数中配置特有属性参数。更多Spark属性参数设置,请参考Spark Configuration。不同类型EMR集群可配置的高级参数存在部分差异,具体如下表。

    DataLake集群/自定义集群:EMR on ECS
    EMR Serverless Spark集群
    Spark集群:EMR on ACK
    Hadoop集群:EMR on ECS

    高级参数

    配置说明

    queue

    提交作业的调度队列,默认为default队列。关于EMR YARN说明,详情请参见队列基础配置

    priority

    优先级,默认为1。

    FLOW_SKIP_SQL_ANALYZE

    SQL语句执行方式。取值如下:

    • true:表示每次执行多条SQL语句。

    • false(默认值):表示每次执行一条SQL语句。

    说明

    该参数仅支持用于数据开发环境测试运行流程。

    ENABLE_SPARKSQL_JDBC

    提交SQL代码的方式。取值如下:

    • true:表示采用JDBC的方式提交SQL代码。当EMR集群无Kyuubi服务时,提交SQL代码至Spark Thrift-Server,当EMR集群有Kyuubi服务时,则通过JDBC方式提交SQL代码至Kyuubi,并支持自定义Spark参数。

      两种方式均支持元数据血缘,但提交至Thrift-Server的任务会缺少元数据对应节点任务的产出信息。

    • false(默认值):表示采用Spark-submit cluster方式提交SQL代码。此提交方式下,Spark2Spark3均支持元数据血缘和产出信息。还支持自定义Spark参数。

      说明
      • Spark-submit cluster提交方式默认在EMR集群HDFS/tmp目录下创建临时文件及目录,您需要保证目录具有读写权限。

      • 当选择Spark-submit cluster方式提交时,您可以直接在高级配置里追加自定义SparkConf参数。提交代码时DataWorks会自行在命令中加上新增的参数。例如,"spark.driver.memory" : "2g"

    DATAWORKS_SESSION_DISABLE

    适用于开发环境直接测试运行场景。取值如下:

    • true:表示每次运行SQL语句都会新建一个JDBC Connection。

    • false(默认值):表示用户在一个节点里运行不同的SQL语句时会复用同一个JDBC Connection。

    说明

    该参数配置为false时不会打印Hiveyarn applicationId,如需打印yarn applicationId,请将该参数配置为true

    其他

    自定义Spark Configuration参数,添加Spark特有属性参数。

    配置格式如下: spark.eventLog.enabled : false ,DataWorks会自动在最终下发EMR集群的代码中进行补全,格式为:--conf key=value

    说明

    DataWorks支持您设置全局Spark参数,即按照工作空间粒度指定DataWorks各模块使用的Spark参数,您可自行指定该全局Spark参数的优先级是否高于指定模块内的Spark参数。关于设置全局Spark参数,详情请参见设置全局Spark参数

    相关参数设置请参见提交Spark任务参数设置

    高级参数

    配置说明

    queue

    提交作业的调度队列,默认为dev_queue队列。

    priority

    优先级,默认为1。

    FLOW_SKIP_SQL_ANALYZE

    SQL语句执行方式。取值如下:

    • true:表示每次执行多条SQL语句。

    • false(默认值):表示每次执行一条SQL语句。

    说明

    该参数仅支持用于数据开发环境测试运行流程。

    ENABLE_SPARKSQL_JDBC

    提交SQL代码的方式。取值如下:

    • true:表示采用JDBC的方式提交SQL代码。当EMR集群无Kyuubi服务时,提交SQL代码至Spark Thrift-Server,当EMR集群有Kyuubi服务时,则通过JDBC方式提交SQL代码至Kyuubi,并支持自定义Spark参数。

      两种方式均支持元数据血缘,但提交至Thrift-Server的任务会缺少元数据对应节点任务的产出信息。

    • false(默认值):表示采用Spark-submit cluster方式提交SQL代码。此提交方式下,Spark2Spark3均支持元数据血缘和产出信息。还支持自定义Spark参数。

      说明
      • Spark-submit cluster提交方式默认在EMR集群HDFS/tmp目录下创建临时文件及目录,您需要保证目录具有读写权限。

      • 当选择Spark-submit cluster方式提交时,您可以直接在高级配置里追加自定义SparkConf参数。提交代码时DataWorks会自行在命令中加上新增的参数。例如,"spark.driver.memory" : "2g"

    DATAWORKS_SESSION_DISABLE

    适用于开发环境直接测试运行场景。取值如下:

    • true:表示每次运行SQL语句都会新建一个JDBC Connection。

    • false(默认值):表示用户在一个节点里运行不同的SQL语句时会复用同一个JDBC Connection。

    说明

    该参数配置为false时不会打印Hiveyarn applicationId,如需打印yarn applicationId,请将该参数配置为true

    SERVERLESS_RELEASE_VERSION

    Spark引擎版本,默认使用管理中心计算资源中集群配置的默认引擎版本。如需为不同任务设置不同的引擎版本,您可在此进行设置。

    说明

    注册集群指定的SQL Compute(会话)在EMR Serverless Spark控制台处于未启动状态的时候,高级设置配置中的SERVERLESS_RELEASE_VERSION参数才会生效。

    SERVERLESS_QUEUE_NAME

    指定资源队列,默认使用管理中心计算资源中集群配置的默认资源队列。如有资源隔离和管理需求,可通过添加队列实现。详情请参见管理资源队列

    说明

    注册集群指定的SQL Compute(会话)在EMR Serverless Spark控制台处于未启动状态的时候,高级设置配置中的SERVERLESS_QUEUE_NAME参数才会生效。

    SERVERLESS_SQL_COMPUTE

    指定SQL Compute(SQL会话),默认使用管理中心计算资源中集群配置的默认SQL Compute。如需面向不同任务设置不同的SQL会话,您可在此进行设置。如需创建管理SQL会话,详情请参见管理SQL会话

    其他

    自定义Spark Configuration参数,添加Spark特有属性参数。

    配置格式如下: spark.eventLog.enabled : false ,DataWorks会自动在最终下发EMR集群的代码中进行补全,格式为:--conf key=value

    说明

    DataWorks支持您设置全局Spark参数,即按照工作空间粒度指定DataWorks各模块使用的Spark参数,您可自行指定该全局Spark参数的优先级是否高于指定模块内的Spark参数。关于设置全局Spark参数,详情请参见设置全局Spark参数

    高级参数

    配置说明

    FLOW_SKIP_SQL_ANALYZE

    SQL语句执行方式。取值如下:

    • true:表示每次执行多条SQL语句。

    • false(默认值):表示每次执行一条SQL语句。

    说明

    该参数仅支持用于数据开发环境测试运行流程。

    其他

    自定义Spark Configuration参数,添加Spark特有属性参数。

    配置格式如下:spark.eventLog.enabled : false ,DataWorks会自动在最终下发EMR集群的代码中进行补全,格式为:--conf key=value

    说明

    DataWorks支持您设置全局Spark参数,即按照工作空间粒度指定DataWorks各模块使用的Spark参数,您可自行指定该全局Spark参数的优先级是否高于指定模块内的Spark参数。关于全局Spark参数设置,详情请参见设置全局Spark参数

    高级参数

    配置说明

    queue

    提交作业的调度队列,默认为default队列。关于EMR YARN说明,详情请参见队列基础配置

    priority

    优先级,默认为1。

    FLOW_SKIP_SQL_ANALYZE

    SQL语句执行方式。取值如下:

    • true:表示每次执行多条SQL语句。

    • false(默认值):表示每次执行一条SQL语句。

    说明

    该参数仅支持用于数据开发环境测试运行流程。

    USE_GATEWAY

    设置本节点提交作业时,是否通过Gateway集群提交。取值如下:

    • true:通过Gateway集群提交。

    • false(默认值):不通过Gateway集群提交,默认提交到header节点。

    说明

    如果本节点所在的集群未关联Gateway集群,此处手动设置参数取值为true时,后续提交EMR作业时会失败。

    其他

    自定义Spark Configuration参数,添加Spark特有属性参数。

    配置格式如下: spark.eventLog.enabled : false ,DataWorks会自动在最终下发EMR集群的代码中进行补全,格式为:--conf key=value

    说明

    DataWorks支持您设置全局Spark参数,即按照工作空间粒度指定DataWorks各模块使用的Spark参数,您可自行指定该全局Spark参数的优先级是否高于指定模块内的Spark参数。关于设置全局Spark参数,详情请参见设置全局Spark参数

    执行SQL任务

    1. 调试配置选择配置计算资源资源组

      说明
      • 您还可以根据任务执行所需的资源情况来调度 CU。默认CU0.25

      • 访问公共网络或VPC网络环境的数据源需要使用与数据源测试连通性成功的调度资源组。详情请参见网络连通方案

    2. 在工具栏的参数对话框中选择对应的数据源,单击运行SQL任务。

  2. 如需定期执行节点任务,请根据业务需求配置调度信息。配置详情请参见节点调度

  3. 节点任务配置完成后,需对节点进行发布。详情请参见节点/工作流发布

  4. 任务发布后,您可以在运维中心查看周期任务的运行情况。详情请参见运维中心入门

常见问题

为什么在EMR集群中启用了Kerberos后,在EMR Spark节点开发中使用YARN-Cluster模式执行spark-submit时会报错DlfMetaStoreClientFactory not found?

  • 本页导读 (1)
  • 前提条件
  • 使用限制
  • 操作步骤
  • 常见问题
AI助理

点击开启售前

在线咨询服务

你好,我是AI助理

可以解答问题、推荐解决方案等