文档

SQL任务快速入门

更新时间:

EMR Serverless Spark支持通过SQL代码编辑和运行任务。本文带您快速体验Spark SQL任务的创建、启动和运维等操作。

前提条件

步骤一:创建并发布开发任务

重要

任务必须先发布,然后才能在任务编排过程中使用。

  1. 进入SQL任务开发页面。

    1. 登录E-MapReduce控制台

    2. 在左侧导航栏,选择EMR Serverless > Spark

    3. Spark页面,单击目标工作空间名称。

    4. 在EMR Serverless Spark页面,单击左侧导航栏中的任务开发

  2. 新建users_task任务。

    1. 任务目录页签下,单击新建

    2. 新建任务对话框中,输入名称(例如users_task),类型使用默认的SparkSQL,然后单击确定

      即创建了一个SparkSQL任务。

    3. 拷贝如下代码到新增的Spark SQL任务页签(users_task)中。

      CREATE TABLE IF NOT EXISTS students (
        name VARCHAR(64),
        address VARCHAR(64)
      )
      USING PARQUET
      PARTITIONED BY (data_date STRING);
      
      
      INSERT OVERWRITE TABLE students PARTITION (data_date = '${ds}') VALUES
        ('Ashua Hill', '456 Erica Ct, Cupertino'),
        ('Brian Reed', '723 Kern Ave, Palo Alto');

      目前支持以下基础日期变量,默认为昨天。

      变量

      数据类型

      说明

      {data_date}

      str

      表示日期信息的变量,格式为YYYY-MM-DD

      例如,2023-09-18。

      {ds}

      str

      {dt}

      str

      {data_date_nodash}

      str

      表示日期信息的变量,格式为YYYYMMDD

      例如,20230918。

      {ds_nodash}

      str

      {dt_nodash}

      str

      {ts}

      str

      表示时间戳,格式为YYYY-MM-DDTHH:MM:SS

      例如,2023-09-18T16:07:43。

      {ts_nodash}

      str

      表示时间戳,格式为YYYYMMDDHHMMSS

      例如,20230918160743。

    4. 在数据库下拉列表中选择一个数据库,在Compute下拉列表中选择一个已启动的SQL Compute。

      您也可以在下拉列表中选择连接SQL compute,直接创建一个新的SQL Compute。Compute更多介绍,请参见管理Compute

    5. 单击运行,执行创建的任务。

      返回结果信息可以在下方的运行结果中查看。如果有异常,则可以在运行问题中查看。

  3. 发布users_task任务。

    说明

    任务指定的参数会伴随任务一起发布,并成为产线运行任务时使用的参数;而在SQL编辑器中执行的任务则使用Compute中的参数。

    1. 在新增的Spark SQL任务页签中,单击发布

    2. 发布任务对话框中,可以输入发布信息,然后单击确定

  4. 新建users_count任务。

    1. 任务目录页签下,单击新建

    2. 新建任务对话框中,输入名称(例如users_count),类型使用默认的SparkSQL,单击确定

      即创建了一个SparkSQL任务。

    3. 拷贝如下代码到新增的Spark SQL任务页签(users_count)中。

      SELECT COUNT(1) FROM students;
    4. 在数据库下拉列表中选择一个数据库,在Compute下拉列表中选择一个已启动的SQL Compute。

      您也可以在下拉列表中选择连接SQL compute,直接创建一个新的SQL Compute。Compute更多介绍,请参见管理Compute

    5. 单击运行,执行创建的任务。

      返回结果信息可以在下方的运行结果中查看。如果有异常,则可以在运行问题中查看。

  5. 发布users_count任务。

    说明

    任务指定的参数会伴随任务一起发布,并成为产线运行任务时使用的参数;而在SQL编辑器中执行的任务则使用Compute中的参数。

    1. 在新增的Spark SQL任务页签中,单击发布

    2. 发布任务对话框中,可以输入发布信息,然后单击确定

步骤二:创建工作流及其节点

  1. 在左侧导航栏中,单击任务编排

  2. 任务编排页面,单击创建工作流

  3. 创建工作流面板中,输入工作流名称(例如,spark_workflow_task),然后单击下一步

    其他设置区域的参数,请根据您的实际情况配置,更多参数信息请参见管理工作流

  4. 添加users_task节点。

    1. 在新建的节点画布中,单击添加节点

    2. 弹出添加节点面板,在任务来源下拉列表中选择已发布的任务users_task,然后单击保存节点

  5. 添加users_count节点。

    1. 单击添加节点

    2. 弹出添加节点面板,在任务来源下拉列表中选择已发布的任务users_count,在上游节点下拉列表中选择users_task,单击保存节点

  6. 在新建的节点画布中,单击发布工作流

    image

  7. 发布对话框中,可以输入发布信息,然后单击确认

步骤三:运行工作流

  1. 任务编排页面,单击新建工作流(例如,spark_workflow_task)的工作流名称

  2. 工作流实例列表页面,单击手动运行

    说明

    在配置了调度周期后,您也可以在任务编排页面通过左侧的开关按钮启动调度。

  3. 触发运行对话框中,单击确认

步骤四:查看实例状态

  1. 任务编排页面,单击目标工作流名称(例如,spark_workflow_task)。

  2. 工作流实例列表页面,您可以查看对应的所有工作流实例,以及各工作流实例的运行时间、运行状态等。

    image.png

  3. 单击工作流实例列表区域的工作流运行ID,或单击上方的工作流实例图页签,可以查看对应的工作流实例图。

  4. 单击目标节点实例,在弹出的节点信息框中,您可以根据需要操作或查看信息。

    关于此部分内容的相关操作及详细介绍,请参见查看节点实例

    image.png

  5. 单击任务运行ID,进入任务列表页面,可以查看指标、诊断和日志信息。

    image.png

步骤五:工作流运维

任务编排页面,单击目标工作流名称,进入工作流实例列表页面。您可以:

  • 工作流信息区域,可以编辑部分参数。

  • 工作流实例列表区域,可以查看所有工作流。单击工作流运行ID,可以进入工作流实例图页面。

    image.png

步骤六:查看数据

  1. 在左侧导航栏中,单击任务开发

  2. 新建任务,输入并执行以下命令以查看表的详细信息。

    SELECT * FROM students;

    返回信息如下所示。

    image.png

相关文档

  • 本页导读
文档反馈