您可以通过创建EMR(E-MapReduce)Shell节点执行Shell脚本任务。

前提条件

EMR引擎类型包括新版数据湖(DataLake)及Hadoop,不同类型引擎创建节点前需执行的准备工作不同。您需要根据实际情况完成EMR侧及DataWorks侧的准备工作。

使用限制

  • 仅支持使用独享调度资源组运行该类型任务。
  • DataWorks目前已不支持新绑定Hadoop类型的集群,但您之前已经绑定的Hadoop集群仍然可以继续使用。

注意事项

  • spark-submit方式提交的任务,deploy-mode推荐使用cluster模式,不建议使用client模式。
  • EMR Shell节点是运行在DataWorks调度资源组,而非EMR集群的,您可以使用一些EMR组件命令,但无法直接读取EMR上资源的情况。如果要引用资源,则需要先上传DataWorks资源。详情请参见上传EMR资源

创建EMR Shell节点

  1. 进入数据开发页面。
    1. 登录DataWorks控制台
    2. 在左侧导航栏,单击工作空间列表
    3. 选择工作空间所在地域后,单击相应工作空间后的数据开发
  2. 创建业务流程
    如果您已有业务流程,则可以忽略该步骤。
    1. 鼠标悬停至新建图标,选择新建业务流程
    2. 新建业务流程对话框,输入业务名称
    3. 单击新建
  3. 创建EMR Shell节点。
    1. 鼠标悬停至新建图标,选择新建节点 > EMR > EMR Shell
      您也可以找到相应的业务流程,右键单击业务流程,选择新建节点 > EMR > EMR Shell
    2. 新建节点对话框中,输入名称,并选择引擎实例节点类型路径
      说明 节点名称必须是大小写字母、中文、数字、下划线(_)和小数点(.),且不能超过128个字符。
    3. 单击提交,进入EMR Shell节点编辑页面。

创建EMR Shell任务

  1. 任务调度配置。
    如果您需要周期性执行创建的节点任务,可以单击节点编辑页面右侧的调度配置,根据业务需求配置该节点任务的调度信息:
  2. 提交并发布节点任务。
    1. 单击工具栏中的保存图标,保存节点。
    2. 单击工具栏中的提交图标,提交节点任务。
    3. 提交新版本对话框中,输入变更描述
    4. 单击确定
    如果您使用的是标准模式的工作空间,任务提交成功后,需要将任务发布至生产环境进行发布。请单击顶部菜单栏左侧的任务发布。具体操作请参见发布任务
  3. 查看周期调度任务。
    1. 单击编辑界面右上角的运维,进入生产环境运维中心。
    2. 查看运行的周期调度任务,详情请参见查看并管理周期任务
    如果您需要查看更多周期调度任务详情,可单击顶部菜单栏的运维中心,详情请参见运维中心概述

EMR Shell使用资源

如果您使用的是DataLake(新版数据湖)集群,则可通过如下步骤引用EMR JAR资源。

  1. 创建EMR JAR资源,详情请参见创建和使用EMR资源。首次使用需要进行一键授权
  2. 引用EMR JAR资源。
    1. 打开创建的EMR Shell节点,停留在代码编辑页面。
    2. EMR > 资源节点下,找到待引用资源,右键选择引用资源
    3. 选择资源后,当节点编辑页面显示##@resource_reference{""}格式的语句,表明资源引用成功。

EMR Shell使用调度参数

使用EMR Shell节点进行数据开发。

在SQL编辑区域输入任务代码,示例如下。
DD=`date`;
echo "hello world, $DD"
##可以结合调度参数使用
echo ${var};
如果您使用的是DataLake(新版数据湖)集群,则还支持如下命令行。
  • Shell命令:/usr/bin/bin下的Shell命令。例如,ls、echo等。
  • Yarn组件:hadoop、hdfs、yarn。
  • Spark组件:spark-submit。
  • Sqoop组件:sqoop-export、sqoop-import、sqoop-import-all-tables等。
    说明 使用该组件时,您需要在RDS白名单中添加资源组的IP信息。
如果您需要修改代码中的参数赋值,请单击界面上方工具栏的高级运行。参数赋值逻辑详情请参见运行,高级运行和开发环境冒烟测试赋值逻辑有什么区别
说明 调度参数使用详情,请参考调度参数支持的格式