EMR Shell节点

更新时间:2025-02-06 05:24:12

为了满足特定业务需求,您可以在DataWorks中创建EMR Shell节点。通过编辑自定义Shell脚本,对数据处理、调用Hadoop组件、操作文件等高级功能进行使用。本文介绍了在DataWorks里配置和使用EMR Shell节点,以便您编辑和运行Shell任务。

前提条件

  • 已创建阿里云EMR集群,并注册EMR集群至DataWorks。操作详情请参见注册EMR集群至DataWorks

  • (可选,RAM账号需要)进行任务开发的RAM账号已被添加至对应工作空间中,并具有开发空间管理员(权限较大,谨慎添加)角色权限,添加成员的操作详情请参见为工作空间添加空间成员

    说明

    如果您使用的是主账号,则可忽略该添加操作。

  • 已开发创建项目目录,详情请参见项目目录

  • 已创建EMR Shell节点,详情请参见创建任务节点

使用限制

  • 仅支持使用Serverless资源组(推荐)或独享调度资源组运行该类型任务。

  • DataLake或自定义集群若要在DataWorks管理元数据,需先在集群侧配置EMR-HOOK。配置EMR-HOOK,详情请参见配置HiveEMR-HOOK

    说明

    若未在集群侧配置EMR-HOOK,则无法在DataWorks中实时展示元数据、生成审计日志、展示血缘关系、开展EMR相关治理任务。

  • spark-submit方式提交的任务,deploy-mode推荐使用cluster模式,不建议使用client模式。

  • EMR Shell节点是运行在DataWorks调度资源组,而非EMR集群的,您可以使用一些EMR组件命令,但无法直接读取EMR上资源情况。如果要引用资源,则需要先上传DataWorks资源。详情请参见资源管理

操作步骤

  1. EMR Shell节点编辑页面,执行如下开发操作。

    开发Shell代码

    您可以根据不同场景需求选择适合您的操作方案:

    方案一:先上传资源后引用EMR JAR资源
    方案二:直接引用OSS资源

    DataWorks也支持您从本地先上传资源至DataStudio,再引用资源。如果您使用的是DataLake(新版数据湖)集群,则可通过如下步骤引用EMR JAR资源,若EMR Shell节点依赖的资源较大,则无法通过DataWorks页面上传。您可将资源存放至HDFS上,然后在代码中进行引用。

    1. 创建EMR JAR资源。

      1. 详情请参见资源管理。将准备初始数据及JAR资源包中生成的JAR包存储在JAR资源的存放目录emr/jars下。单击点击上传按钮,上传JAR资源。

      2. 选择存储路径数据源资源组

      3. 单击保存按钮进行保存。

      image

    2. 引用EMR JAR资源。

      1. 打开创建的EMR MR节点,停留在代码编辑页面。

      2. 在左侧导航栏的资源管理中找到待引用资源(示例为onaliyun_mr_wordcount-1.0-SNAPSHOT.jar),右键选择引用资源

      3. 选择引用后,当EMR MR节点的代码编辑页面出现如下引用成功提示时,表明已成功引用代码资源。此时,需要执行下述命令。如下命令涉及的资源包、Bucket名称、路径信息等为本文示例的内容,使用时,您需要替换为实际使用信息。

      ##@resource_reference{"onaliyun_mr_wordcount-1.0-SNAPSHOT.jar"}
      onaliyun_mr_wordcount-1.0-SNAPSHOT.jar cn.apache.hadoop.onaliyun.examples.EmrWordCount oss://onaliyun-bucket-2/emr/datas/wordcount02/inputs oss://onaliyun-bucket-2/emr/datas/wordcount02/outputs
      说明

      EMR Shell节点编辑代码时不支持注释语句。

    当前节点可通过OSS REF的方式直接引用OSS资源,在运行EMR节点时,DataWorks会自动加载代码中的OSS资源至本地使用。该方式常用于“需要在EMR任务中运行JAR依赖”、“EMR任务需依赖脚本”等场景。引用格式如下:

    ossref://{endpoint}/{bucket}/{object}
    • endpoint:OSS对外服务的访问域名。Endpoint为空时,仅支持使用与当前访问的EMR集群同地域的OSS,即OSSBucket需要与EMR集群所在地域相同。

    • Bucket:OSS用于存储对象的容器,每一个Bucket有唯一的名称,登录OSS管理控制台,可查看当前登录账号下所有Bucket

    • object:存储在Bucket中的一个具体的对象(文件名称或路径)。

    使用示例

    1. OSS Bucket中上传示例文件。本文以emr_shell_test.sh为例,示例文件内容如下:

      #!/bin/sh
      echo "Hello, DataWorks!"
    2. EMR Shell节点中直接引用OSS资源。

      sh ossref://oss-cn-shanghai.aliyuncs.com/test-oss-of-dataworks/emr_shell_test.sh
      说明

      oss-cn-shanghai.aliyuncs.comendpointtest-oss-of-dataworksBucket名称,emr_shell_test.shobject文件名。

      运行结果如下,即可看到emr_shell_test.sh文件的输出结果:

      ...
      >>> [2024-10-24 15:46:01][INFO   ][CommandExecutor       ]: Process ready to execute. command: sh ./emr_shell_test.sh
      >>> [2024-10-24 15:46:01][INFO   ][CommandExecutor       ]: Command state update to RUNNING
      >>> [2024-10-24 15:46:01][INFO   ][CommandExecutor       ]: Process start to execute...
      Process Output>>> Hello, DataWorks!
      ...

    配置EMR Shell调度参数

    SQL编辑区域开发任务代码,您可在代码中使用${变量名}的方式定义变量,并在节点编辑页面右侧调度配置调度参数中为该变量赋值。实现调度场景下代码的动态传参,调度参数使用详情,请参考调度参数支持格式,示例如下。

    DD=`date`;
    echo "hello world, $DD"
    ##可以结合调度参数使用
    echo ${var};
    说明

    如果您使用的是DataLake(新版数据湖)集群,则还支持如下命令行。

    • Shell命令:/usr/bin/bin下的Shell命令。例如,ls、echo等。

    • Yarn组件:hadoop、hdfs、yarn。

    • Spark组件:spark-submit。

    • Sqoop组件:sqoop-export、sqoop-import、sqoop-import-all-tables等。

    使用该组件时,您需要在RDS白名单中添加资源组的IP信息。

    执行Shell任务

    1. 调试配置计算资源中,选择配置计算资源DataWorks资源组

      说明
      • 您还可以根据任务执行所需的资源情况来调度 CU。默认CU0.25

      • 您可以根据任务情况选择配置镜像信息。

      • 访问公共网络或VPC网络环境的数据源需要使用与数据源测试连通性成功的调度资源组。详情请参见网络连通方案

    2. 在工具栏的参数对话框中选择对应数据源,单击运行Shell任务。

  2. 如需定期执行节点任务,请根据业务需求配置调度信息。配置详情请参见调度配置

  3. 节点任务配置完成后,需对节点进行发布。详情请参见节点发布

  4. 任务发布后,您可以在运维中心查看周期任务的运行情况。详情请参见运维中心入门

相关文档

了解如何在EMR Shell节点使用Python 2Python 3命令运行Python脚本:详情请参见Shell类型节点运行Python脚本

了解如何在EMR Shell节点使用OSSUtils工具:详情请参见Shell类型节点使用ossutil工具

  • 本页导读 (1)
  • 前提条件
  • 使用限制
  • 操作步骤
  • 相关文档
AI助理

点击开启售前

在线咨询服务

你好,我是AI助理

可以解答问题、推荐解决方案等