CDH Spark节点

更新时间:2025-02-06 03:30:33

Spark是一个通用的大数据分析引擎,具有高性能、易用和普遍性等特点,可用于进行复杂的内存分析,构建大型、低延迟的数据分析应用。DataWorks为您提供CDH Spark节点,便于您在DataWorks上进行Spark任务的开发和周期性调度。本文为您介绍如何配置及使用CDH Spark节点。

前提条件

  • 已创建阿里云CDH集群,并注册CDH集群至DataWorks。操作详情请参见注册CDH集群至DataWorks

  • (可选,RAM账号需要)进行任务开发的RAM账号已被添加至对应工作空间中,并具有开发空间管理员(权限较大,谨慎添加)角色权限,添加成员的操作详情请参见为工作空间添加空间成员

    说明

    如果您使用的是主账号,则可忽略该添加操作。

  • 已开发创建项目目录,详情请参见项目目录

  • 已在DataWorks配置Hive数据源并通过连通性测试,详情请参见创建并管理数据源

  • 已创建CDH Spark节点,详情请参见创建任务节点

准备工作:开发Spark任务并获取JAR

在使用DataWorks调度CDH Spark任务前,您需要先在CDH中开发Spark任务代码并完成任务代码的编译,生成编译后的任务JAR包,CDH Spark任务的开发指导详情请参见Spark概述

说明

后续您需要将任务JAR包上传至DataWorks,在DataWorks中周期性调度CDH Spark任务。

操作步骤

  1. CDH Spark节点编辑页面,执行如下开发操作。

    创建CDH JAR资源

    1. 创建CDH JAR资源。

      1. 详情请参见资源管理。可将JAR包通过本地上传的方式上传到JAR资源的存放目录下。单击点击上传按钮,上传JAR资源。

      2. 选择存储路径数据源资源组

      3. 单击保存按钮进行保存。

    2. 引用CDH JAR资源。

      1. 打开创建的CDH Spark节点,停留在代码编辑页面。

      2. 在左侧导航栏的资源管理中找到待引用资源,右键选择引用资源

      3. 选择引用后,当CDH Spark节点的代码编辑页面出现如下引用成功提示时,表明已成功引用代码资源。此时,需要执行下述命令。如下命令涉及的资源包、Bucket名称、路径信息等为本文示例的内容,使用时,您需要替换为实际使用信息。

      ##@resource_reference{"spark_examples_2.11_2.4.0.jar"}
      spark_examples_2.11_2.4.0.jar

    编辑CDH Spark节点代码

    修改CDH Spark节点代码,补充Spark Submit命令,修改后的示例如下:

    重要

    CDH Spark节点编辑代码时不支持注释语句,请务必参考如下示例改写任务代码,不要随意添加注释,否则后续运行节点时会报错。

    ##@resource_reference{"spark-examples_2.11-2.4.0.jar"}
    spark-submit --class org.apache.spark.examples.SparkPi --master yarn  spark-examples_2.11-2.4.0.jar 100
    说明
    • org.apache.spark.examples.SparkPi:为您实际编译的JAR包中的任务主Class。

    • spark-examples_2.11-2.4.0.jar:为您实际上传的CDH JAR资源名称。

    执行Spark任务

    1. 调试配置计算资源中,选择配置计算资源DataWorks资源组

      1. 计算资源选择您在DataWorks上注册的CDH集群名称。

      2. 资源组选择与数据源测试连通性成功的调度资源组。详情请参见网络连通方案

      说明

      您还可以根据任务执行所需的资源情况来调度 CU。默认CU0.25

    2. 在工具栏的参数对话框中选择已创建的Hive数据源,单击运行SQL任务。

  2. 如需定期执行节点任务,请根据业务需求配置调度信息。配置详情请参见调度配置

  3. 节点任务配置完成后,需对节点进行发布。详情请参见节点发布

  4. 任务发布后,您可以在运维中心查看周期任务的运行情况。详情请参见运维中心入门

  • 本页导读 (1)
  • 前提条件
  • 准备工作:开发Spark任务并获取JAR包
  • 操作步骤
AI助理

点击开启售前

在线咨询服务

你好,我是AI助理

可以解答问题、推荐解决方案等