全部产品
云市场

创建Spark作业

更新时间:2019-08-01 10:19:52

Spark服务访问点创建成功后,您就可以开始创建Spark作业。

注意事项

您可以通过DLA主账号或者RAM子账号创建Spark作业。通过RAM子账号创建Spark作业时,需要通过RAM控制台为RAM子账号授予DLA的AliyunDLAFullAccess权限。

创建Spark作业

  1. 登录Data Lake Analytics管理控制台

  2. 在页面左上角,选择DLA所在地域。

  3. 在左侧导航栏单击Spark > 作业编辑

  4. 作业编辑页面,单击创建作业弹出创建作业对话框,根据页面提示进行参数配置。

    说明:

    • 作业列表相当于根目录,所有的作业都需要在作业列表下创建。

    • 您可以在作业列表下创建文件夹,然后在文件夹下创建作业;也可以直接在作业列表根目录下创建作业。

    • 文件名称:设置文件夹或者文件的名字。

    • 文件类型:可以选择文件夹或者文件,本示例选择文件。

    • 父级:设置文件或者文件夹的上层目录,本示例选择作业列表。

      创建作业

  5. 单击确定,创建作业。

删除Spark作业

  1. 登录Data Lake Analytics管理控制台

  2. 在页面左上角,选择DLA所在地域。

  3. 在左侧导航栏单击Spark > 作业编辑

  4. 在Spark作业列表中,右键单击目标作业 > 删除,删除Spark作业。

下一步