文档

ListSparkAppAttempts - 查询Spark应用的重试信息

更新时间:

查询指定Spark应用的重试信息。

接口说明

  • 地域的公网接入地址:adb.<region-id>.aliyuncs.com。示例:adb.cn-hangzhou.aliyuncs.com
  • 地域的 VPC 接入地址:adb-vpc.<region-id>.aliyuncs.com。示例:adb-vpc.cn-hangzhou.aliyuncs.com
说明 如果华北 1(青岛)、华南 1(深圳)、华南 3(广州)、中国香港发起请求时,遇到 409 错误,请联系技术支持。

调试

您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。

授权信息

下表是API对应的授权信息,可以在RAM权限策略语句的Action元素中使用,用来给RAM用户或RAM角色授予调用此API的权限。具体说明如下:

  • 操作:是指具体的权限点。
  • 访问级别:是指每个操作的访问级别,取值为写入(Write)、读取(Read)或列出(List)。
  • 资源类型:是指操作中支持授权的资源类型。具体说明如下:
    • 对于必选的资源类型,用背景高亮的方式表示。
    • 对于不支持资源级授权的操作,用全部资源表示。
  • 条件关键字:是指云产品自身定义的条件关键字。
  • 关联操作:是指成功执行操作所需要的其他权限。操作者必须同时具备关联操作的权限,操作才能成功。
操作访问级别资源类型条件关键字关联操作
adb:ListSparkAppAttemptsList
  • 全部资源
    *

请求参数

名称类型必填描述示例值
AppIdstring

应用 ID。

说明 您可以调用 ListSparkApps 接口查询所有的应用 ID。
s202204132018hzprec1ac****
PageNumberlong

页码,取值为正整数。默认值为 1

1
PageSizelong

每页记录数,取值:

  • 10(默认值)
  • 50
  • 100
10
DBClusterIdstring

AnalyticDB MySQL 湖仓版(3.0)集群 ID。

amv-uf6o6m8p6x***

返回参数

名称类型描述示例值
object

Schema of Response

RequestIdstring

请求 ID。

1AD222E9-E606-4A42-BF6D-8A4442913CEF
Dataobject

返回数据。

AttemptInfoListarray

重试信息列表。返回参数说明:

  • AttemptId:重试 ID。
  • State:应用执行状态,取值说明:
    • SUBMITTED:已提交。
    • STARTING:开始启动。
    • RUNNING:执行中。
    • FAILING:任务失败,清理环境中。
    • FAILED:失败。
    • KILLING:中止任务,清理环境中。
    • KILLED:中止任务。
    • SUCCEEDING:任务执行结束,清理环境中。
    • COMPLETED:任务执行结束。
    • FATAL:意外失败。
    • UNKNOWN:未知错误。
  • Message:返回告警信息,无告警时则返回为空。
  • Data:Spark 应用模板数据。
  • EstimateExecutionCpuTimeInSeconds:执行 Spark 应用消耗 CPU 的时长,单位毫秒(ms)。
  • LogRootPath:日志文件存储路径。
  • LastAttemptId:上次重试的 ID。
  • WebUiAddress:Web UI 地址。
  • SubmittedTimeInMillis:提交 Spark 应用的时间,Unix 时间戳,单位毫秒(ms)。
  • StartedTimeInMillis:Spark 应用的创建时间,Unix 时间戳,单位毫秒(ms)。
  • LastUpdatedTimeInMillis:最近一次更新 Spark 应用的时间,Unix 时间戳,单位毫秒(ms)。
  • TerminatedTimeInMillis:Spark 应用终止执行的时间,Unix 时间戳,单位毫秒(ms)。
  • DBClusterId:执行 Spark 应用的集群 ID。
  • ResourceGroupName:Job 型资源组名称。
  • DurationInMillis:Spark 应用执行耗时,单位毫秒(ms)。
SparkAttemptInfo

重试信息列表。返回参数说明:

  • AttemptId:重试 ID。
  • State:应用执行状态,取值说明:
    • SUBMITTED:已提交。
    • STARTING:开始启动。
    • RUNNING:执行中。
    • FAILING:任务失败,清理环境中。
    • FAILED:失败。
    • KILLING:中止任务,清理环境中。
    • KILLED:中止任务。
    • SUCCEEDING:任务执行结束,清理环境中。
    • COMPLETED:任务执行结束。
    • FATAL:意外失败。
    • UNKNOWN:未知错误。
  • Message:返回告警信息,无告警时则返回为空。
  • Data:Spark 应用模板数据。
  • EstimateExecutionCpuTimeInSeconds:执行 Spark 应用消耗 CPU 的时长,单位毫秒(ms)。
  • LogRootPath:日志文件存储路径。
  • LastAttemptId:上次重试的 ID。
  • WebUiAddress:Web UI 地址。
  • SubmittedTimeInMillis:提交 Spark 应用的时间,Unix 时间戳,单位毫秒(ms)。
  • StartedTimeInMillis:Spark 应用的创建时间,Unix 时间戳,单位毫秒(ms)。
  • LastUpdatedTimeInMillis:最后一次更新 Spark 应用的时间,Unix 时间戳,单位毫秒(ms)。
  • TerminatedTimeInMillis:Spark 应用终止执行的时间,Unix 时间戳,单位毫秒(ms)。
  • DBClusterId:执行 Spark 应用的集群 ID。
  • ResourceGroupName:Job 型资源组名称。
  • DurationInMillis:Spark 应用执行耗时,单位毫秒(ms)。
PageNumberlong

页码。

1
PageSizelong

每页记录数。

10
TotalCountlong

总记录数。

3

示例

正常返回示例

JSON格式

{
  "RequestId": "1AD222E9-E606-4A42-BF6D-8A4442913CEF",
  "Data": {
    "AttemptInfoList": [
      {
        "AttemptId": "s202207151211hz****-0001",
        "Priority": "NORMAL",
        "State": "SUBMITTED",
        "Message": "WARN: Disk is full",
        "Detail": {
          "Data": "{     \"name\": \"SparkPi\",     \"file\": \"local:///tmp/spark-examples.jar\",     \"className\": \"org.apache.spark.examples.SparkPi\",     \"args\": [         \"1000000\"     ],     \"conf\": {         \"spark.driver.resourceSpec\": \"small\",         \"spark.executor.instances\": 1,         \"spark.executor.resourceSpec\": \"small\"     } }",
          "EstimateExecutionCpuTimeInSeconds": 100,
          "LogRootPath": "oss://<bucket-name>/logs/driver",
          "LastAttemptId": "s202204291426hzpre60****-0003",
          "WebUiAddress": "https://adbsparkui-cn-hangzhou.aliyuncs.com/?token=****",
          "SubmittedTimeInMillis": 1651213645000,
          "StartedTimeInMillis": 1651213645010,
          "LastUpdatedTimeInMillis": 1651213645200,
          "TerminatedTimeInMillis": 1651213645300,
          "DBClusterId": "amv-bp11q28kvl688****",
          "ResourceGroupName": "spark-rg",
          "DurationInMillis": 100,
          "AppType": "BATCH"
        }
      }
    ],
    "PageNumber": 1,
    "PageSize": 10,
    "TotalCount": 3
  }
}

错误码

HTTP status code错误码错误信息描述
400Spark.InvalidParameterInvalid parameter value: %s输入参数不正确。
400Spark.InvalidStateThe object of the operation is in an invalid state: %s操作对象处于非合法状态。
403Spark.ForbiddenNo permissions to access the resources: %s权限不足,拒绝访问相关资源。您当前申请访问的信息是:%s。
404Spark.App.ContentNotFoundThe requested content %s of the Spark application is not found.找不到指定Spark作业的提交内容。
404Spark.ObjectNotFoundThe object is not found. More information: %s操作对象不存在。关联信息:%s。
500Spark.ServerErrorThe Spark control component system encountered an error, please create a ticket to solve the problem or concat the supported engineer on duty. Error message: %sSpark管控组件系统遇到错误,请提交工单,或联系值班工程师。

访问错误中心查看更多错误码。

变更历史

变更时间变更内容概要操作
2023-11-24OpenAPI 错误码发生变更、OpenAPI 入参发生变更看变更集
变更项变更内容
错误码OpenAPI 错误码发生变更
    删除错误码:400
    删除错误码:403
    删除错误码:404
    删除错误码:500
入参OpenAPI 入参发生变更
    新增入参:DBClusterId
2023-06-28OpenAPI 错误码发生变更看变更集
变更项变更内容
错误码OpenAPI 错误码发生变更
    删除错误码:400
    删除错误码:500
    新增错误码:403
    新增错误码:404
  • 本页导读 (1)
文档反馈