CancelSparkReplStatement - 终止Spark作业中的部分代码块

更新时间:

终止Spark作业中的部分代码块。

调试

您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。

授权信息

下表是API对应的授权信息,可以在RAM权限策略语句的Action元素中使用,用来给RAM用户或RAM角色授予调用此API的权限。具体说明如下:

  • 操作:是指具体的权限点。
  • 访问级别:是指每个操作的访问级别,取值为写入(Write)、读取(Read)或列出(List)。
  • 资源类型:是指操作中支持授权的资源类型。具体说明如下:
    • 对于必选的资源类型,用前面加 * 表示。
    • 对于不支持资源级授权的操作,用全部资源表示。
  • 条件关键字:是指云产品自身定义的条件关键字。
  • 关联操作:是指成功执行操作所需要的其他权限。操作者必须同时具备关联操作的权限,操作才能成功。
操作访问级别资源类型条件关键字关联操作
adb:CancelSparkReplStatementnone
*DBClusterLakeVersion
acs:adb:{#regionId}:{#accountId}:dbcluster/{#dbClusterId}/resourcegroup/{#resourceGroupName}/sparkapp/{#sparkAppId}/{#sparkStatmentId}

请求参数

名称类型必填描述示例值
AppIdstring

应用 ID。

说明 可调用 ListSparkApps 接口查询 Spark 应用 ID。
s202411071444hzdvk486d9d2001****
StatementIdlong

Spark 作业中代码块的唯一 ID。

123
SessionIdlong

会话 ID。

456

返回参数

名称类型描述示例值
object
RequestIdstring

请求 ID。

1AD222E9-E606-4A42-BF6D-8A4442913CEF
Dataobject

返回内容。

StatementIdlong

Spark 作业中代码块的唯一 ID。

123
Codestring

输入的代码。

print(1+1)
CodeTypestring

代码的类型,取值如下:

  • SCALA
  • PYTHON
PYTHON
CodeStatestring

代码执行状态,取值如下:

  • CANCELLED: 执行取消
  • RUNNING: 执行中
  • SUCCEEDED: 执行成功
  • ERROR: 执行失败
RUNNING
AliyunUidlong

集群所属的阿里云主账号。

190063530332****
OutputTypestring

执行结果的序列化格式,结构为一个 JSON,取值如下:

  • TEXT: 输出结果为 Apache Livy 标准下的文本内容。
  • TABLE:输出结果为 Apache Livy 标准下的表格内容。
TEXT
Outputstring

代码执行结果,一个 JSON 格式的字符串,格式上符合 Apache Livy 的输出标准。

{"text/plain": "2"}
Columnsarray

当输出结果为表时,表的列名。

columnstring

列名。

col1
Errorstring

错误消息。

StackOverflow Exception:
StartTimelong

执行开始时间的毫秒级时间戳。

1730968056000
EndTimelong

执行结束时间的毫秒级时间戳。

1730968056000

示例

正常返回示例

JSON格式

{
  "RequestId": "1AD222E9-E606-4A42-BF6D-8A4442913CEF",
  "Data": {
    "StatementId": 123,
    "Code": "print(1+1)",
    "CodeType": "PYTHON",
    "CodeState": "RUNNING",
    "AliyunUid": 0,
    "OutputType": "TEXT",
    "Output": {
      "text/plain": 2
    },
    "Columns": [
      "col1"
    ],
    "Error": "StackOverflow Exception:",
    "StartTime": 1730968056000,
    "EndTime": 1730968056000
  }
}

错误码

HTTP status code错误码错误信息描述
400Spark.App.ExceedQuotaLimitationThe requested resource exceeds the maximum limit: %s-
400Spark.App.InvalidAppTypeWhenSubmitThe specified AppType is INVALID or NULL. Please refer to the documentation to correct the parameters for %s.AppType类型不合法,请参考使用文档指定适合业务的AppType,请关注配置类型:%s。
400Spark.App.InvalidResourceSpecThe requested resource type is not supported:\n %s-
400Spark.App.ParameterConflictConflicting parameters submitted:\n %s-
400Spark.App.ResourceNegativeErrorThe requested resource MUST be positive: %s-
400Spark.Config.InvalidAppFilePathThe main driver file MUST be a valid OSS path. Current is %s.主驱动文件地址必须是合法的OSS地址,当前的地址是 %s。
400Spark.Config.invalidConnectorsThe spark.adb.connectors configuration is invalid: %sspark.adb.connectors配置不正确。
400Spark.Config.InvalidDiskConfigThe requested disk mount parameter is invalid: %s磁盘挂载配置错误。
400Spark.Config.InvalidHostAliasConfigThe requested host alias parameter %s is invalid. Example: 127.0.0.1 localhost local域名映射配置错误。
400Spark.Config.InvalidLogOssPathThe OSS address for log storage is illegal: %s存储日志的OSS地址非法。
400Spark.Config.InvalidRoleArnFormatConfigure RoleARN %s invalid format. It should match acs:ram::uid_number:role/role_name配置的RoleARN格式错误。
400Spark.Config.InvalidTimeZoneUnable to parse time zone configuration %s : %s时区配置错误。
400Spark.Config.MainAppFileNotExistsThe main driver file is missing, [file] or [sqls] must be configured.主驱动文件缺失,必须保证file或者sqls配置不为空。
400Spark.Config.OSSPathAccessErrorThe configured OSS address %s cannot be accessed.配置的OSS路径无法访问。
400Spark.Config.OSSPathNotExistsThe OSS address %s requested does not exist or the permissions are insufficient.OSS路径不存在或当前用户无权限访问。
400Spark.Config.RoleArnVerifyFailedRoleARN parameter verification failed. Error msg: %s when verify RoleArn %sRoleARN参数校验失败。
400Spark.Config.SecurityGroupNotFoundThe security group in the configuration does not exist or cannot be accessed. %s.配置的资源组不存在或者因权限不足无法访问。%s。
400Spark.Config.VswitchNotFoundThe vswitch in the configuration does not exist or cannot be accessed. %s.无法找到配置虚拟机交换机,或当前账号权限不足。%s。
400Spark.InvalidParameterInvalid parameter value: %s输入参数不正确: %s。
400Spark.InvalidStateThe object of the operation is in an invalid state: %s操作对象处于非合法状态。
400Spark.RoleArn.Invalid%s is not found, or the RAM role has not been authorized.RoleArn不存在或子账号未授权。
400Spark.SQL.BlankErrorInput sql can not be blank string.提交SQL不能为空。
400Spark.SQL.MultipleSQLErrorElement in field [sqls] can not contain more than one sql statement: %s.提交的Spark SQL包含了多条可执行SQL。
400Spark.SQL.NotFoundExecutableSQLErrorNo executable statements are submitted. Please check the input SQL.Spark作业的SQL信息中不包含可执行语句。
400Spark.SQL.NotFoundExecutableSQLErrorThe execution part is not included in the current submitted SQL, please check the input SQL.提交的SQL中不包含可执行内容。
400Spark.SQL.ParserErrorSubmit spark app failed when parser SQL %s. Error message: %s.解析提交的Spark SQL失败。
403Spark.ForbiddenNo permissions to access the resources: %s权限不足,拒绝访问相关资源。您当前申请访问的信息是:%s。
404Spark.App.ContentNotFoundThe requested content %s of the Spark application is not found.找不到指定Spark作业的提交内容。
404Spark.App.NotFoundThe Spark application %s is not found.未能找到输入的 Spark App。
404Spark.ObjectNotFoundThe object is not found. More information: %s操作对象不存在。关联信息:%s。
500Spark.ServerErrorThe Spark control component system encountered an error, please create a ticket to solve the problem or concat the supported engineer on duty. Error message: %sSpark管控组件系统遇到错误,请提交工单,或联系值班工程师。

访问错误中心查看更多错误码。