ExecuteSparkWarehouseBatchSQL - 批量执行Spark SQL

更新时间:

批量执行Spark SQL。

接口说明

  • 地域的公网接入地址:adb.<region-id>.aliyuncs.com。示例:adb.cn-hangzhou.aliyuncs.com
  • 地域的 VPC 接入地址:adb-vpc.<region-id>.aliyuncs.com。示例:adb-vpc.cn-hangzhou.aliyuncs.com
说明 如果华北 1(青岛)、华南 1(深圳)、华南 3(广州)、中国香港发起请求时,遇到 409 错误,请联系技术支持。

调试

您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。

授权信息

下表是API对应的授权信息,可以在RAM权限策略语句的Action元素中使用,用来给RAM用户或RAM角色授予调用此API的权限。具体说明如下:

  • 操作:是指具体的权限点。
  • 访问级别:是指每个操作的访问级别,取值为写入(Write)、读取(Read)或列出(List)。
  • 资源类型:是指操作中支持授权的资源类型。具体说明如下:
    • 对于必选的资源类型,用前面加 * 表示。
    • 对于不支持资源级授权的操作,用全部资源表示。
  • 条件关键字:是指云产品自身定义的条件关键字。
  • 关联操作:是指成功执行操作所需要的其他权限。操作者必须同时具备关联操作的权限,操作才能成功。
操作访问级别资源类型条件关键字关联操作
adb:ExecuteSparkWarehouseBatchSQLnone
*全部资源
*

请求参数

名称类型必填描述示例值
Agencystring

客户标记提交的客户端类型,可以是任意合法的纯英文字符串,如 Aliyun Dataworks。

Dataworks。
DBClusterIdstring

集群 ID。

amv-bp11q28kvl688****
ResourceGroupNamestring

资源组名称。

test
Querystring

需要批量执行的 SQL 语句。多个 SQL 之间用英文分号(;)分隔。 执行引擎会按照顺序在同一个会话中依次执行这些 SQL。

CREATE TABLE user(id INT, name STRING); INSERT INTO t VALUE(1, 'Bob'); SELECT * FROM t;
Schemastring

数据库名称。

adb_demo
ExecuteResultLimitlong

抽取部分数据写入 OSS。单位为 MB,默认值为 4096。由于压缩后文件的大小难以准确估计,实际写入到 OSS 中的数据会小于此处的配置值。

4096
ExecuteTimeLimitInSecondslong

最大允许可执行时长,单位为秒(s)。如果一组 SQL 在提交后长时间未能执行成功,会被标记为超时失败。默认值为 360000 秒即为 100 小时。

3600000
RuntimeConfigstring

执行 SQL 时的额外运行参数,输入结构需要是一个 JSON 字符串。

这里允许写入所有 Apache Spark 官方文档中的运行时 SQL 配置。

同时此处还包含了用于当前 API 的控制参数,对写 OSS 的行为进行控制,说明如下:

spark.adb.sqlOutputFormat: 写入到 OSS 中的文件格式,默认值是CSV。可选值为CSV,JSON

spark.adb.sqlOutputPartitions: 写入到 OSS 中的 SQL 结果的分区数,默认值为 1。

spark.adb.sqlOutputLocation:指定写入 OSS 的地址,SQL 执行结果的抽样会被写入到该地址。此配置为空,则不会讲 SQL 执行结果的抽样数据写入 OSS。

spark.adb.sqlIgnorePersistError:是否忽略写抽样结果时发生的错误,默认值为false。当配置为true时,执行过程中 SQL 执行成功,但 SQL 结果的抽样信息写入 OSS 失败不会打断执行步骤。

{ "OSSURL": "oss://testBucketname/" }

返回参数

名称类型描述示例值
object

Schema of Response

RequestIdstring

请求 ID。

CBE843D8-964D-5EA3-9D31-822125611B6E
DataSparkBatchSQL

返回数据体。

true

示例

正常返回示例

JSON格式

{
  "RequestId": "CBE843D8-964D-5EA3-9D31-822125611B6E",
  "Data": {
    "QueryId": "sq172352176****",
    "QueryState": "RUNNING",
    "QuerySubmissionTime": 1723521767000,
    "QueryStartTime": 1723521767000,
    "QueryEndTime": 1723521767000,
    "Schema": "default",
    "Uid": 0,
    "DBClusterId": "amv-bp17s73f016****",
    "ResourceGroupName": "spark_rg",
    "Query": "SELECT * FROM db.tb",
    "Statements": [
      {
        "ResultUri": "oss://yourbucket/result.json",
        "EndTime": 1723521767000,
        "AppId": "s20240122jsdx****",
        "StatementId": "sq1723521767****-0001",
        "State": "RUNNING",
        "StartTime": 1723521767000,
        "Error": "table is not found",
        "Code": "SELECT 100",
        "Result": "+---+-----+\n|age| name|\n+---+-----+\n| 14|  Tom|\n| 23|Alice|\n+---+-----+"
      }
    ],
    "ErrMessage": "schema is not found"
  }
}

错误码

HTTP status code错误码错误信息描述
400Spark.InvalidParameterInvalid parameter value: %s输入参数不正确: %s。
400Spark.InvalidStateThe object of the operation is in an invalid state: %s操作对象处于非合法状态。
404Spark.ObjectNotFoundThe object is not found. More information: %s操作对象不存在。关联信息:%s。
500Spark.ServerErrorThe Spark control component system encountered an error, please create a ticket to solve the problem or concat the supported engineer on duty. Error message: %sSpark管控组件系统遇到错误,请提交工单,或联系值班工程师。

访问错误中心查看更多错误码。