文档

GetSparkDefinitions - 查询Spark的通用定义内容

更新时间:

查询Spark的通用定义内容。

接口说明

  • 地域的公网接入地址:adb.<region-id>.aliyuncs.com。示例:adb.cn-hangzhou.aliyuncs.com
  • 地域的 VPC 接入地址:adb-vpc.<region-id>.aliyuncs.com。示例:adb-vpc.cn-hangzhou.aliyuncs.com
说明 如果华北 1(青岛)、华南 1(深圳)、华南 3(广州)、中国香港发起请求时,遇到 409 错误,请联系技术支持。

调试

您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。

授权信息

下表是API对应的授权信息,可以在RAM权限策略语句的Action元素中使用,用来给RAM用户或RAM角色授予调用此API的权限。具体说明如下:

  • 操作:是指具体的权限点。
  • 访问级别:是指每个操作的访问级别,取值为写入(Write)、读取(Read)或列出(List)。
  • 资源类型:是指操作中支持授权的资源类型。具体说明如下:
    • 对于必选的资源类型,用背景高亮的方式表示。
    • 对于不支持资源级授权的操作,用全部资源表示。
  • 条件关键字:是指云产品自身定义的条件关键字。
  • 关联操作:是指成功执行操作所需要的其他权限。操作者必须同时具备关联操作的权限,操作才能成功。
操作访问级别资源类型条件关键字关联操作
adb:GetSparkDefinitionsget
  • DBClusterLakeVersion
    acs:adb:{#regionId}:{#accountId}:dbcluster/{#DBClusterId}

请求参数

名称类型必填描述示例值
DBClusterIdstring

企业版、基础版或湖仓版集群 ID。

amv-bp1r77u35w0****

返回参数

名称类型描述示例值
object

Schema of Response

RequestIdstring

请求 ID。

D65A809F-34CE-4550-9BC1-0ED21ETG380
Datastring

AnalyticDB MySQL Spark 应用的通用定义内容。

{"SQLTemplateExample": "-- Here is just an example of SparkSQL. Modify the content and run your spark program. conf spark.driver.resourceSpec=medium; conf spark.executor.instances=2; conf spark.executor.resourceSpec=medium; conf spark.app.name=Spark SQL Test; conf spark.adb.connectors=oss; -- Here are your sql statements show databases;", "BatchTemplateExample": "{ "comments": [ "-- Here is just an example of SparkPi. Modify the content and run your spark program." ], "args": ["1000"], "file":"local:///tmp/spark-examples.jar", "name": "SparkPi", "className": "org.apache.spark.examples.SparkPi", "conf": { "spark.driver.resourceSpec": "medium", "spark.executor.instances": 2, "spark.executor.resourceSpec": "medium" } }"

示例

正常返回示例

JSON格式

{
  "RequestId": "D65A809F-34CE-4550-9BC1-0ED21ETG380",
  "Data": "{\"SQLTemplateExample\": \"-- Here is just an example of SparkSQL. Modify the content and run your spark program.\nconf spark.driver.resourceSpec=medium;\nconf spark.executor.instances=2;\nconf spark.executor.resourceSpec=medium;\nconf spark.app.name=Spark SQL Test;\nconf spark.adb.connectors=oss;\n\n-- Here are your sql statements\nshow databases;\",\n                 \"BatchTemplateExample\": \"{\n    \"comments\": [\n        \"-- Here is just an example of SparkPi. Modify the content and run your spark program.\"\n    ],\n    \"args\": [\"1000\"],\n  \"file\":\"local:///tmp/spark-examples.jar\",\n    \"name\": \"SparkPi\",\n    \"className\": \"org.apache.spark.examples.SparkPi\",\n    \"conf\": {      \"spark.driver.resourceSpec\": \"medium\",\n        \"spark.executor.instances\": 2,\n        \"spark.executor.resourceSpec\": \"medium\"\n    }\n}\"\n"
}

错误码

HTTP status code错误码错误信息描述
400Spark.InvalidParameterInvalid parameter value: %s输入参数不正确。
400Spark.InvalidStateThe object of the operation is in an invalid state: %s操作对象处于非合法状态。
400Spark.AnalyzeTask.AppStateNotAcceptedOnly Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement.只允许分析处于终止状态的 Spark app。指定 app 不满足条件。
400Spark.AnalyzeTask.FailedToKillFailed to terminate the Spark log analysis task %s, because the task status has changed. Obtain the latest status and try again.杀死Spark日志分析任务的请求执行失败,因为对应任务状态已经发生了变化。请获取分析任务最新状态后执行。
400Spark.AnalyzeTask.InvalidStateWhenAnalyzingAppOnly logs of Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement.仅允许针对处于终止状态的Spark作业执行日志分析程序。当前作业不满足条件。
400Spark.App.InvalidResourceSpecThe requested resource type is not supported:\n %s-
400Spark.App.ParameterConflictConflicting parameters submitted:\n %s-
400Spark.Config.invalidConnectorsThe spark.adb.connectors configuration is invalid: %sspark.adb.connectors配置不正确。
400Spark.Config.RoleArnVerifyFailedRoleARN parameter verification failed. Error msg: %s when verify RoleArn %sRoleARN参数校验失败。
400Spark.Log.InvalidStateFailed to obtain the logs of the Spark job %s in the %s state.无法获取指定Spark作业的日志。
400Spark.SQL.NotFoundExecutableSQLErrorNo executable statements are submitted. Please check the input SQL.Spark作业的SQL信息中不包含可执行语句。
400Spark.SQL.ParserErrorFailed to parse the SQL %s. Error message: %s.Spark作业信息中的SQL无法解析。
404Spark.AnalyzeTask.NotFoundThe requested analysis task %s is not found.请求查看的日志分析任务 %s 不存在。
404Spark.App.ContentNotFoundThe requested content %s of the Spark application is not found.找不到指定Spark作业的提交内容。
404Spark.ObjectNotFoundThe object is not found. More information: %s操作对象不存在。关联信息:%s。
404Spark.TemplateFile.FileNotFoundThe template file %s is not found.未能找到输入的模板文件。
404Spark.TemplateFile.TemplateNotFoundThe template %s is not found.模板文件未找到。
500Spark.ServerErrorThe Spark control component system encountered an error, please create a ticket to solve the problem or concat the supported engineer on duty. Error message: %sSpark管控组件系统遇到错误,请提交工单,或联系值班工程师。
500Spark.Resources.LoadFileFromClasspathFailedCan't load the content from file: %s加载资源文件失败。

访问错误中心查看更多错误码。

变更历史

变更时间变更内容概要操作
2023-06-28OpenAPI 错误码发生变更查看变更详情