调用ModifyFlowJob接口,修改数据开发作业。

调试

您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。

请求参数

名称 类型 是否必选 示例值 描述
Action String ModifyFlowJob

系统规定参数。取值:ModifyFlowJob

RegionId String cn-hangzhou

地域ID。

ProjectId String FP-3535FE0BE5228***

项目ID。您可以调用ListFlowProjects查看项目的ID。

Id String FJ-1A2FB31D8295****

需要修改的作业的ID。您可以调用ListFlowJobs查看ID。

Name String my_updated_job_name

修改后的作业名称。

Description String 这是一个修改后的作业描述

修改后的作业描述。

FailAct String CONTINUE

失败策略,可能的取值:CONTINUE(提过本次作业),STOP(停止作业)

RetryPolicy String

重试策略,保留参数。

Params String oss://bucket_name/jar_to_run.jar

作业内容。如果是spark作业,该参数的内容会作为spark-submit的参数。

ParamConf String {"date":"${yyyy-MM-dd}"}

参数设置。

CustomVariables String {\"scope\":\"PROJECT\",\"entityId\":\"FP-80C2FDDBF35D9CC5\",\"variables\":[{\"name\":\"v1\",\"value\":\"1\",\"properties\":{\"password\":true}}]}

自定义变量。

EnvConf String {"key":"value"}

环境变量设置。

KnoxUser String my_knox_user_name

Knox的用户名,执行Zeppelin Notebook时必须提供。

KnoxPassword String my_knox_password

Knox的用户密码,执行Zeppelin Notebook时必须提供。

RunConf String {"priority":1,"userName":"hadoop","memory":2048,"cores":1}

运行配置,取值如下:priority(优先级),userName(任务的Linux提交用户),memory(内存,单位为MB),cores(核数)

MonitorConf String {"inputs":[{"type":"KAFKA","clusterId":"C-1234567","topics":"kafka_topic","consumer.group":"kafka_consumer_group"}],"outputs":[{"type":"KAFKA","clusterId":"C-1234567","topics":"kafka_topic"}]}

监控配置,仅SPARK_STREAMING类型作业支持监控配置。

Mode String YARN

模型模式,取值如下: YARN:将作业包装成一个Launcher提交至YARN中执行,LOCAL:作业直接在机器上以进程方式运行。

ClusterId String C-A23BD131A862****

集群ID。您可以调用ListClusters查看集群的ID。

AlertConf String

保留参数。

ResourceList.N.Path String

保留参数。

ResourceList.N.Alias String

保留参数。

返回数据

名称 类型 示例值 描述
Data Boolean true

API调用结果:true(修改成功),false(修改失败)

RequestId String 1549175a-6d14-4c8a-89f9-5e28300f6d7e

请求ID。

示例

请求示例

http(s)://[Endpoint]/?Action=ModifyFlowJob
&RegionId=cn-hangzhou
&ProjectId=FP-3535FE0BE5228***
&Id=FJ-1A2FB31D8295****
&Name=my_updated_job_name
&Description=这是一个修改后的作业描述
&FailAct=CONTINUE
&Params=oss://bucket_name/jar_to_run.jar
&ParamConf={"date":"${yyyy-MM-dd}"}
&CustomVariables={\"scope\":\"PROJECT\",\"entityId\":\"FP-80C2FDDBF35D9CC5\",\"variables\":[{\"name\":\"v1\",\"value\":\"1\",\"properties\":{\"password\":true}}]}
&EnvConf={"key":"value"}
&KnoxUser=my_knox_user_name
&KnoxPassword=my_knox_password
&RunConf={"priority":1,"userName":"hadoop","memory":2048,"cores":1}
&MonitorConf={"inputs":[{"type":"KAFKA","clusterId":"C-1234567","topics":"kafka_topic","consumer.group":"kafka_consumer_group"}],"outputs":[{"type":"KAFKA","clusterId":"C-1234567","topics":"kafka_topic"}]}
&Mode=YARN
&ClusterId=C-A23BD131A862****
&公共请求参数

正常返回示例

XML格式

HTTP/1.1 200 OK
Content-Type:application/xml

<ModifyFlowJobResponse>
    <Data>true</Data>
    <RequestId>1549175a-6d14-4c8a-89f9-5e28300f6d7e</RequestId>
</ModifyFlowJobResponse>

JSON格式

HTTP/1.1 200 OK
Content-Type:application/json

{
  "Data" : true,
  "RequestId" : "1549175a-6d14-4c8a-89f9-5e28300f6d7e"
}

错误码

访问错误中心查看更多错误码。

访问错误中心查看更多错误码。