CreateApsKafkaHudiJob - 创建APS Kafka入湖任务

更新时间:

创建APS Kafka入湖任务。

调试

您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。

授权信息

下表是API对应的授权信息,可以在RAM权限策略语句的Action元素中使用,用来给RAM用户或RAM角色授予调用此API的权限。具体说明如下:

  • 操作:是指具体的权限点。
  • 访问级别:是指每个操作的访问级别,取值为写入(Write)、读取(Read)或列出(List)。
  • 资源类型:是指操作中支持授权的资源类型。具体说明如下:
    • 对于必选的资源类型,用前面加 * 表示。
    • 对于不支持资源级授权的操作,用全部资源表示。
  • 条件关键字:是指云产品自身定义的条件关键字。
  • 关联操作:是指成功执行操作所需要的其他权限。操作者必须同时具备关联操作的权限,操作才能成功。
操作访问级别资源类型条件关键字关联操作
adb:CreateApsKafkaHudiJobnone
*DBClusterLakeVersion
acs:adb:{#regionId}:{#accountId}:dbcluster/{#DBClusterId}

请求参数

名称类型必填描述示例值
DBClusterIdstring

集群 ID。

说明 调用 DescribeDBClusters 接口可以查看目标地域下所有 AnalyticDB MySQL 湖仓版(3.0)集群的集群 ID。
amv-bp11q28kvl688****
RegionIdstring

地域 ID。

cn-hangzhou
PartitionSpecsarray<object>

分区信息。

object

"SourceColumn": 源端分区字段名。 "Strategy": 策略。

  1. 按照格式化日期: "ParseAsTimeAndFormat"。
  2. 指定分区字段:"CustomSpecify"。 � "SourceTypeFormat": 源端类型格式。 "TargetTypeFormat": 目标端类型格式。 "TargetColumn": 目标端分区字段名。

其中 SourceTypeFormat 枚举及含义如下,右侧对应时间精度。 APSLiteralTimestampMilliSecond ->毫秒级精度。 APSLiteralTimestampMicroSecond -> 微秒级精度。 APSLiteralTimestampSecond -> 秒级精度。 APSMIDyyyyMMddHHmmssSSS -> yyyy-MM-dd HH:mm:ss.SSS。 APSMIDyyyyMMddHHmmss -> yyyy-MM-dd HH:mm:ss APSMIDyyyyMMdd -> yyyy-MM-dd。 APSyyyyMMddHHmmss -> yyyyMMddHHmmss。 �APSyyyyMMdd -> yyyyMMdd。 APSyyyyMM -> yyyyMM。 APSSLAyyyyMMdd -> yyyy/MM/dd。 APSSLAMMddyyyy -> MM/dd/yyyy。

[{ "SourceColumn": "NetOutFlow", "Strategy": "ParseAsTimeAndFormat", "SourceTypeFormat": "APSLiteralTimestampSecond", "TargetTypeFormat": "yyyy-MM-dd", "TargetColumn": "NetOutFlow" }]
Columnsarray<object>

列信息。

object

列信息。

Namestring

源端字段名称。

a
MapNamestring

目标端字段名称。

b
Typestring

源端字段类型。

string
MapTypestring

目标端字段类型。

string
PrimaryKeyDefinitionstring

主键设置。包含 uuid 策略和映射策略。解释如下。 Uuid 策略: "Strategy": "uuid"。 映射策略: "Strategy": "mapping", "Values":[ "f1", "f2" ], "RecordVersionField","xxx" 其中 RecordVersionField 的含义是 HUDI 记录版本。

"Strategy": "mapping"
WorkloadNamestring

Workload 的名称。

test
LakehouseIdlong

Lakehouse 的 ID。

123
ResourceGroupstring

资源组名称。

aps
HudiAdvancedConfigstring

目标端 HUDI 配置。

hoodie.keep.min.commits=20
AdvancedConfigstring

高级配置。

-
FullComputeUnitstring

全量同步配置。

2ACU
IncrementalComputeUnitstring

增量同步配置。

2ACU
KafkaClusterIdstring

Kafka 实例 ID。可以在 Kafka 控制台获取。

xxx
KafkaTopicstring

Kafka Topic ID。可以在 Kafka 控制台获取。

test
StartingOffsetsstring

Kafka 起始消费位点。 枚举如下: begin_cursor/end_cursor/timestamp 分别对应最早/最近/指定时间。

begincursor
MaxOffsetsPerTriggerlong

单次消费条数。

50000
DbNamestring

用户自定义的数据库名称。

testDB
TableNamestring

用户自定义的表名称。

testTB
OutputFormatstring

输出数据格式。

HUDI
TargetTypestring

目标端类型。

OSS
TargetGenerateRulestring

目标生成规则。

xxx
AcrossUidstring

源端 Kafka 所属的阿里云账号的 ID。

123************
AcrossRolestring

可信实体为阿里云账号的 RAM 角色。如何创建 RAM 角色,请参见创建可信实体为阿里云账号的 RAM 角色。 RAM 角色中已将 AnalyticDB MySQL 所属阿里云账号设置为 Kafka 所属阿里云账号的信任云账号。

aps
JsonParseLevelinteger

设置 JSON 的嵌套解析层数,取值如下。 0:不做解析。 1:解析一层。 2:解析两层。 3:解析三层。 4:解析四层。 默认会解析一层。JSON 的嵌套解析策略具体可见 JSON 解析层级和 Schema 字段推断示例。

0
DataOutputFormatstring

枚举值及说明。 Single:源端是单行的 Json 记录。 Multi:源端是 Json 数组。需要输出单条 Json 记录。

Single
OssLocationstring

目的端湖仓地址,完整 OSS 路径。

oss://test-xx-zzz/yyy/
DatasourceIdlong

数据源 ID。

1

返回参数

名称类型描述示例值
object
HttpStatusCodeinteger

HTTP 状态码。

200
Datastring

返回创建的任务 ID。

xxx
RequestIdstring

请求 ID。

1A943417-5B0E-1DB9-A8**-A566****C3
Successboolean

是否请求成功。 True:成功。False:不成功。

true
Codestring

同 HTTP 状态码。

200
Messagestring

返回消息。

ok

示例

正常返回示例

JSON格式

{
  "HttpStatusCode": 200,
  "Data": "xxx",
  "RequestId": "1A943417-5B0E-1DB9-A8**-A566****C3",
  "Success": true,
  "Code": 200,
  "Message": "ok"
}

错误码

访问错误中心查看更多错误码。