创建APS Kafka入湖任务。
调试
您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。
授权信息
下表是API对应的授权信息,可以在RAM权限策略语句的Action
元素中使用,用来给RAM用户或RAM角色授予调用此API的权限。具体说明如下:
- 操作:是指具体的权限点。
- 访问级别:是指每个操作的访问级别,取值为写入(Write)、读取(Read)或列出(List)。
- 资源类型:是指操作中支持授权的资源类型。具体说明如下:
- 对于必选的资源类型,用前面加 * 表示。
- 对于不支持资源级授权的操作,用
全部资源
表示。
- 条件关键字:是指云产品自身定义的条件关键字。
- 关联操作:是指成功执行操作所需要的其他权限。操作者必须同时具备关联操作的权限,操作才能成功。
操作 | 访问级别 | 资源类型 | 条件关键字 | 关联操作 |
---|---|---|---|---|
adb:CreateApsKafkaHudiJob | none | *DBClusterLakeVersion acs:adb:{#regionId}:{#accountId}:dbcluster/{#DBClusterId} |
| 无 |
请求参数
名称 | 类型 | 必填 | 描述 | 示例值 |
---|---|---|---|---|
DBClusterId | string | 是 | 集群 ID。 说明
调用 DescribeDBClusters 接口可以查看目标地域下所有 AnalyticDB MySQL 湖仓版(3.0)集群的集群 ID。
| amv-bp11q28kvl688**** |
RegionId | string | 是 | 地域 ID。 | cn-hangzhou |
PartitionSpecs | array<object> | 否 | 分区信息。 | |
object | 否 | "SourceColumn": 源端分区字段名。 "Strategy": 策略。
其中 SourceTypeFormat 枚举及含义如下,右侧对应时间精度。 APSLiteralTimestampMilliSecond ->毫秒级精度。 APSLiteralTimestampMicroSecond -> 微秒级精度。 APSLiteralTimestampSecond -> 秒级精度。 APSMIDyyyyMMddHHmmssSSS -> yyyy-MM-dd HH:mm:ss.SSS。 APSMIDyyyyMMddHHmmss -> yyyy-MM-dd HH:mm:ss APSMIDyyyyMMdd -> yyyy-MM-dd。 APSyyyyMMddHHmmss -> yyyyMMddHHmmss。 �APSyyyyMMdd -> yyyyMMdd。 APSyyyyMM -> yyyyMM。 APSSLAyyyyMMdd -> yyyy/MM/dd。 APSSLAMMddyyyy -> MM/dd/yyyy。 | [{ "SourceColumn": "NetOutFlow", "Strategy": "ParseAsTimeAndFormat", "SourceTypeFormat": "APSLiteralTimestampSecond", "TargetTypeFormat": "yyyy-MM-dd", "TargetColumn": "NetOutFlow" }] | |
Columns | array<object> | 是 | 列信息。 | |
object | 是 | 列信息。 | ||
Name | string | 否 | 源端字段名称。 | a |
MapName | string | 否 | 目标端字段名称。 | b |
Type | string | 否 | 源端字段类型。 | string |
MapType | string | 否 | 目标端字段类型。 | string |
PrimaryKeyDefinition | string | 否 | 主键设置。包含 uuid 策略和映射策略。解释如下。 Uuid 策略: "Strategy": "uuid"。 映射策略: "Strategy": "mapping", "Values":[ "f1", "f2" ], "RecordVersionField","xxx" 其中 RecordVersionField 的含义是 HUDI 记录版本。 | "Strategy": "mapping" |
WorkloadName | string | 是 | Workload 的名称。 | test |
LakehouseId | long | 否 | Lakehouse 的 ID。 | 123 |
ResourceGroup | string | 是 | 资源组名称。 | aps |
HudiAdvancedConfig | string | 否 | 目标端 HUDI 配置。 | hoodie.keep.min.commits=20 |
AdvancedConfig | string | 否 | 高级配置。 | - |
FullComputeUnit | string | 否 | 全量同步配置。 | 2ACU |
IncrementalComputeUnit | string | 是 | 增量同步配置。 | 2ACU |
KafkaClusterId | string | 否 | Kafka 实例 ID。可以在 Kafka 控制台获取。 | xxx |
KafkaTopic | string | 否 | Kafka Topic ID。可以在 Kafka 控制台获取。 | test |
StartingOffsets | string | 是 | Kafka 起始消费位点。 枚举如下: begin_cursor/end_cursor/timestamp 分别对应最早/最近/指定时间。 | begincursor |
MaxOffsetsPerTrigger | long | 否 | 单次消费条数。 | 50000 |
DbName | string | 是 | 用户自定义的数据库名称。 | testDB |
TableName | string | 是 | 用户自定义的表名称。 | testTB |
OutputFormat | string | 否 | 输出数据格式。 | HUDI |
TargetType | string | 否 | 目标端类型。 | OSS |
TargetGenerateRule | string | 否 | 目标生成规则。 | xxx |
AcrossUid | string | 否 | 源端 Kafka 所属的阿里云账号的 ID。 | 123************ |
AcrossRole | string | 否 | 可信实体为阿里云账号的 RAM 角色。如何创建 RAM 角色,请参见创建可信实体为阿里云账号的 RAM 角色。 RAM 角色中已将 AnalyticDB MySQL 所属阿里云账号设置为 Kafka 所属阿里云账号的信任云账号。 | aps |
JsonParseLevel | integer | 否 | 设置 JSON 的嵌套解析层数,取值如下。 0:不做解析。 1:解析一层。 2:解析两层。 3:解析三层。 4:解析四层。 默认会解析一层。JSON 的嵌套解析策略具体可见 JSON 解析层级和 Schema 字段推断示例。 | 0 |
DataOutputFormat | string | 否 | 枚举值及说明。 Single:源端是单行的 Json 记录。 Multi:源端是 Json 数组。需要输出单条 Json 记录。 | Single |
OssLocation | string | 否 | 目的端湖仓地址,完整 OSS 路径。 | oss://test-xx-zzz/yyy/ |
DatasourceId | long | 否 | 数据源 ID。 | 1 |
返回参数
示例
正常返回示例
JSON
格式
{
"HttpStatusCode": 200,
"Data": "xxx",
"RequestId": "1A943417-5B0E-1DB9-A8**-A566****C3",
"Success": true,
"Code": 200,
"Message": "ok"
}
错误码
访问错误中心查看更多错误码。