文档

CreateTable - 新增元数据表

更新时间:

新增数据湖的元数据表。

调试

您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。

授权信息

下表是API对应的授权信息,可以在RAM权限策略语句的Action元素中使用,用来给RAM用户或RAM角色授予调用此API的权限。具体说明如下:

  • 操作:是指具体的权限点。
  • 访问级别:是指每个操作的访问级别,取值为写入(Write)、读取(Read)或列出(List)。
  • 资源类型:是指操作中支持授权的资源类型。具体说明如下:
    • 对于必选的资源类型,用背景高亮的方式表示。
    • 对于不支持资源级授权的操作,用全部资源表示。
  • 条件关键字:是指云产品自身定义的条件关键字。
  • 关联操作:是指成功执行操作所需要的其他权限。操作者必须同时具备关联操作的权限,操作才能成功。
操作访问级别资源类型条件关键字关联操作
dlf:CreateTable
  • 全部资源
    *

请求语法

POST /api/metastore/catalogs/databases/tables

请求参数

名称类型必填描述示例值
Bodyobject

HTTP 请求体(HTTP BODY)内容,均采用 JSON 格式

CatalogIdstring

数据库分类命名空间,默认填写主账号 Uid

1344371
DatabaseNamestring

元数据库名称

database_test
TableInputTableInput

元数据表详细信息

返回参数

名称类型描述示例值
object

返回结果

Codestring

状态码描述

OK
Messagestring

提示相关错误信息

.
RequestIdstring

请求 ID

B7F4B621-E41E-4C84-B97F-42B5380A32BB
Successboolean

是否成功

true

Code 错误码说明
InvalidObject:name/partition/column/skewCol 校验不通过
AlreadyExists:对应的元数据表已经存在
NoSuchObject:对应的元数据库不存在
InternalError:其他类型错误,请参考 Message 提示

示例

正常返回示例

JSON格式

{
  "Code": "OK",
  "Message": ".",
  "RequestId": "B7F4B621-E41E-4C84-B97F-42B5380A32BB",
  "Success": true
}

JSON格式

{
  "Code": "OK",
  "Message": ".",
  "RequestId": "B7F4B621-E41E-4C84-B97F-42B5380A32BB",
  "Success": true
}

错误码

访问错误中心查看更多错误码。

注:表支持的数据格式
创建表时用户必须指定数据格式,参数示例如下
avro 格式:
table.Parameters: {"classification":"avro"}
table.Sd:
"InputFormat":"org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat"
"OutputFormat":"org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat"
"SerdeInfo":{"SerializationLib":"org.apache.hadoop.hive.serde2.avro.AvroSerDe","Parameters":{"serialization.format":"1"}}
json 格式:
table.Parameters:{"classification":"json"}
table.Sd:
"InputFormat":"org.apache.hadoop.mapred.TextInputFormat"
"OutputFormat":"org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat"
"SerdeInfo":{"Parameters":{"paths":","},"SerializationLib":"org.apache.hive.hcatalog.data.JsonSerDe"}
xml 格式
table.Parameters:{"classification":"json"}
"InputFormat":"com.ibm.spss.hive.serde2.xml.XmlInputFormat"
"OutputFormat":"org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat",
"SerdeInfo":{"Parameters":{"rowTag":""},"SerializationLib":"com.ibm.spss.hive.serde2.xml.XmlSerDe"}
parquet 格式
table.Parameters:{"classification":"parquet"}
"InputFormat":"org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat"
"OutputFormat":"org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat"
"SerdeInfo":{"Parameters":{"serialization.format":"1"},"SerializationLib":"org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe"}
csv 格式
table.Parameters:{"classification":"csv"}
"InputFormat":"org.apache.hadoop.mapred.TextInputFormat",
"OutputFormat":"org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat",
"SerdeInfo":{"Parameters":{"separatorChar":","},"SerializationLib":"org.apache.hadoop.hive.serde2.OpenCSVSerde"}
注意:separatorChar(分隔符)页面填的,比如“,” 逗号
orc 格式
table.Parameters:{"classification":"orc"}
"InputFormat":"org.apache.hadoop.hive.ql.io.orc.OrcInputFormat",
"OutputFormat":"org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat",
"SerdeInfo":{"Parameters":{},"SerializationLib":"org.apache.hadoop.hive.ql.io.orc.OrcSerde"}

  • 本页导读 (0)