简介

API 应用程序编程接口 用户开放API,在API网关录入API,以提供接口的方式对外提供服务或者数据。Group API Group API分组 一组API。用户开放API,首先需要创建API分组 每个API分组拥有一个二级域名,两个Stage 用户需要将已经备案且解析至...

基础术语

中文 释义 API 应用程序编程接口,是一些预先定义的函数,或指软件系统不同组成部分衔接的约定。API 分组 用于将 API 进行逻辑的分组,同个分组下的 API 使用相同的分组标识做隔离。分组标识 是网关全局的唯一标识,用于定位在访问的 API。...

开启权限认证

drwxr-x-x-emrtest hadoop 0 2022-10-21 14:08/tmp/emrtest drwxr-x-x-hadoop hadoop 0 2022-10-21 10:06/tmp/hadoop-yarn drwx-wx-wx-hive hadoop 0 2022-10-21 10:13/tmp/hive drwxr-x-x-hadoop hadoop 0 2022-10-21 10:23/tmp/kyuubi-...

HAS Kerberos认证使用方法

Found 6 items drwxr-xr-x-hadoop hadoop 0 2021-03-29 11:16/apps drwxrwxrwx-flowagent hadoop 0 2021-03-29 11:18/emr-flow drwxr-x-has hadoop 0 2021-03-29 11:16/emr-sparksql-udf drwxrwxrwt-hadoop hadoop 0 2021-03-29 11:17/...

通过RootPolicy访问

drwxr-x-x-hdfs hadoop 0 2023-01-05 12:27 hdfs:/<your_ns_name>/apps drwxrwxrwx-spark hadoop 0 2023-01-05 12:27 hdfs:/<your_ns_name>/spark-history drwxrwxrwx-hdfs hadoop 0 2023-01-05 12:27 hdfs:/<your_ns_name>/tmp drwxrwxrwx...

使用Cruise Control

rw-r-r-1 kafka hadoop 109095 Jul 20 15:07 kafkacruisecontrol.log-rw-r-r-1 kafka hadoop 0 Jul 20 15:07 kafkacruisecontrol-operation.log-rw-r-r-1 kafka hadoop 87452 Jul 20 15:07 kafka-cruise-control.out-rw-r-r-1 kafka hadoop...

报错“error occurred where call hadoop api

问题描述 Dataphin管道任务失败,报错“error occurred where call hadoop api”。问题原因 Hive表字段改动导致。Hive表字段改动是要更新管道任务配置的,Hive输出组件的配置要求Hive表字段全部映射,否则就不允许提交,如果是TEXTFILE格式...

利用MaxCompute External Volume处理非结构化数据

Archive类型除了下载文件,还会在当前工作目录自动解压文件,此时需要用到两个 External Volume相关的参数来指引Spark程序处理External Volume对象包含的OSS数据:说明 以下参数需要配置在DataWorks的ODPS Spark节点配置项的 参数 中或配置...

DescribeApisByIpControl-查询IP访问控制绑定的API

接口说明 此功能面向开放 API 的用户 分页返回 调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 当前API暂无授权信息透出。请求参数 名称 ...

DescribeApisByTrafficControl-查询指定流控策略下已...

接口说明 此功能面向开放 API 的用户 分页返回 调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 当前API暂无授权信息透出。请求参数 名称 ...

DescribeApiTrafficControls-查询API流控策略绑定概况

接口说明 此功能面向开放 API 的用户 非必填的参数,不传入则默认返回所有,分页返回 调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 下表是...

DescribeApiSignatures-查询API签名密钥绑定情况

接口说明 此功能面向开放 API 的用户 非必填的参数,不传入则默认返回所有,分页返回 调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 下表是...

DescribeApisBySignature-查询签名密钥绑定的API列表

接口说明 此功能面向开放 API 的用户 分页返回 调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 下表是API对应的授权信息,可以在RAM权限策略...

Python内置资源包

yarn-api-client>=0.2.3 Yarn-api客户端。Matplotlib 无 算法基础处理。Dataphin 内使用 PyHive和 PyOdps。在Dataphin内,除了支持本地方式使用 PyHive和 PyOdps外,还支持通过使用 from dataphin import odps 和 from dataphin import ...

Python内置资源包

yarn-api-client>=0.2.3 Yarn-api客户端。Matplotlib 无 算法基础处理。Dataphin 内使用 PyHive和 PyOdps。在Dataphin内,除了支持本地方式使用 PyHive和 PyOdps外,还支持通过使用 from dataphin import odps 和 from dataphin import ...

产品计费

阶梯范围(调用次数)公共云单价(元/万次)金融云单价(元/万次)0-10 万 0.00 0.00 10 万-1000 万 0.20 0.50 1000 万-1 亿 0.16 0.40 1 亿以上 0.12 0.32 计费示例 以公共云为例:用户 A 于某月 1 日 0 点至 1 点,有效调用 9 万次 API,...

支持HTTP2.0

API网关支持HTTP2.0 API网关支持HTTP2.0新特性,支持API请求多路复用、支持请求头压缩。多路复用(MultiPlexing):消除了 HTTP 1.x 中并行处理和发送请求及响应时对多个连接的依赖。可客户端和服务器可以把HTTP消息分解为互不依赖的帧,...

DescribeDeployedApis-查询已发布 API 列表

接口说明 此功能面向开放 API 的用户 调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 下表是API对应的授权信息,可以在RAM权限策略语句的 ...

新功能发布记录

API操作历史 API的操作历史中添加插件相关的操作记录 全部 查看API操作历史 BasicAuth插件数据集 BasicAuth插件数据集支持特殊字符 全部 BasicAuth插件 2023-10 功能名称 功能描述 发布地域 相关文档 OAS3.0 API网关支持OAS3.0的导入导出 ...

使用限制

本文主要介绍 文件存储 HDFS 版 的产品规格限制、协议功能限制、Hadoop fs命令限制及API限制。文件系统限制 限制项 限制说明 每个账号在单个地域内可创建的文件系统数量 3个 单个文件系统可创建的挂载点数量 2个 单个文件系统同一时刻可...

Apache Impala(CDH6)查询OSS数据

CDH是Cloudera提供的包含Apache Hadoop核心组件的企业级大数据发行版,已支持Hadoop 3.0.0。本文将详解如何配置CDH6环境下的Hadoop、Hive、Spark、Impala等组件,以实现对接阿里云OSS存储服务进行数据查询操作。前提条件 已搭建CDH6 集群。...

SDK示例

建议使用最新版SDK-><version>1.0.5</version></dependency>应用初始化 在使用Hadoop FileSystem API访问 文件存储 HDFS 版 文件系统之前,需要先确保已加载 文件存储 HDFS 版 相关的配置,然后再实例化FileSystem。初始化代码样例如下。已...

迁移HDFS数据到OSS-HDFS

spark supergroup 0 2023-10-26 14:49/spark-history drwx-wx-wx-hive supergroup 0 2023-10-26 13:35/tmp drwxrwxrwx-hive supergroup 0 2023-10-26 14:48/user drwxrwxrwx-hadoop supergroup 0 2023-10-26 14:48/yarn 切换至jindo-distcp...

SHOW

返回结果:20230505xxxxxxxxxxxxxx0b0d5b3c bad 'upload d:\data.txt sale_detail/sale_date=201312,region=hangzhou-dbr true-time true' 20230505xxxxxxxxxxxxxx0ad720a3 failed 'upload d:\data.txt sale_detail/sale_date=201312,...

SHOW

返回结果:20230505xxxxxxxxxxxxxx0b0d5b3c bad 'upload d:\data.txt sale_detail/sale_date=201312,region=hangzhou-dbr true-time true' 20230505xxxxxxxxxxxxxx0ad720a3 failed 'upload d:\data.txt sale_detail/sale_date=201312,...

DescribeInstances-查询实例列表

acl-uf6f9zfxfxtp5j9ng3yv4 IntranetSegments string 可访问 API 网关实例的内网网段[\"172.36.0.0/16\",\"172.31.16.0/20\"]IPV6AclName string IPV6 访问控制策略名称 testIPV6 IPV6AclId string IPV6 访问控制策略 ID acl-124resFfs235 ...

漏洞公告|Apache Hadoop FileUtil.unTar命令注入漏洞

漏洞影响 漏洞影响的Hadoop版本:2.0.0<= ApacheHadoop<= 2.10.1 3.0.0-alpha<= ApacheHadoop<= 3.2.3 3.3.0<= ApacheHadoop漏洞影响的EMR版本:存量集群的EMR 3.x系列、EMR 4.x系列、EMR 5.x系列(EMR-5.8.x及之前的版本)均受到影响。...

QueryRequestLogs-获取请求日志

Backend service connect failed `Timeout connecting to[/1XX.20.0.XX:8080]` ConsumerAppId string 调用者应用 ID 11096*InstanceId string API 服务所在的网关实例 ID apigateway-bj-ab2b*ClientNonce string 客户端 X-Ca-Nonce 头 d43...

JindoFS Block模式加密使用说明

SLF4J:Class path contains multiple SLF4J bindings.SLF4J:Found binding in[jar:file:/opt/apps/ecm/service/b2jindosdk/3.4.0-hadoop3.1/package/b2jindosdk-3.4.0-hadoop3.1/lib/jindo-distcp-3.4.0.jar!org/slf4j/impl/...

JindoFS Block模式加密使用说明

SLF4J:Class path contains multiple SLF4J bindings.SLF4J:Found binding in[jar:file:/opt/apps/ecm/service/b2jindosdk/3.4.0-hadoop3.1/package/b2jindosdk-3.4.0-hadoop3.1/lib/jindo-distcp-3.4.0.jar!org/slf4j/impl/...

JindoFS Block模式加密使用说明

SLF4J:Class path contains multiple SLF4J bindings.SLF4J:Found binding in[jar:file:/opt/apps/ecm/service/b2jindosdk/3.4.0-hadoop3.1/package/b2jindosdk-3.4.0-hadoop3.1/lib/jindo-distcp-3.4.0.jar!org/slf4j/impl/...

JindoFS Block模式加密使用说明

SLF4J:Class path contains multiple SLF4J bindings.SLF4J:Found binding in[jar:file:/opt/apps/ecm/service/b2jindosdk/3.4.0-hadoop3.1/package/b2jindosdk-3.4.0-hadoop3.1/lib/jindo-distcp-3.4.0.jar!org/slf4j/impl/...

JindoFS Block模式加密使用说明

SLF4J:Class path contains multiple SLF4J bindings.SLF4J:Found binding in[jar:file:/opt/apps/ecm/service/b2jindosdk/3.4.0-hadoop3.1/package/b2jindosdk-3.4.0-hadoop3.1/lib/jindo-distcp-3.4.0.jar!org/slf4j/impl/...

Dataphin中数据集成任务运行报错“java.io....

1266)[hadoop-hdfs-2.6.0-cdh5.16.2.jar:na]at org.apache.hadoop.hdfs.DistributedFileSystem$20.doCall(DistributedFileSystem.java:1262)[hadoop-hdfs-2.6.0-cdh5.16.2.jar:na]at org.apache.hadoop.fs.FileSystemLinkResolver.resolve...

管理Hadoop回收站

背景信息 回收站是Hadoop Shell或部分应用(Hive等)对Hadoop FileSystem API在客户端的封装,当客户端配置或者服务端配置打开回收站功能后,Hadoop Shell会调用FileSystem的rename操作,把待删除的文件或者目录移动到/user/<username>/....

管理Hadoop回收站

背景信息 回收站是Hadoop Shell或部分应用(Hive等)对Hadoop FileSystem API在客户端的封装,当客户端配置或者服务端配置打开回收站功能后,Hadoop Shell会调用FileSystem的rename操作,把待删除的文件或者目录移动到/user/<username>/....

管理Hadoop回收站

背景信息 回收站是Hadoop Shell或部分应用(Hive等)对Hadoop FileSystem API在客户端的封装,当客户端配置或者服务端配置打开回收站功能后,Hadoop Shell会调用FileSystem的rename操作,把待删除的文件或者目录移动到/user/<username>/....

HDFS数据源

目前插件中Hive版本为1.1.1,Hadoop版本为2.7.1(Apache适配JDK1.6],在Hadoop 2.5.0Hadoop 2.6.0和Hive 1.2.0测试环境中写入正常。重要 HDFS Reader暂不支持单个File多线程并发读取,此处涉及到单个File内部切分算法。离线写 使用HDFS ...

使用JindoFS加速OSS文件访问

背景信息 Fluid是一个开源的Kubernetes原生的分布式数据集编排和加速引擎,主要服务于云原生场景下的数据密集型应用,例如大数据应用和AI应用等。有关Fluid的更多介绍,请参见 数据加速Fluid概述。JindoRuntime来源于阿里云EMR团队JindoFS...

Hive访问Iceberg数据

说明 此文档仅适用于EMR-3.38.0及后续版本与EMR-5.4.0及后续版本的Hadoop集群。使用限制 EMR-3.38.0及后续版本与EMR-5.4.0及后续版本的Hadoop集群,支持Hive读写Iceberg的数据。操作步骤 可选:如果您创建的是EMR-3.38.0与EMR-5.4.0版本的...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
API 网关 开源大数据平台 E-MapReduce 短信服务 对象存储 视觉智能开放平台 弹性公网IP
新人特惠 爆款特惠 最新活动 免费试用