创建二级索引时报错Don't support allow update ...

如果对数据表的数据生命周期无限制,您可以通过控制台或者SDK修改数据表的数据生命周期为-1。通过控制台修改 在数据表的 基本详情 页签,单击 修改表属性,修改数据表的 数据生命周期 为-1,单击 确定。通过SDK修改 调用UpdateTable接口...

在线分区维护

使用说明及示例 在线分区维护功能,使得分区表的数据访问和分区维护相互不影响,用户可以更自由的进行分区维护,而不影响分区表业务流量,使用示例及效果如下:#在客户端1上输出tr表结构 SHOW CREATE TABLE tr\G*1.row*Table:tr Create ...

配置并管理实时同步任务

您可以通过该功能实现将多张表数据写入到同一个表中,或统一将源端某固定前缀的表名在写入目标表时更新为其他前缀。配置逻辑请参见:设置来源和同步规则。设置目标表。在 设置目标表 页面,选择 目标 AnalyticDB for MySQL 3.0数据源。确认...

一键实时同步至AnalyticDB for MySQL 3.0

您可以通过该功能实现将多张表数据写入到同一个表中,或统一将源端某固定前缀的表名在写入目标表时更新为其他前缀。配置逻辑请参见:数据集成侧同步任务配置。步骤四:设置目标表 确认 写入模式。写入模式 目前仅支持 重放,即源端INSERT一...

整库离线同步至MaxCompute

您可以通过该功能实现将多张表数据写入到同一个表中,或统一将源端某固定前缀的表名在写入目标表时更新为其他前缀。配置逻辑请参见:数据集成侧同步任务配置。步骤四:设置目标表 时间自动分区设置。目前仅支持将源端数据写入MaxCompute...

整库离线同步至MaxCompute

您可以通过该功能实现将多张表数据写入到同一个表中,或统一将源端某固定前缀的表名在写入目标表时更新为其他前缀。配置逻辑请参见:数据集成侧同步任务配置。步骤四:设置目标表 时间自动分区设置。目前仅支持将源端数据写入MaxCompute...

配置并管理实时同步任务

您可以通过该功能实现将多张表数据写入到同一个表中,或统一将源端某固定前缀的表名在写入目标表时更新为其他前缀。配置逻辑请参见:设置来源和同步规则。设置目标表。选择目标 MaxCompute(ODPS)数据源 和 写入模式。时间自动分区设置。...

配置并管理实时同步任务

同步时默认将源端数据表写入DataHub同名Topic中,同时,您可以通过添加映射规则定义最终写入目的端的Topic名称,实现将多张表数据写入到同一个Topic中,或统一将源端某固定前缀的表名在写入目标Topic时更新为其他前缀。支持通过正则表达式...

配置并管理实时同步任务

同步时默认将源端数据表写入目的端同名schema或同名表中,同时,您可以通过添加映射规则定义最终写入目的端的schema或表名称,实现将多张表数据写入到同一个目标表中,或统一将源端某固定前缀的表名在写入目标表时更新为其他前缀。...

配置并管理实时同步任务

实现将多张表数据写入到同一个Topic中,或统一将源端某固定前缀的表名在写入目标Topic时更新为其他前缀。支持通过正则表达式转换写入的Topic名,还支持使用内置变量拼接目标Topic名。配置逻辑请参见:设置来源和同步规则。设置目标Topic。...

MySQL分库分表同步至Hologres(方案1.0)

同步时默认将源端数据表写入目的端同名schema或同名表中,同时,您可以通过添加映射规则定义最终写入目的端的schema或表名称,实现将多张表数据写入到同一个目标表中,或统一将源端某固定前缀的表名在写入目标表时更新为其他前缀。...

一键实时同步至DataHub

同步时默认将源端数据表写入DataHub同名Topic中,同时,您可以通过添加映射规则定义最终写入目的端的Topic名称,实现将多张表数据写入到同一个Topic中,或统一将源端某固定前缀的表名在写入目标Topic时更新为其他前缀。支持通过正则表达式...

一键实时同步至Hologres

同步时默认将源端数据表写入目的端同名schema或同名表中,同时,您可以通过添加映射规则定义最终写入目的端的schema或表名称,实现将多张表数据写入到同一个目标表中,或统一将源端某固定前缀的表名在写入目标表时更新为其他前缀。...

Oracle数据库的限制和准备工作

支持的数据 支持常见的表、索引(含函数式索引)、数据类型、字符集等。支持的数据类型和字符集,请参见 附录。支持级联删除、更新操作。支持一级、二级分区表的DML操作,不支持分区表DDL操作(任务正常运行)。支持分布式事务日志解析。...

标签对象

是否支持 离线 MaxCompute 是 Hive 是 RDS/MySQL 是 使用说明 标签对象的使用和读数据表类似,可以做为模型的数据源直接拖拽到画布中使用,在算子详情中可以查看对应标签对象的数据表信息及已上线的标签(可以把标签类比为数据表的字段)。...

通过Flink SQL模式配置ETL任务

物理表别名 为源表或目标表设置精简易读的别名,便于ETL在运行SQL语句时定位至具体的表。在 数据加工 页面的SQL命令窗口,添加用于配置ETL任务的SQL语句。本案例以如下SQL语句为例,配置ETL任务,将流表test_orders与维表product结合至目标...

方案概述

逻辑迁移过程中,全量数据初始化时会并发执行 INSERT 操作,导致目标数据库的表产生碎片,因此全量初始化完成后目标实例的表空间比源实例的表空间大。逻辑迁移过程中,请勿手动释放DTS任务。全量数据同步需要一定时间,耗时与数据量大小...

查看内置规则模板

基准值为上一周期产生的分区的表行数,比较当天采集的表行数,对比波动率。表行数,1天差值。表的行数,相比1天前的差额。说明 基准值为昨天分区的表行数,比较当天采集的表行数,对比差值。表行数,上周期差值。基准值为上一周期产生的...

订阅Hologres Binlog

Binlog表的字段是固定的,也可以说是强Schema的,用户字段顺序与业务表DDL定义的顺序一致。因此建议开启Binlog的表使用行存表或者行列共存表,会使得读Binlog时会有更好的性能。开启Binlog Hologres中,Binlog功能默认关闭,您可以通过设置...

Hologres结果

如何使用宽表Merge/局部更新功能 对于常见的多个流的数据写入至一张Hologres宽表的场景,具体使用方法如下:假设Hologres有一张宽表 WIDE_TABLE,有A、B、C、D、E几列,其中A字段是主键,Flink一个流包含数据A、B、C,另一个流包含数据A、D...

Delta Lake 快速入门

读一个表 在这个部分:显示表格历史记录 查询表的早期版本(时间行程)您可以通过在DBFS("/mnt/delta/events")或表名("event")上指定路径来访问Delta表中的数据:Scala%spark SELECT*FROM delta.`/mnt/delta/events` 或%spark val ...

创建数据质量规则

Dataphin支持创建校验数据表的质量规则,提升数据表质量监控的便捷性。本文为您介绍如何配置数据表的质量规则。前提条件 已经添加监控对象才可配置质量规则,如何添加监控对象,请参见 添加监控对象。权限说明 超级管理员、质量管理员支持...

创建数据质量规则

Dataphin支持创建校验数据表的质量规则,提升数据表质量监控的便捷性。本文为您介绍如何配置数据表的质量规则。前提条件 已经添加监控对象才可配置质量规则,如何添加监控对象,请参见 添加监控对象。权限说明 超级管理员、质量管理员支持...

创建全域数据质量规则

Dataphin支持创建校验数据表的质量规则,提升数据表质量监控的便捷性。本文为您介绍如何配置全域数据表的质量规则。前提条件 已经添加监控对象才可配置质量规则,如何添加监控对象,请参见 添加监控对象。权限说明 超级管理员、质量管理员...

创建全域数据质量规则

Dataphin支持创建校验数据表的质量规则,提升数据表质量监控的便捷性。本文为您介绍如何配置全域数据表的质量规则。前提条件 已经添加监控对象才可配置质量规则,如何添加监控对象,请参见 添加监控对象。权限说明 超级管理员、质量管理员...

召回配置

CacheConfig、CachePrefix、CachePrefix 一定都要配置 协同过滤(UserCollaborativeFilterRecall)协同过滤需要有两张表,一张 u2i 表,根据 user_id 获取 item 列表,一张 i2i 表,获取相似的 item,这两张表的 schema 是固定格式的。...

创建实时元规则

说明 适用于表的修改任务不固定/重点监控表,每次变更都需要监控的情况。固定任务触发调度:仅在指定的任务完成后,执行配置的质量规则。支持选择指定SQL、离线管道、Python、Shell、Datax、Spark_jar、Hive_MR、数据库SQL节点的任务类型...

创建实时元规则

说明 适用于表的修改任务不固定/重点监控表,每次变更都需要监控的情况。固定任务触发调度:仅在指定的任务完成后,执行配置的质量规则。支持选择指定SQL、离线管道、Python、Shell、Datax、Spark_jar、Hive_MR、数据库SQL节点的任务类型...

创建指标质量规则

说明 适用于表的修改任务不固定或者是重点监控表,每次变更都需要监控的情况。固定任务触发调度:仅在指定的任务完成后,执行配置的质量规则。支持选择指定SQL、离线管道、Python、Shell、Datax、Spark_jar、Hive_MR、数据库SQL节点的任务...

创建指标质量规则

说明 适用于表的修改任务不固定或者是重点监控表,每次变更都需要监控的情况。固定任务触发调度:仅在指定的任务完成后,执行配置的质量规则。支持选择指定SQL、离线管道、Python、Shell、Datax、Spark_jar、Hive_MR、数据库SQL节点的任务...

创建数据源质量规则

说明 适用于表的修改任务固定的情况。固定任务触发只能选择生产环境任务,若规则强度配置了强规则,调度任务校验失败,可能会影响线上任务,请根据业务需求谨慎操作。触发任务:下拉选择触发任务的任务表。支持选择 所有任务均完成触发、任...

创建数据源质量规则

说明 适用于表的修改任务固定的情况。固定任务触发只能选择生产环境任务,若规则强度配置了强规则,调度任务校验失败,可能会影响线上任务,请根据业务需求谨慎操作。触发任务:下拉选择触发任务的任务表。支持选择 所有任务均完成触发、任...

同步 OceanBase 数据库的数据至 Kafka

从指定的分区中删除数据 ALTER TABLE…TRUNCATE PARTITION 创建索引 CREATE INDEX 删除索引 DROP INDEX 添加表的备注 COMMENT ON TABLE 表重命名 RENAME TABLE 重要 重命名后的表名需要在同步对象范围之内。操作步骤 登录 OceanBase 管理...

CREATE INDEX

' column_name)*]')'[',' index_identifier]include_identifier:='('column_name1,.,column_namen ')' 支持的Index_Options列表 名称 类型 描述 COMPRESSION String 索引表的压缩算法,支持的压缩算法包括:SNAPPY ZSTD LZ4 INDEX_COVERED_...

数据导入概述

Quick Audience接入数据源后,您就可以将要导入的数据表存储在计算源,然后在Quick Audience声明数据表的表结构,执行调度任务,将表中的数据导入到Quick Audience,准备用于后续的分析、应用。数据导入流程 进行 ID类型管理,设置Quick ...

订单汇总数据要求

本章节介绍对于导入Quick Audience的订单汇总表的数据要求。说明 由于您存储原始数据的 计算源 类型为MaxCompute,Quick Audience使用的 分析源 类型为ADB3.0或Hologres,为了数据能在计算源和分析源之间正常流转,Quick Audience不支持...

用户标签数据要求

本章节介绍对于导入Quick Audience的用户标签表的数据要求。说明 由于您存储原始数据的 计算源 类型为MaxCompute,Quick Audience使用的 分析源 类型为ADB3.0或Hologres,为了数据能在计算源和分析源之间正常流转,Quick Audience不支持...

删除时空对象

5分钟之前'd'列的数据进行删除,那么需要执行语句:Alter 'xxx_z3',{NAME=>'d',TTL=>300} Alter 'xxx_attr',{NAME=>'d',TTL=>300} 根据时空范围删除 根据时空范围删除的方式,可以删除z2/xz2、z3/xz3这两类时空索引,无法删除其他索引...

GRANT

GRANT语法用于给授予指定权限,例如表的读写权限、数据库的所有权限等。适用引擎 GRANT语法适用于宽表引擎和时序引擎。无版本限制。语法 grant_permission_statement:=GRANT privilege_definition ON resource_definition TO user_...

CREATE TABLE

本文介绍创建时空数据表的语法。语法 create_table_statement:=CREATE TABLE[IF NOT EXISTS]table_name '(' column_definition(',' column_definition)*','[constraint pk]PRIMARY KEY '(' primary_key ')' ')' WITH[table_options]column_...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
物联网络管理平台 弹性公网IP 短信服务 人工智能平台 PAI 金融分布式架构 对象存储
新人特惠 爆款特惠 最新活动 免费试用