产品优势

其中实时数据订阅及数据实时同步均为实时数据传输方式数据实时同步支持两个数据源之间的单向/双向同步,适用于数据异地灾备、异地多活、应用就近访问、查询报表分流、实时数据仓库等应用场景。为降低数据迁移对应用的影响,数据迁移功能...

产品优势

实时数据传输 多种数据传输方式:基于DTS的实时数据传输,提供数据迁移、数据同步、数据订阅功能,满足不同的传输需求。高性能:支持分布式集成架构,突破单机瓶颈。同时提供限流手段,按需限流保护数据源。运维简单:通过性能监控、端到端...

应用场景

不停机迁移数据库 传输方式数据迁移 为了保证数据的一致性,传统的迁移过程需要您在迁移数据时停止向源数据库写入数据。根据数据量和网络条件,迁移过程可能需要几个小时甚至几天的时间。这个漫长的过程可能会对您的业务产生很大的影响。...

安全隧道通信协议

背景信息 通信协议传输数据的封装方式如下图所示。设备端和访问端均与安全隧道连接成功后,依赖安全隧道的通信协议进行设备的远程访问。设备端与访问端之间的通信、安全隧道内部的会话(Session)管理及Session内的数据通信,都基于通信...

网络资源

网络资源是指用于节点之间通信数据传输的硬件和软件资源,除了包括广域网、局域网、交换机、路由器,还包括常用到的专有网络、虚拟交换机、负载均衡、弹性公网、VPN、DNS、CDN等资源。在分布式系统中,网络资源的主要作用是支持节点之间...

数据传输服务概述

数据传输服务是MaxCompute数据进出的最重要通道,其中包括适用于批量操作的普通Tunnel和适用于流式写入的Stream Tunnel,同时在所有Region提供免费限量使用的数据传输服务共享资源组,也提供数据传输服务(包年包月)独享资源组,供您采购...

接入其他自建或其他云厂商数据库实例

注意事项 DAS当前仅对外开放80端口,数据库网关通过80端口访问数据库自治服务,并通过gRPC+TLS的方式加密数据传输,保证了数据传输的安全性。接入方式说明 DAS支持以下三种接入其他自建数据库的方式:直连接入:无需部署DAS网关(DBGateway...

产品安全能力

PolarDB 产品的安全能力可以从访问安全、数据传输安全、数据安全、数据脱敏和安全审计5个方面体现。访问安全 PolarDB 提供的集群白名单功能实现了集群访问安全,集群白名单功能包括集群IP白名单和安全组,创建 PolarDB MySQL版 集群后,您...

数据传输计费说明

费用概述 云数据库 OceanBase 数据传输服务提供数据迁移和数据同步两种项目,不同项目的计费方式略有不同。数据迁移项目:目前仅支持后付费模式,即按量付费计费模式。当前为限时免费阶段,具体收费时间另行通知。数据同步项目:目前仅支持...

从自建Redis集群同步至Redis集群实例

数据传输服务DTS(Data Transmission Service)支持Redis集群间的单向同步,适用于数据迁移、异地多活、数据异地容灾等多种应用场景。本文以自建Redis集群同步至阿里云Redis集群实例为例,介绍数据同步作业的配置流程。从阿里云Redis集群...

从ECS上的自建Redis同步至Redis实例

数据传输服务DTS(Data Transmission Service)支持Redis数据库的单向同步,适用于异地多活、数据异地容灾等多种应用场景。本文以ECS上的自建Redis同步至Redis实例为例,介绍数据同步作业的配置流程。警告 完成数据同步作业的配置后,请勿...

2020年

本章节介绍了2020年数据传输服务DTS(Data Transmission Service)产品功能和对应的文档动态。更多新功能介绍 详情请参见 数据传输服务产品动态。2020年 发布时间 发布内容 相关文档 2020年12月 支持MaxCompute结构、全量数据迁移至MySQL...

数据安全

数据备份与恢复 云原生多模数据库 Lindorm 宽表引擎支持数据备份恢复功能,该功能基于数据生态服务中的数据迁移,将数据存储至阿里云对象存储服务OSS(Object Storage Service,简称OSS)中,定期全量备份数据,实时增量同步数据,来满足对...

设置告警

数据传输支持对数据迁移和数据同步项目进行监控项的配置。项目创建完成后,您可以对单个项目设置告警监控,也可以选择多个项目进行批量操作。本文以数据迁移项目为例,为您介绍如何设置告警监控。背景信息 告警监控功能是数据传输重要的运...

概述

数据传输是 OceanBase 数据库提供的一种支持同构或异构数据源与 OceanBase 数据库之间进行数据交互的服务,具备在线迁移存量数据和实时同步增量数据的能力。产品功能 数据传输提供可视化的集中管控平台,您只需要进行简单的配置即可实时...

查看数据复制方式

本文介绍如何查看RDS SQL Server主备实例之间的数据复制方式。使用限制 仅 高可用系列 和 集群系列 的实例支持查看数据复制方式。暂不支持修改数据复制方式。复制方式介绍 同步 应用发起的更新在主实例执行完成后,会将日志同步传输到备...

同步 OceanBase 数据库的数据至 RocketMQ

本文为您介绍如何使用数据传输同步 OceanBase 数据库的数据至 RocketMQ。背景信息 消息队列 RocketMQ 是阿里云基于 Apache RocketMQ 构建的低延迟、高并发、高可靠的分布式消息中间件。数据传输数据同步功能可以帮助您实现 OceanBase ...

什么是数据校验

数据校验是数据传输服务DTS(Data Transmission Service)提供的用于监控源库与目标库数据差异的功能,支持在不停服的情况下对源库和目标库进行校验,帮助您及时发现数据和结构不一致的问题。优势 全量校验、增量校验和结构校验均支持在...

使用数据传输同步数据

本文以同步 OceanBase 数据库的数据至 Kafka 为例,介绍如何使用数据传输同步数据。前提条件 在同步数据之前,您需要确认以下信息:数据传输已具备云资源访问权限。详情请参见 数据传输迁移角色授权。已为源端 OceanBase 数据库创建专用于...

下载和导入迁移对象配置

数据传输支持下载数据迁移项目的迁移对象配置信息,并支持通过导入 CSV 文件的方式实现自动配置和确认迁移对象的配置信息,以实现保存项目配置信息和批量、快速配置项目。导入对象功能通常适用于百+对象进行批量重命名和设置操作。下载对象...

同步 OceanBase 数据库的数据至 Kafka

本文为您介绍如何使用数据传输同步 OceanBase 数据库的数据至 Kafka。背景信息 Kafka 是目前广泛应用的高性能分布式流计算平台,数据传输支持 OceanBase 数据库两种租户与自建 Kafka 数据源之间的数据实时同步,扩展消息处理能力,广泛应用...

数据传输服务(上传)场景与工具

数据采集:MaxCompute支持将开源 Logstash 收集的日志数据流式写入MaxCompute。Flink实时写入:您可以通过 Flink 平台对流式数据进行实时写入。解决方案的可靠性 MaxCompute具有服务等级协议(SLA),因批量数据通道、流式数据通道默认使用...

通过外表导入至数仓版

Storage API方式与Tunnel方式的区别如下:访问方式 集群版本 地域 费用 数据访问效率 Tunnel方式 无限制 无限制 免费 使用公共数据传输服务资源组,该资源会被该地域所有项目共享使用,数据访问和导入速度慢。Storage API方式 3.1.10.2及...

同步 OceanBase 数据库的数据至 DataHub

数据传输不支持通过重命名的方式新建表,即不支持执行 RENAME TABLE a TO a_tmp 操作。数据传输支持字符集配置为 UTF-8 和 GBK 的数据同步。待同步的表名和其中的列名不能包含中文字符。数据传输仅支持迁移库名、表名和列名为 ASCII 码且不...

云数据库 OceanBase 版数据传输服务等级协议

版本生效日期:2023年12月25日 本服务等级协议(Service Level Agreement,以下简称“SLA”)规定了阿里云向客户提供的云数据库 OceanBase 版数据传输服务(以下简称“OceanBase 数据传输服务”)的服务可用性等级指标及赔偿方案。...

调试实时任务

Session集群调试方式:即通过Session集群进行调试,调试的数据为 线上的真实数据 且为 流式数据(即来源表中写入数据时,将直接输出该条数据的计算结果,与真实线上运行任务的结果一致)。该方式下,Session集群提供Flink任务状态、日志和...

同步数据

分析型数据库MySQL版支持多种数据加载方式,包括但不限于:通过阿里云数据传输服务DTS将MySQL/DRDS中的数据导入分析型数据库MySQL版,其中MySQL可为RDS for MySQL、其他云厂商或线上IDC的自建MySQL以及ECS自建MySQL。详细操作步骤请参见 ...

查看数据迁移项目的详情

启动数据迁移项目后,您可以在数据迁移项目的详情页面查看相应项目的基本信息、项目执行的进度和状态等信息。进入详情页面 您可以在数据迁移项目的详情页面,查看计划的迁移环节、各个环节的进度和状态,帮助您了解数据库迁移的整体进度,...

修改实例参数

数据传输服务DTS(Data Transmission Service)支持修改实例的部分参数,帮助您降低数据传输过程中的延迟,提升数据传输的性能和效率。前提条件 已创建同步或迁移实例,详情请参见 同步方案概览 或 迁移方案概览 中的相关配置文档。注意...

修改数据复制方式

您可以根据自身业务特点,设置MyBase MySQL主备实例之间的数据复制方式,以提高数据库可用性。前提条件 实例要求如下:MySQL 8.0高可用版(本地SSD盘)MySQL 5.7高可用版(本地SSD盘)MySQL 5.6高可用版(本地SSD盘、ESSD云盘)复制方式...

智能压测

数据库自治服务DAS(Database Autonomy Service)提供智能压测功能,帮助您验证您的实例规格是否需要扩容,有效应对业务流量高峰。本文介绍如何创建压测任务进行智能压测。前提条件 源数据库支持:RDS MySQL PolarDB MySQL版 说明 不支持 ...

概述

背景信息 随着互联网和物联网的飞速发展、数据规模急剧增长、数据来源多样化,同时数据分析需求及业务流程复杂性不断增加,这使得传统手动处理数据方式无法满足现有需求。因此,需要一个自动化流程来确保数据处理、分析、备份等多种需求...

配置匹配规则

数据传输提供指定对象、导入对象和匹配规则三种方式供您选择。其中匹配规则方式支持您通过编写通配规则指定需要迁移或同步的对象,并且支持配置源端及目标端的对象映射逻辑,通过简单、高效的字符串匹配能力,可以有效地降低您在待迁移/...

MMA概述

数据迁移原理 Hive数据迁移原理 Hive数据迁移包含通过Hive UDTF迁移数据到MaxCompute、通过OSS迁移Hive数据到MaxCompute,本文为您介绍两种数据迁移方式的原理。通过Hive UDTF迁移数据到MaxCompute。该场景通过Hive的分布式能⼒,实现Hive...

Bucket Shuffle Join

本文介绍 云数据库 SelectDB 版 支持通过Bucket Shuffle Join进行查询优化,能够减少数据在节点间的传输耗时和Join时的内存开销,进而优化查询性能。功能简介 Bucket Shuffle Join旨在为某些Join查询提供基于本地的优化,减少数据在节点间...

实时数据消费概述

实时数据消费功能包含高速数据导入API和实时数据源消费两部分,可实现数据直接写入Segment(分片单元),避免通过COPY或INSERT方式造成的Master写入负载高的问题,也可实现使用 AnalyticDB PostgreSQL版 单产品直接消费Kafka数据。...

迁移数据库账号

使用DTS同步或迁移数据的库表结构。即在 配置任务对象及高级配置 阶段中,同步类型 勾选了 库表结构同步 或者 迁移类型 勾选了 库表结构迁移。注意事项 当前仅MySQL实例(含RDS MySQL和自建MySQL)间的同步或迁移实例,支持将源库的账号...

RDS术语

DMS Data Management,数据管理,是一种阿里云提供的图形化的数据管理工具,集数据管理、结构管理、访问安全、BI图表、数据趋势、数据轨迹、性能与优化和服务器管理于一体的数据管理服务。支持MySQL、SQL Server、PostgreSQL、MongoDB、...

RDS术语

DMS Data Management,数据管理,是一种阿里云提供的图形化的数据管理工具,集数据管理、结构管理、访问安全、BI图表、数据趋势、数据轨迹、性能与优化和服务器管理于一体的数据管理服务。支持MySQL、SQL Server、PostgreSQL、MongoDB、...

RDS术语

DMS Data Management,数据管理,是一种阿里云提供的图形化的数据管理工具,集数据管理、结构管理、访问安全、BI图表、数据趋势、数据轨迹、性能与优化和服务器管理于一体的数据管理服务。支持MySQL、SQL Server、PostgreSQL、MongoDB、...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 数据库审计 数据库备份 DBS 云数据库 RDS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用