数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

数据迁移

本文为您介绍如何迁移自建Kudu集群的数据到E-MapReduce上的Hadoop集群。前提条件 您已自建Kudu集群。已创建E-MapReduce的Hadoop集群,并选择了Kudu服务,详情请参见 创建集群。背景信息 EMR Kudu支持社区1.10以及1.11版本,可以使用社区...

数据迁移流程

适用于数据库升级、跨实例数据迁移数据库拆分、扩容等业务场景。您可以参考以下流程进行迁移前的准备工作、以及购买、配置和管理数据迁移项目。完成准备工作。数据传输已具备云资源访问权限。详情请参见 数据传输迁移角色授权。您已为源...

数据迁移问题

如果您有几十TB或者PB级别海量的数据传输需要上传到阿里云,但本地的网络带宽不够,扩容成本高,您可以选择闪电立方离线数据迁移服务来迁移数据上云。是否支持云上数据迁移到本地机房?支持阿里云OSS数据迁移到本地机房,请通过 工单 联系...

数据迁移概述

数据迁移至OSS 您可以基于实际业务需求将本地、第三方存储设备或者OSS源存储空间(Bucket)内的数据迁移至OSS目标Bucket,具体如下表所示:迁移方式 说明 相关文档 在线迁移 使用在线迁移服务,您可以将第三方数据轻松迁移至阿里云对象...

数据迁移方案概览

数据迁移功能帮助您实现同构或异构数据源之间的数据迁移,适用于数据上云迁移、阿里云内部跨实例数据迁移数据库拆分扩容等业务场景。本文将介绍数据迁移功能支持的数据库、版本和迁移类型,以及具体的配置文档。收费策略 DTS数据迁移涉及...

数据迁移操作指导

数据迁移流程 通常,使用数据传输服务DTS(Data Transmission Service)执行数据迁移的操作,您需要经历如下步骤。操作流程 说明 1.准备工作概览 在使用DTS迁移数据前,您需要对源或目标数据库做一些准备工作,以满足DTS对环境的要求。2....

查看数据迁移进度

数据迁移任务执行的过程中,您通过控制台查看结构迁移、全量数据迁移或增量数据迁移的执行情况和具体进度。前提条件 已启动数据迁移任务。操作步骤 登录 数据传输控制台。说明 若数据传输控制台自动跳转至数据管理DMS控制台,您可以在...

结束数据迁移任务

对于需要停止或迁移失败(不再需要)的任务,您可以结束数据迁移任务,避免源数据库的数据覆盖写入至目标数据库中。前提条件 数据迁移任务处于 迁移中、已暂停、迁移失败 状态。影响 结束数据迁移任务后,数据迁移任务将处于 已完成 状态,...

Hive数据迁移

创建⽤于迁移数据的Hive UDTF。在MMA的 帮助 ⻚⾯下载对应版本的UDTF的jar包,如 mma-udtf.jar。执行以下命令上传 mma-udtf.jar 至HDFS。hdfs dfs-put-f mma-udtf.jar hdfs:/tmp/使⽤Beeline或Hive命令登录Hive、创建Hive UDTF。DROP ...

MaxCompute数据迁移

本文为您介绍MaxCompute数据迁移的准备事项和操作步骤。准备事项 同Region项目迁移。要求有能够同时访问源项目和⽬的项目的账号,该账号对源项目和⽬的项目有List、建表,读写表权限。EMR+DLF+OSS迁移MaxCompute。需要先构建MaxCompute的湖...

配置数据迁移任务

数据迁移任务可以帮助您快速地实现各种数据源之间的数据迁移,适用于数据上云迁移、阿里云内部跨实例数据迁移数据库拆分扩容等业务场景。本文以 RDS MySQL 迁移至 RDS MySQL 为例为您介绍配置数据迁移任务的流程。前提条件 已创建DTS专属...

购买数据迁移项目

本文为您介绍如何购买云数据库 OceanBase 数据传输服务提供的数据迁移项目。背景信息 目前数据迁移项目仅支持后付费模式,即按量付费计费模式。当前为限时免费阶段,具体收费时间另行通知。您可以根据本文操作购买相应类型的数据迁移项目后...

使用数据传输迁移数据

您可以通过数据迁移功能实时迁移其他数据源的数据至 OceanBase 数据库,以及迁移 OceanBase 数据库的数据至其他数据源。本文以迁移 MySQL 数据库的数据至 OceanBase 数据库为例,介绍如何使用数据传输迁移数据。前提条件 在迁移数据之前,...

数据迁移方案概览

RDS提供了多种数据迁移方案,可满足不同上云或迁云的业务需求,使您可以在不影响业务的情况下将数据在其他数据库与阿里云云数据库RDS之间平滑迁移。使用场景 相关操作 将自建数据库迁移到云数据库 使用DTS将自建PostgreSQL迁移到RDS ...

数据迁移方案概览

数据迁移 使用场景 文档链接 从RDS迁移至 PolarDB 一键升级RDS MySQL至PolarDB MySQL版(平滑迁移,推荐)一键克隆RDS MySQL至PolarDB MySQL版 PolarDB 间的数据迁移 PolarDB MySQL间迁移 从其它数据库迁移至 PolarDB 自建MySQL迁移至...

数据迁移方案概览

HybridDB for MySQL提供了多种数据迁移方案,可满足不同的上云或迁云的业务需求,使您可以在不影响业务的情况下平滑地在其他数据库和HybridDB for MySQL之间进行数据迁移。HybridDB for MySQL支持的数据迁移应用场景及操作如下:操作 适用...

数据迁移服务协议

由于阿里云Elasticsearch集群本身的特性、数据节点的特性、网络传输的不确定性,数据迁移过程可能会受到集群健康状态、节点存储情况等多方面因素影响。迁移不成功(集群健康状态不佳、迁移过程中断或出现类似后果的情形)可能会导致源数据...

迁移数据上云

本文介绍如何使用MirrorMaker将自建Kafka集群的数据迁移到 云消息队列 Kafka 版 集群。前提条件 您已完成以下操作:下载迁移工具MirrorMaker 迁移Topic上云 背景信息 Kafka的镜像特性可实现Kafka集群的数据备份。实现这一特性的工具就是...

数据迁移常见计费问题

DTS数据迁移只对增量迁移的正常运行时间计费,结构迁移及全量数据迁移免费。当数据迁移任务处于未配置、未启动、结构迁移中、全量迁移中、失败及完成状态不计费。数据迁移按照增量数据迁移的正常运行时间计费,不同规格单价参考 产品定价。

CDH6数据迁移

本文介绍如何将CDH中本地HDFS的数据迁移到 文件存储 HDFS 版,实现存储计算分离。前提条件 已开通 文件存储 HDFS 版 服务并创建文件系统实例和挂载点。具体操作,请参见 文件存储HDFS版快速入门。已在阿里云上创建ECS实例并安装CDH6集群。...

配置DTS数据迁移节点

DTS数据迁移节点可以实现跨库、全量、单表或整库的数据迁移,迁移的类型包括数据和结构。本文介绍配置DTS数据迁移节点的方法。背景信息 DTS数据迁移节点基于数据传输服务DTS,赋予任务流基于DTS进行数据传输的能力。更多信息,请参见 数据...

需要数据迁移怎么办?

数据迁移上阿里云有以下两种方式:企业可以通过阿里云提供内置工具与帮助文档,自己完成 IT 环境迁移工作,即:自助服务。企业还可以通过阿里云的合作伙伴,通过合作伙伴提供技术支持,帮助企业完成 IT 环境迁移工作,即:合作伙伴支持。...

数据迁移与同步FAQ

什么是数据迁移数据同步?DTS的数据迁移与数据同步工作原理是什么?DTS的数据迁移与数据同步有什么区别?使用DTS遇到预检查报错,如何解决?什么是数据迁移数据同步?数据迁移:将Redis数据库中的数据(即键值对)迁移至另一个Redis...

过滤待迁移数据

在配置数据迁移任务的迁移对象时,您可以设置过滤条件,过滤待迁移数据。只有满足过滤条件的数据才会被迁移到目标数据库。该功能可应用于数据的定期迁移、拆分数据表等多种应用场景。功能限制 仅支持过滤当前表的字段,不支持跨表过滤。如...

数据迁移链路规格说明

本文介绍数据迁移各链路规格的说明及性能测试情况。注意事项 本文中提供的性能指标仅用于提供参考的测试数据,并不作为产品SLA的评判标准。使用DTS可实现数据秒级增量迁移到目标实例,但受限于源实例的运行负载、传输网络的带宽、网络延时...

Redis数据迁移方案概览

借助数据传输服务DTS(Data Transmission Service),云数据库Redis版 提供了多种数据迁移方案,包括自建Redis数据库迁移上云、云数据库Redis版 实例间的数据迁移、其他云Redis数据迁移到阿里云等,满足多种业务场景下Redis数据迁移的需求...

使用在线迁移服务迁移数据

使用在线迁移服务,您可以轻松实现文件存储NAS之间的数据迁移。本文介绍如何通过在线迁移服务实现阿里云文件存储NAS之间的数据迁移。使用在线迁移服务,您只需在控制台填写源NAS和目标NAS的地址信息,并创建迁移任务即可。迁移任务启动后,...

批量操作数据迁移项目

本文为您介绍如何使用数据传输对数据迁移项目进行批量操作。背景信息 数据传输支持在 迁移项目列表 页面,对数据迁移项目进行批量操作。不同状态的数据迁移项目支持不同的批量操作。数据迁移项目的状态 支持的批量操作 未配置 无 未启动 ...

RDS实例间数据迁移

说明 目标RDS实例和源RDS实例可以不同也可以相同,即您可以使用DTS实现两个RDS实例间的数据迁移或同一RDS实例内的数据迁移数据库名称 填入RDS PostgreSQL实例中待迁入数据的目标数据库名,可以和源实例中待迁移的数据库名不同。说明 当...

Hive数据迁移至MaxCompute

本文档主要介绍结合CMH与MMA如何完成数据从Hive到MaxCompute的数据迁移流程。整体步骤 Hive资源对象发现 通过部署CMH的调研工具hive-scanner,进行Hive迁移对象的探索及资源导入,详见 Hive 资源发现。集群构建 您可以在云迁移中心(CMH)...

还有没有免费数据迁移

免费数据迁移活动已于 2014 年 4 月 30 日结束。数据迁移上阿里云有以下两种方式:企业可以通过阿里云提供内置工具与帮助文档,自己完成 IT 环境迁移工作,即:自助服务。企业还可以通过阿里云的合作伙伴,通过合作伙伴提供技术支持,帮助...

迁移任务一直卡在增量数据迁移阶段

概述 本文介绍迁移任务一直卡在增量数据迁移阶段的处理方法。详细信息 增量数据迁移阶段,会进行源实例跟目标实例增量数据实时同步,不会自动结束。建议增量数据迁移无延迟时,业务在目标实例验证通过后,将业务切换到目标实例,并手动结束...

RDS实例间的数据迁移

说明 目标RDS实例和源RDS实例可以不同也可以相同,即您可以使用DTS实现两个RDS实例间的数据迁移或同一RDS实例内的数据迁移数据库名称 填入RDS PostgreSQL实例中待迁入数据的目标数据库名,可以和源实例中待迁移的数据库名不同。说明 当...

准备用于数据迁移的数据库账号

全量数据迁移:待迁移对象的SELECT权限。增量数据迁移:待迁移对象的SELECT权限。REPLICATION CLIENT、REPLICATION SLAVE、SHOW VIEW。建库建表的权限,以允许DTS创建库dts,用于记录迁移期间的心跳数据。为自建MySQL创建账号并设置binlog ...

基于 DataX 完成数据访问代理数据迁移

数据访问代理(Open Database Proxy,简称 ODP)通过集成 DataX,支持全量离线静态的数据迁移功能。DataX 是阿里巴巴集团内被广泛使用的离线数据同步工具/平台,实现各种异构数据源之间高效的数据同步。目前,支持的源端数据源类型依赖于 ...

E-MapReduce数据迁移

本文介绍如何将E-MapReduce HDFS上的数据迁移到 文件存储 HDFS 版 文件系统。背景信息 阿里云E-MapReduce是构建在阿里云云服务器ECS上的开源Hadoop、Spark、Hive、Flink生态大数据PaaS产品。提供用户在云上使用开源技术建设数据仓库、离线...

启动和暂停数据迁移项目

启动数据迁移项目 配置数据迁移项目时,如果在预检查完成后仅保存该数据迁移项目,未进行启动,则需要在迁移项目列表中手动启动数据迁移项目。登录 OceanBase 管理控制台。在左侧导航栏,单击 数据传输>数据迁移。在 数据迁移 页面,单击未...

数据迁移和同步方案概览

云数据库MongoDB提供了多种数据迁移和同步方案,可满足不同业务场景下MongoDB数据库的数据迁移和同步需求。影响 如果实例的数据库小版本过期或不在维护列表内,当执行以下操作时,为保证提供更出色的性能和稳定性,系统会默认将您的数据库...

数据迁移和同步方案概览

云数据库ClickHouse提供了多种数据迁移和同步方案,可满足不同业务场景下数据库的数据迁移和同步需求。使用场景 数据源 文档链接 从Kafka同步 Kafka 从Kafka同步 从Flink导入 Flink 从JDBC connector导入 从Flink SQL导入 从大数据导入/...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 闪电立方 云数据库 RDS 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用