背景信息

本教程讲解了如何将FTP服务器数据迁移到阿里云对象存储OSS。概述 阿里云在线迁移服务是阿里云提供的存储产品数据通道。使用在线迁移服务,您可以将第三方数据轻松迁移至阿里云对象存储OSS,也可以在对象存储OSS之间进行灵活的数据迁移。...

产品计费

快照计费 公网带宽 创建迁移任务时,如果您使用公网传输,则会通过公网带宽将源服务器数据迁移到中转实例或者目标ECS实例。对中转实例或者目标ECS实例而言,迁移产生的主要流量属于入方向流量,入方向流量是免费的。免费 无 自定义镜像 ...

管理防火墙

具体操作,请参见 轻量应用服务器数据迁移至ECS实例(通过共享镜像)、申请EIP 和 将EIP绑定至ECS实例。其他端口不通的场景,请根据以下可能原因排查:使用 netstat-tunlp 命令查看服务器中对应端口是否有监听,若当前端口无监听,需要先...

旧版使用场景

全量任务 全量任务适用于存量数据迁移的场景。全量任务是根据 迁移起点时间 迁移一次指定 迁移起点时间 之后的全量数据,数据迁移完成后任务结束。说明 如果迁移完成后源数据有变化,您可以再次提交全量迁移任务,系统将仅迁移变化的数据。...

AWS迁移至阿里云

本文将介绍如何通过使用云迁移...操作详情请参考以下操作文档:创建ECS,创建RDS 创建迁移任务 AWS迁移的服务器数据迁移任务将分别通过SMC工具和DTS工具完成。操作详情请参考以下操作文档:创建SMC迁移任务,创建DTS任务迁移数据库实例。

IDC迁移至阿里云

本文将介绍如何通过使用云迁移中心CMH产品,将IDC的资源迁移至阿里云。...创建迁移任务 AWS迁移的服务器数据迁移任务将分别通过SMC工具和DTS工具完成。操作详情请参考以下操作文档:创建SMC迁移任务,创建DTS任务迁移数据库实例。

配置DTS数据迁移节点

DTS数据迁移节点可以实现跨库、全量...在数仓开发的标准模式下,试运行DTS数据迁移节点时,该节点会空跑,以免生产数据迁移到测试环境的风险。试运行成功后,您可以在目标库的SQL窗口中,查询已迁移的表。更多信息,请参见 查询与变更表结构。

数据迁移流程

您已为源端和目标端创建专用于数据迁移的数据库用户,并赋予其相关权限。详情请参见 创建数据库用户。新建数据源。在 数据传输>管理数据源 页面,分别新建源端和目标端的数据源。详情请参见 新建数据源 模块的文档。购买数据迁移项目。根据...

轻量应用服务器数据迁移至ECS实例

如果您之前的轻量应用服务器绑定并解析了域名,则您在完成数据迁移后,需要重新将该域名解析至目标ECS实例的公网IP。具体操作,请参见 添加解析记录。轻量应用服务器迁移后,您可以检查迁移后的ECS实例。具体操作,请参见 迁移Linux服务器...

启动和暂停数据迁移项目

启动数据迁移项目 配置数据迁移项目时,如果在预检查完成后仅保存该数据迁移项目,未进行启动,则需要在迁移项目列表中手动启动数据迁移项目。登录 OceanBase 管理控制台。在左侧导航栏,单击 数据传输>数据迁移。在 数据迁移 页面,单击未...

数据迁移常见计费问题

DTS数据迁移只对增量迁移的正常运行时间计费,结构迁移及全量数据迁移免费。当数据迁移任务处于未配置、未启动、结构迁移中、全量迁移中、失败及完成状态不计费。数据迁移按照增量数据迁移的正常运行时间计费,不同规格单价参考 产品定价。

迁移方案概览

增量数据迁移 DTS会先在源库中实现用于全量数据迁移的静态快照,然后将快照数据迁移到目标库,最后再将迁移过程中源库产生的增量数据实时同步至目标库。说明 增量数据迁移会保持实时同步的状态,所以迁移任务不会自动结束,您需要手动结束...

引用和清空数据迁移项目配置

本文为您介绍如何引用和清空已有数据迁移项目的配置。引用项目配置 重要 目前处于 未配置 状态的数据迁移项目支持 引用配置 操作。登录 OceanBase 管理控制台。在左侧导航栏,单击 数据传输>数据迁移。在 数据迁移 页面,单击未配置的目标...

数据迁移方案概览

增量数据迁移 DTS会先在源库中实现用于全量数据迁移的静态快照,然后将快照数据迁移到目标库,最后再将迁移过程中源库产生的增量数据实时同步至目标库。说明 增量数据迁移会保持实时同步的状态,所以迁移任务不会自动结束,您需要手动结束...

结束和释放数据迁移项目

本文为您介绍如何结束和释放不再需要维护源端和目标端的数据迁移项目。结束数据迁移项目 结束数据迁移项目后,数据传输仍保留当前项目的源端、目标端、迁移对象、监控和告警等配置信息。您可以根据业务需求,选择清空项目配置后重新配置...

背景信息

说明 关于CPFS智算版实例数据迁移的更多信息,请参见 CPFS智算版实例数据迁移教程。创建迁移任务流程 创建迁移任务流程如下图所示。重要 创建LocalFS类型数据地址时,必须要选择关联代理。教程内容 准备工作 迁移实施 后续操作

通过DTS实现数据库的垂直拆分

如果数据一致,则结束数据迁移的任务,详情请参见 结束数据迁移任务。警告 用于数据迁移的数据库账号拥有读写权限,为保障数据库安全性,请在数据迁移完成后,删除用于数据迁移的数据库账号或回收相关写权限。将应用程序中的相关数据同时...

Redis数据迁移方案概览

借助数据传输服务DTS(Data Transmission Service),云数据库Redis版 提供了多种数据迁移方案,包括自建Redis数据库迁移上云、云数据库Redis版 实例间的数据迁移、其他云Redis数据迁移到阿里云等,满足多种业务场景下Redis数据迁移的需求...

迁移ECS实例至轻量应用服务器

警告 建议您分别为ECS实例与轻量应用服务器创建快照,如果因迁移失败造成服务器数据异常,您可以通过快照回滚服务器的云盘数据。确保迁移前后两台服务器内的运行环境版本信息一致。部分网站对服务器的运行环境的版本有较高的要求,如果迁移...

数据迁移

本文为您介绍数据迁移的最佳实践,包含将其他业务平台的业务数据或日志数据迁移至MaxCompute,或将MaxCompute的数据迁移至其它业务平台。背景信息 传统关系型数据库不适合处理海量数据,如果您的数据存放在传统的关系型数据库且数据量庞大...

购买数据迁移项目

购买数量 表示您需要运行数据迁移的项目个数。默认值为 1,支持选择的最大数量为 500。单击 立即购买。在 确认订单 页面,确认参数配置无误后,勾选 我已阅读并同意数据传输-按量付费服务协议,单击 立即开通。支付完成后,页面会提示您...

下载和导入迁移对象配置

数据传输支持下载数据迁移项目的迁移对象配置信息,并支持通过导入 CSV 文件的方式实现自动配置和确认迁移对象的配置信息,以实现保存项目配置信息和批量、快速配置项目。导入对象功能通常适用于百+对象进行批量重命名和设置操作。下载对象...

自定义配置 DDL/DML

本文为您介绍配置数据迁移或数据同步项目时,如何自定义配置增量同步中的 DDL 和 DML 同步。背景信息 您在配置数据迁移或数据同步项目时,如果在 选择迁移类型 或 选择同步类型 步骤选择了 增量同步,则会默认支持 DML 同步,您可以自定义...

背景信息

使用在线迁移服务,您可以将第三方数据轻松迁移至阿里云对象存储OSS,也可以在对象存储OSS之间进行灵活的数据迁移。使用在线迁移服务,您只需在控制台填写源数据地址和目标OSS地址信息,并创建迁移任务即可。启动迁移后,您可以通过控制台...

通过SMC客户端导入迁移

迁移源概指您的待迁移IDC服务器、虚拟机、其他云平台的云主机或其他类型的服务器。使用SMC迁移时,您首先需要导入迁移源,再登录SMC控制台进行迁移。本文介绍通过SMC客户端导入迁移源的操作步骤。前提条件 已完成准备工作。更多信息,请...

修复迁移失败的任务

当您的数据迁移任务在结构迁移阶段或全量数据迁移阶段,出现 迁移失败 的提示时,您可以使用DTS的在线修复功能手动修复该任务。修复结构迁移失败的任务 DTS支持异构数据源之间的迁移,对于一些不支持的数据类型,在进行结构迁移时,如果...

查看数据迁移项目的详情

运行中:表示数据迁移项目在运行中,您可以查看数据迁移的运行计划和当前进度,并在操作列进行相应操作。修改中:表示数据迁移项目正在被修改迁移对象。合并中:表示被修改迁移对象的数据迁移项目与修改迁移对象任务进行合并的过程。已暂停...

查看历史任务

数据集成任务会在每个调度时间点生成一个数据迁移任务,通过DTS控制台您可以查看所有已经运行完成的数据迁移任务,了解该任务的执行情况。前提条件 已创建数据集成任务,相关案例请参见 配置RDS MySQL间的数据集成任务。操作步骤 登录 数据...

数据迁移方案概览

云原生数据库PolarDB 提供了多种数据迁移方案,可满足不同上云、迁云的业务需求,使您可以在不影响业务的情况下平滑的实现引擎间的数据迁移。通过使用阿里云 数据传输服务(DTS),您可以实现 PolarDB 的结构迁移和全量迁移。数据迁移 使用...

概述

当数据需要通过专线或VPN迁移上云、自建存储迁移上云时,您可以在Linux(内核2.6及以上版本,64位)操作系统的机器上部署在线迁移服务提供的代理,充分利用已有的机器和VPC,更加安全地进行数据迁移。本文介绍通过代理迁移数据的使用场景和...

数据集成调度策略说明

支持的数据库 支持全量数据迁移的数据源均支持数据集成功能,详情请参见 迁移方案概览。费用说明 迁移类型 链路配置费用 公网流量费用 结构迁移和全量数据迁移 不收费。通过公网将数据迁移出阿里云时将收费,详情请参见 计费概述。配置方法...

创建SMC迁移任务

如果您在创建迁移计划时,迁移计划模板 选择了“AWS迁移”,您的服务器数据迁移任务将分别通过SMC工具和DTS工具完成。本文为您介绍如何从进度大盘创建SMC迁移任务。建立SMC同步 在云迁移中心页面,依次点击 迁移->迁移工具,查看迁移...

使用DTS将华为云分布式缓存服务Redis迁移至阿里云

迁移类型简介 从华为云分布式缓存服务Redis实例到阿里云云数据库Redis版的数据迁移,可以支持全量数据迁移+增量数据迁移,全量数据迁移及增量数据迁移的功能及限制如下。迁移类型 说明 全量数据迁移 DTS将源Redis中现有的key全部迁移到...

BigQuery数据迁移至MaxCompute

前提条件 类别 平台 要求 参考文档 环境数据 谷歌云GCP 已开通谷歌BigQuery服务,并准备好环境及待迁移的数据集。已开通谷歌Cloud Storage服务,并创建存储分区(Bucket)。如果您没有相关环境数据集,可参考如下内容准备:BigQuery:...

新建 TiDB 数据

已存在用于数据迁移的数据库用户。建议您为数据迁移项目创建一个专属的数据库用户,该用户必须具备相关的数据操作权限。详情请参见 创建 TiDB 数据库用户。如果您需要订阅 TiDB 增量日志,请准备 Kafka 数据源和 Kafka Topic。并且,请根据...

数据迁移和同步方案概览

不同迁移场景下数据迁移的方法如下。迁移场景 源库架构 文档链接 自建数据库迁移至云数据库MongoDB 单节点或副本集 将ECS上单节点或副本集架构的自建MongoDB迁移上云 分片集群 将ECS上分片集群架构的自建MongoDB迁移上云 单节点 使用DTS...

计费概述

迁移过程说明 新版在线迁移过程说明 新版在线迁移服务会通过以下步骤完成数据迁移的工作:获取待迁移数据信息:此过程中,在线迁移服务会对比源和目的地址文件的size、ContentType及LastModify等元信息,并根据您当前任务的 覆盖方式,判断...

数据迁移和同步方案概览

云数据库ClickHouse提供了多种数据迁移和同步方案,可满足不同业务场景下数据库的数据迁移和同步需求。使用场景 数据源 文档链接 从Kafka同步 Kafka 从Kafka同步 从Flink导入 Flink 从JDBC connector导入 从Flink SQL导入 从大数据导入/...

增量迁移服务器

说明 每次增量迁移生成的镜像,均为源服务器当前时刻的全量镜像,包括迁移时刻的增量数据和之前已迁移的全部数据。步骤三:暂停业务并运行增量迁移 选择合适的时间点,暂停源服务器系统业务后,放开之前过滤掉的数据目录并再次运行增量迁移...

迁移 PolarDB-X 1.0 数据库的数据至 OceanBase 数据库...

已为源端 PolarDB-X 1.0 数据库和目标端 OceanBase 数据库 MySQL 租户创建专用于数据迁移的数据库用户,并赋予其相关权限。详情请参见 PolarDB-X 1.0 账号管理 和 创建 OceanBase 数据库用户。使用限制 源端数据库的操作限制 请勿在全量...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
数据传输服务 云服务器 ECS 云数据库 RDS 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用