本文中含有需要您注意的重要提示信息,忽略该信息可能对您的业务造成影响,请务必仔细阅读。
通过数据传输服务DTS(Data Transmission Service),您可以将PolarDB PostgreSQL版迁移至自建Oracle数据库,可用于数据回流测试、业务功能测试等场景。
前提条件
- PolarDB PostgreSQL版集群中,待迁移的表需具备主键或非空唯一索引。
- 自建Oracle数据库的版本为19c、18c、12c、11g、10g、9i版本。
- 自建Oracle数据库中已创建对应结构(如表结构)。
- 自建Oracle数据库的存储空间须大于PolarDB PostgreSQL版数据库占用的存储空间。
注意事项
- 本场景仅支持全量数据迁移和增量数据迁移,不支持结构迁移。
- DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,您需要在执行数据迁移前评估源库和目标库的性能,同时建议您在业务低峰期执行数据迁移。
- 如自建Oracle为RAC结构,且需接入阿里云VPC,为保证DTS任务成功运行,您需要将Oracle RAC的SCAN IP和每个节点的VIP均接入至阿里云VPC,并且配置路由。具体步骤,请参见通过VPN网关实现本地IDC与DTS云服务互通。重要 在DTS控制台上配置源Oracle数据库信息时,在数据库地址或者IP地址只需输入Oracle RAC的SCAN IP。
- 一个数据迁移任务只能迁移一个数据库,如有多个数据库需要迁移,您需要为每个数据库配置数据迁移任务。
- 在增量数据迁移过程中,如果迁移对象的选择粒度为Schema,在待迁移的Schema中创建了新的表或使用RENAME命令重建了待迁移的表,您需要在对该表写入数据前执行
ALTER TABLE schema.table REPLICA IDENTITY FULL;
命令。说明 将上述命令中的schema
和table
替换成真实的Schema名和表名。 - 为保障增量数据迁移延迟时间展示的准确性,DTS会在源库中新增一个表,表名为
dts_postgres_heartbeat
,结构及内容如下图所示。 - 若源库有长事务,且实例包含增量迁移任务,则可能会导致源库长事务提交前的预写日志WAL(Write-Ahead Logging)无法清理而堆积,从而造成源库磁盘空间不足。
费用说明
迁移类型 | 链路配置费用 | 公网流量费用 |
全量数据迁移 | 不收费。 | 通过公网将数据迁移出阿里云时将收费,详情请参见计费概述。 |
增量数据迁移 | 收费,详情请参见计费概述。 |
增量数据迁移阶段支持同步的SQL操作
INSERT、UPDATE、DELETE
数据库账号权限要求
数据库 | 权限要求 |
PolarDB PostgreSQL版 | 高权限账号。 |
自建Oracle | Schema的Owner权限。 |
操作步骤
登录数据传输控制台。
说明若数据传输控制台自动跳转至数据管理DMS控制台,您可以在右下角的中单击,返回至旧版数据传输控制台。
在左侧导航栏,单击数据迁移。
在迁移任务列表页面顶部,选择迁移的目标集群所属地域。
单击页面右上角的创建迁移任务。
- 配置迁移任务的源库和目标库连接信息。
类别 配置 说明 无 任务名称 DTS会自动生成一个任务名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。 源库信息 实例类型 选择PolarDB。 实例地区 选择源PolarDB PostgreSQL版集群所属的地域。 PolarDB实例ID 选择源PolarDB PostgreSQL版集群ID。 数据库账号 填入PolarDB PostgreSQL版集群的数据库账号,权限要求请参见数据库账号权限要求。 数据库密码 填入该数据库账号的密码。 说明 源库信息填写完毕后,您可以单击数据库密码后的测试连接来验证填入的信息是否正确。如果填写正确则提示测试通过;如果提示测试失败,单击测试失败后的诊断,根据提示调整填写的源库信息。目标库信息 实例类型 根据源库的部署位置进行选择,本文以有公网IP的自建数据库为例介绍配置流程。 说明 当自建数据库为其他实例类型时,您还需要执行相应的准备工作,详情请参见准备工作概览。实例地区 无需设置 数据库类型 选择Oracle。 主机名或IP地址 填入自建Oracle的访问地址,本案例中填入公网地址。 端口 填入数据库服务的端口,本案例填写1521。 实例类型 - 非RAC实例:选择该项后,您还需要填写SID信息。
- RAC或PDB实例:选择该项后,您还需要填写ServiceName信息。
SID 填写目标库的SID信息。 数据库账号 填入自建Oracle的数据库账号,权限要求请参见数据库账号权限要求。 数据库密码 填入该数据库账号的密码。 说明 目标库信息填写完毕后,您可以单击数据库密码后的测试连接来验证填入的信息是否正确。如果填写正确则提示测试通过;如果提示测试失败,单击测试失败后的诊断,根据提示调整填写的目标库信息。 - 配置完成后,单击页面右下角的授权白名单并进入下一步。如果源或目标数据库是阿里云数据库实例(例如RDS MySQL、云数据库MongoDB版等),DTS会自动将对应地区DTS服务的IP地址添加到阿里云数据库实例的白名单;如果源或目标数据库是ECS上的自建数据库,DTS会自动将对应地区DTS服务的IP地址添到ECS的安全规则中,您还需确保自建数据库没有限制ECS的访问(若数据库是集群部署在多个ECS实例,您需要手动将DTS服务对应地区的IP地址添到其余每个ECS的安全规则中);如果源或目标数据库是IDC自建数据库或其他云数据库,则需要您手动添加对应地区DTS服务的IP地址,以允许来自DTS服务器的访问。DTS服务的IP地址,请参见DTS服务器的IP地址段。警告
DTS自动添加或您手动添加DTS服务的公网IP地址段可能会存在安全风险,一旦使用本产品代表您已理解和确认其中可能存在的安全风险,并且需要您做好基本的安全防护,包括但不限于加强账号密码强度防范、限制各网段开放的端口号、内部各API使用鉴权方式通信、定期检查并限制不需要的网段,或者使用通过内网(专线/VPN网关/智能网关)的方式接入。
- 配置迁移类型、策略和对象信息。
配置 说明 映射名称更改 如需更改迁移对象在目标实例中的名称,请使用对象名映射功能,详情请参见库表列映射。 源、目标库无法连接重试时间 当源、目标库无法连接时,DTS默认重试720分钟(即12小时),您也可以自定义重试时间。如果DTS在设置的时间内重新连接上源、目标库,迁移任务将自动恢复。否则,迁移任务将失败。 说明 由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。 上述配置完成后,单击页面右下角的预检查并启动。
说明在迁移任务正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动迁移任务。
如果预检查失败,单击具体检查项后的,查看失败详情。
您可以根据提示修复后重新进行预检查。
如无需修复告警检测项,您也可以选择确认屏蔽、忽略告警项并重新进行预检查,跳过告警检测项重新进行预检查。
预检查通过后,单击下一步。
在弹出的购买配置确认对话框,选择链路规格并选中数据传输(按量付费)服务条款。
- 单击购买并启动,迁移任务正式开始。
- 全量数据迁移
请勿手动结束迁移任务,否则可能会导致数据不完整。您只需等待迁移任务完成即可,迁移任务会自动结束。
- 全量数据迁移+增量数据迁移
迁移任务不会自动结束,您需要手动结束迁移任务。
重要 请选择合适的时间手动结束迁移任务,例如业务低峰期或准备将业务切换至目标集群时。- 观察迁移任务的进度变更为增量迁移,并显示为无延迟状态时,将源库停写几分钟,此时增量迁移的状态可能会显示延迟的时间。
- 等待迁移任务的增量迁移再次进入无延迟状态后,手动结束迁移任务。
- 全量数据迁移
文档内容是否对您有帮助?