本文介绍如何使用数据传输服务DTS(Data Transmission Service),将Amazon Aurora MySQL迁移至阿里云RDS MySQL。DTS支持结构迁移、全量数据迁移以及增量数据迁移,同时使用这三种迁移类型可以实现在自建应用不停服的情况下,平滑地完成数据库迁移。
前提条件
- 为保障DTS可以通过公网连接至Amazon Aurora MySQL,Amazon Aurora MySQL的网络与安全配置中须将公开可用性功能设置为是。
- 已创建阿里云RDS MySQL或RDS MySQL Serverless实例,详情请参见创建RDS MySQL实例。
- 阿里云RDS MySQL的存储空间须大于Amazon Aurora MySQL已使用的存储空间。
注意事项
- DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,甚至导致数据库服务不可用。因此您需要在执行数据迁移前评估源库和目标库的性能,同时建议您在业务低峰期执行数据迁移(例如源库和目标库的CPU负载在30%以下)。
- 如果源库中待迁移的表没有主键或唯一约束,且所有字段没有唯一性,可能会导致目标数据库中出现重复数据。
- 对于数据类型为FLOAT或DOUBLE的列,DTS会通过
ROUND(COLUMN,PRECISION)
来读取该列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位,请确认迁移精度是否符合业务预期。 - DTS会自动地在阿里云RDS MySQL中创建数据库,如果待迁移的数据库名称不符合阿里云RDS的定义规范,您需要在配置迁移任务之前在阿里云RDS MySQL中创建数据库。 说明 关于阿里云RDS的定义规范和创建数据库的操作方法,请参见创建数据库。
- 对于迁移失败的任务,DTS会触发自动恢复。在您将业务切换至目标实例前,请务必先结束或释放该任务,避免该任务被自动恢复后,导致源端数据覆盖目标实例的数据。
费用说明
迁移类型 | 链路配置费用 | 公网流量费用 |
---|---|---|
结构迁移和全量数据迁移 | 不收费。 | 通过公网将数据迁移出阿里云时将收费,详情请参见计费概述。 |
增量数据迁移 | 收费,详情请参见计费概述。 |
迁移类型说明
- 结构迁移
DTS将待迁移对象的结构定义迁移到阿里云RDS MySQL,目前DTS支持结构迁移的对象为表、视图、触发器、存储过程、存储函数,不支持event的结构迁移。
说明- 在结构迁移时,DTS会将视图、存储过程和函数中的DEFINER转换为INVOKER。
- 由于DTS不迁移user信息,因此在调用目标库的视图、存储过程和函数时需要对调用者授予读写权限。
- 全量数据迁移 DTS会将Amazon Aurora MySQL中待迁移对象的存量数据,全部迁移到阿里云RDS MySQL中。说明 由于全量数据迁移会并发INSERT导致目标实例的表存在碎片,全量迁移完成后目标实例的表空间会比源实例大。
- 增量数据迁移
在全量迁移的基础上,DTS会读取Amazon Aurora MySQL的binlog信息,将Amazon Aurora MySQL的增量更新数据同步到阿里云RDS MySQL中。通过增量数据迁移可以实现在应用不停服的情况下,平滑地完成MySQL数据库的迁移。
数据库账号的权限要求
数据库 | 结构迁移 | 全量迁移 | 增量迁移 |
---|---|---|---|
Amazon Aurora MySQL | 迁移对象的SELECT权限 | 迁移对象的SELECT权限 | REPLICATION SLAVE、REPLICATION CLIENT、SHOW VIEW和对迁移对象执行SELECT操作的权限 |
阿里云RDS MySQL或RDS MySQL Serverless | 迁移对象的读写权限 | 迁移对象的读写权限 | 迁移对象的读写权限 |
数据库账号创建及授权方法:
- Amazon Aurora MySQL请参见为自建MySQL创建账号并设置binlog中创建账号的部分。
- 阿里云RDS MySQL或RDS MySQL Serverless请参见创建账号和修改账号权限。
迁移前准备工作
- 登录Amazon Aurora控制台。
- 进入Amazon Aurora MySQL的基本信息页面。
- 选择角色为写入器的节点。
- 在连接和安全性区域框,单击对应的VPC安全组名称。
- 在安全组设置页面,将对应区域的DTS服务器地址添加至入站规则中,IP地址段详情请参见迁移、同步或订阅本地数据库时需添加的IP白名单。说明
- 您只需添加目标数据库所在区域对应的DTS IP地址段。例如,源数据库地区为新加坡,目标数据库地区为杭州,您只需要添加杭州地区的DTS IP地址段。
- 在加入IP地址段时,您可以一次性添加所需的IP地址,无需逐条添加入站规则。
- 登录Amazon Aurora MySQL数据库,设置binlog日志保存时间。如果不需要增量数据迁移,可跳过本步骤。
call mysql.rds_set_configuration('binlog retention hours', 24);
说明- 上述命令将binlog日志的保存设置为24小时,最大可设置为168个小时,即7天。
- Amazon Aurora MySQL的binlog日志需处于开启状态,且binlog_format需设置为row;当MySQL为5.6及以上版本时,binlog_row_image需设置为full。
操作步骤
- 登录数据传输控制台。说明 若数据传输控制台自动跳转至数据管理DMS控制台,您可以在右下角的
中单击
,返回至旧版数据传输控制台。
- 在左侧导航栏,单击数据迁移。
- 在迁移任务列表页面顶部,选择迁移的目标集群所属地域。
- 单击页面右上角的创建迁移任务。
- 配置迁移任务的源库及目标库信息。
类别 配置 说明 无 任务名称 DTS会自动生成一个任务名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。 源库信息 实例类型 选择有公网IP的自建数据库。 实例地区 当实例类型选择为有公网IP的自建数据库时,实例地区无需设置。 数据库类型 选择MySQL。 主机名或IP地址 填入Amazon Aurora MySQL的访问地址 。 说明 您可以在Amazon Aurora MySQL的基本信息页面,获取数据库的访问地址。端口 填入Amazon Aurora MySQL的服务端口,默认为3306。 数据库账号 填入Amazon Aurora MySQL的数据库账号,权限要求请参见数据库账号的权限要求。 数据库密码 填入该数据库账号的密码。 说明 源库信息填写完毕后,您可以单击数据库密码后的测试连接来验证填入的源库信息是否正确。源库信息填写正确则提示测试通过;如果提示测试失败,单击测试失败后的诊断,根据提示调整填写的源库信息。目标库信息 实例类型 选择RDS实例。 实例地区 选择阿里云RDS实例所属地域。 RDS实例ID 选择阿里云RDS实例ID。 数据库账号 填入阿里云RDS的数据库账号,权限要求请参见数据库账号的权限要求。 数据库密码 填入该数据库账号的密码。 说明 目标库信息填写完毕后,您可以单击数据库密码后的测试连接来验证填入的目标库信息是否正确。目标库信息填写正确则提示测试通过;如果提示测试失败,单击测试失败后的诊断,根据提示调整填写的目标库信息。连接方式 根据需求选择非加密连接或SSL安全连接。如果设置为SSL安全连接,您需要提前开启RDS实例的SSL加密功能,详情请参见设置SSL加密。 - 配置完成后,单击页面右下角的授权白名单并进入下一步。
如果源或目标数据库是阿里云数据库实例(例如RDS MySQL、云数据库MongoDB版等)或ECS上的自建数据库,DTS会自动将对应地区DTS服务的IP地址添加到阿里云数据库实例的白名单或ECS的安全规则中,您无需手动添加;如果源或目标数据库是IDC自建数据库或其他云数据库,则需要您手动添加对应地区DTS服务的IP地址,以允许来自DTS服务器的访问。需要手动添加的IP地址,请参见DTS服务器的IP地址段。
警告 DTS自动添加或您手动添加DTS服务的公网IP地址段可能会存在安全风险,一旦使用本产品代表您已理解和确认其中可能存在的安全风险,并且需要您做好基本的安全防护,包括但不限于加强账号密码强度防范、限制各网段开放的端口号、内部各API使用鉴权方式通信、定期检查并限制不需要的网段,或者使用通过内网(专线/VPN网关/智能网关)的方式接入。 - 选择迁移对象及迁移类型。
配置 说明 迁移类型 - 如果只需要进行全量迁移,则同时勾选结构迁移和全量数据迁移。
- 如果需要进行不停机迁移,则同时勾选结构迁移、全量数据迁移和增量数据迁移。
说明 如果未勾选增量数据迁移,为保障数据一致性,数据迁移期间请勿在Amazon Aurora MySQL中写入新的数据。迁移对象 在迁移对象框中单击待迁移的对象,然后单击
将其移动至已选择对象框。
说明- 迁移对象选择的粒度为库、表、列。
- 默认情况下,迁移对象在目标库中的名称与源库保持一致。如果您需要改变迁移对象在目标库中的名称,需要使用对象名映射功能,详情请参见库表列映射。
- 如果使用了对象名映射功能,可能会导致依赖这个对象的其他对象迁移失败。
映射名称更改 如需更改迁移对象在目标实例中的名称,请使用对象名映射功能,详情请参见库表列映射。 源、目标库无法连接重试时间 默认重试12小时,您也可以自定义重试时间。如果DTS在设置的时间内重新连接上源、目标库,迁移任务将自动恢复。否则,迁移任务将失败。 说明 由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。源表DMS_ONLINE_DDL过程中是否复制临时表到目标库 如源库使用数据管理DMS(Data Management Service)执行Online DDL变更,您可以选择是否迁移Online DDL变更产生的临时表数据。 - 是:迁移Online DDL变更产生的临时表数据。说明 Online DDL变更产生的临时表数据过大,可能会导致迁移任务延迟。
- 否:不迁移Online DDL变更产生的临时表数据,只迁移源库的原始DDL数据。说明 该方案会导致目标库锁表。
- 上述配置完成后,单击页面右下角的预检查并启动。说明
- 在迁移任务正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动迁移任务。
- 如果预检查失败,单击具体检查项后的
,查看失败详情。
- 您可以根据提示修复后重新进行预检查。
- 如无需修复告警检测项,您也可以选择确认屏蔽、忽略告警项并重新进行预检查,跳过告警检测项重新进行预检查。
- 预检查通过后,单击下一步。
- 在弹出的购买配置确认对话框,选择链路规格并选中数据传输(按量付费)服务条款。
- 单击购买并启动,迁移任务正式开始。
- 结构迁移+全量数据迁移
请勿手动结束迁移任务,否则可能会导致数据不完整。您只需等待迁移任务完成即可,迁移任务会自动结束。
- 结构迁移+全量数据迁移+增量数据迁移
迁移任务不会自动结束,您需要手动结束迁移任务。
重要 请选择合适的时间手动结束迁移任务,例如业务低峰期或准备将业务切换至目标集群时。- 观察迁移任务的进度变更为增量迁移,并显示为无延迟状态时,将源库停写几分钟,此时增量迁移的状态可能会显示延迟的时间。
- 等待迁移任务的增量迁移再次进入无延迟状态后,手动结束迁移任务。
- 结构迁移+全量数据迁移
- 将业务切换至阿里云RDS。