本文中含有需要您注意的重要提示信息,忽略该信息可能对您的业务造成影响,请务必仔细阅读。
本文介绍如何使用数据传输服务DTS(Data Transmission Service),结合Kafka集群与TiDB数据库的Pump、Drainer组件,完成增量数据迁移,实现在应用不停服的情况下,平滑地完成数据库的迁移上云。
前提条件
增量迁移前,您可先将自建TiDB中的存量数据迁移至RDS MySQL,请参见从自建TiDB全量迁移至RDS MySQL。
由于该功能仅在部分地域支持,目标RDS MySQL实例所属的地域需为华东1(杭州)、华东2(上海)、华北1(青岛)、华北2(北京)、华南1(深圳)、华北3(张家口)、中国香港、亚太东南1(新加坡)、美国西部1(硅谷)或美国东部1(弗吉尼亚)地域。
RDS MySQL实例的存储空间须大于TiDB数据库已占用的存储空间。
背景信息
由于TiDB的Binlog格式和实现机制与MySQL数据库存在一定区别,为实现增量数据迁移,同时减少对源数据库的改动,您需要部署Kafka集群以及TiDB数据库的Pump和Drainer组件。
由Pump组件实时记录TiDB产生的Binlog并提供给Drainer组件,然后由Drainer组件将获取到的Binlog写入到下游的Kafka集群。DTS在执行增量数据迁移时将从Kafka集群中获取对应的数据并实时迁移至目标数据库(例如RDS MySQL实例)。
注意事项
DTS在执行全量数据迁移时将占用源库和目标库一定的读写资源,可能会导致数据库的负载上升,在数据库性能较差、规格较低或业务量较大的情况下(例如源库有大量慢SQL、存在无主键表或目标库存在死锁等),可能会加重数据库压力,甚至导致数据库服务不可用。因此您需要在执行数据迁移前评估源库和目标库的性能,同时建议您在业务低峰期执行数据迁移(例如源库和目标库的CPU负载在30%以下)。
如果源库中待迁移的表没有主键或唯一约束,且所有字段没有唯一性,可能会导致目标数据库中出现重复数据。
对于数据类型为FLOAT或DOUBLE的列,DTS会通过
ROUND(COLUMN,PRECISION)
来读取该列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位,请确认迁移精度是否符合业务预期。DTS会自动地在阿里云RDS MySQL中创建数据库,如果待迁移的数据库名称不符合阿里云RDS的定义规范,您需要在配置迁移任务之前在阿里云RDS MySQL中创建数据库。
关于阿里云RDS的定义规范和创建数据库的操作方法,请参见创建数据库。
对于迁移失败的任务,DTS会触发自动恢复。在您将业务切换至目标实例前,请务必先结束或释放该任务,避免该任务被自动恢复后,导致源端数据覆盖目标实例的数据。
费用说明
迁移类型说明
迁移类型 | 说明 |
迁移类型 | 说明 |
结构迁移 | DTS将待迁移对象的结构定义迁移到目标库。目前DTS支持结构迁移的对象为库、表和视图。 此场景属于异构数据库间的数据迁移,DTS在执行结构迁移时数据类型无法完全对应,请谨慎评估数据类型的映射关系对业务的影响,详情请参见异构数据库间的数据类型映射关系。 |
全量数据迁移 | DTS将待迁移对象的存量数据全部迁移到目标库中。 由于全量数据迁移会并发INSERT导致目标实例的表存在碎片,全量迁移完成后目标库的表空间会比源库的表空间大。 |
增量数据迁移 | DTS从Kafka集群中获取TiDB产生的Binlog数据,然后将对应的增量更新实时迁移至到目标库中。增量数据迁移阶段支持下列SQL操作的同步:
通过增量数据迁移可以实现在应用不停服的情况下,平滑地完成数据库的迁移上云。 |
准备工作
为减少网络延迟对增量数据迁移的影响,Pump组件、Drainer组件和Kafka集群所部署的服务器需要与源库所属的服务器在同一内网中。
部署Pump和Drainer组件,详情请参见TiDB Binlog集群部署。
修改Drainer组件的配置文件,设置输出为Kafka,详情请参见Kafka自定义开发。
选择下述方法准备Kafka集群:
部署自建Kafka集群,详情请参见Apache Kafka官网。
为保障Kafka集群可正常接收到TiDB产生的较大的Binlog数据,请适当将Broker组件中的
message.max.bytes
、replica.fetch.max.bytes
参数以及Consumer组件中的fetch.message.max.bytes
参数对应的值调大,详细说明请参见Kafka配置说明。使用阿里云消息队列Kafka版(MQ for Apache Kafka),详情请参见阿里云消息队列Kafka版快速入门。
为保障正常通信和减少网络延迟对增量数据迁移的影响,部署阿里云消息队列Kafka实例时,需配置和源库服务器相同的专有网络。
在自建Kafka集群或阿里云消息队列Kafka实例中创建Topic。
将DTS服务器的IP地址段加入至TiDB数据库的白名单安全设置中,具体IP地址段信息请参见添加DTS服务器的IP地址段。
操作步骤
登录数据传输控制台。
若数据传输控制台自动跳转至数据管理DMS控制台,您可以在右下角的
中单击
,返回至旧版数据传输控制台。
在左侧导航栏,单击数据迁移。
在迁移任务列表页面顶部,选择迁移的目标集群所属地域。
单击页面右上角的创建迁移任务。
配置迁移任务的源库及目标库信息。
配置迁移任务的名称和源库信息。
配置
说明
配置
说明
任务名称
DTS会自动生成一个任务名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。
实例类型
根据源库的部署位置进行选择, 本文以ECS上的自建数据库为例介绍配置流程。
当自建数据库为其他实例类型时,您还需要执行相应的准备工作,详情请参见准备工作。
实例地区
选择部署了TiDB数据库的ECS实例所属的地域。
数据库类型
选择TiDB。
端口
填入TiDB数据库的服务端口,默认为4000。
数据库账号
填入TiDB数据库账号,需具备SHOW VIEW和待迁移对象的SELECT权限。
数据库密码
填入该数据库账号的密码。
源库信息填写完毕后,您可以单击数据库密码后的测试连接来验证填入的源库信息是否正确。源库信息填写正确则提示测试通过;如果提示测试失败,单击测试失败后的诊断,根据提示调整填写的源库信息。
是否做增量迁移
根据业务需求选择,本案例选择为是。如果仅需要全量数据迁移,配置方法请参见从自建TiDB全量迁移至RDS MySQL。
Kafka集群类型
根据Kafka的部署位置进行选择, 本文以ECS上的自建数据库为例介绍配置流程。当自建Kafka为其他实例类型时,您还需要执行相应的准备工作,详情请参见准备工作概览。
由于DTS暂时不支持直接选择阿里云消息队列Kafka版,如果您使用的是阿里云消息队列Kafka实例,此处需将其作为自建Kafka来配置,即选择为通过专线/VPN网关/智能接入网关接入的自建数据库,然后选择阿里云消息队列Kafka实例所属的专有网络。
实例地区
和源库的实例地区保持一致,不可变更。
ECS实例ID
选择自建Kafka所属的ECS实例ID。
Kafka端口
自建Kafka的服务端口,默认为9092。
Kafka集群账号
填入自建Kafka的用户名,如自建Kafka未开启验证可不填写。
Kafka集群密码
填入该用户的密码,如自建Kafka未开启验证可不填写。
Topic
单击右侧的获取Topic列表,然后在下拉框中选择具体的Topic。
Kafka版本
根据自建Kafka的版本进行选择。
Kafka集群连接方式
根据业务及安全需求,选择非加密连接或SCRAM-SHA-256。
配置迁移任务的目标库信息。
配置
说明
配置
说明
实例类型
选择RDS实例。
实例地区
选择目标RDS实例所属地域。
数据库账号
数据库密码
填入该数据库账号的密码。
源库信息填写完毕后,您可以单击数据库密码后的测试连接来验证填入的源库信息是否正确。源库信息填写正确则提示测试通过;如果提示测试失败,单击测试失败后的诊断,根据提示调整填写的源库信息。
连接方式
根据需求选择非加密连接或SSL安全连接。如果设置为SSL安全连接,您需要在配置迁移任务之前开启RDS实例的SSL加密功能,详情请参见使用云端证书快速开启SSL链路加密。
配置完成后,单击页面右下角的授权白名单并进入下一步。
如果源或目标数据库是阿里云数据库实例(例如RDS MySQL、云数据库MongoDB版等),DTS会自动将对应地区DTS服务的IP地址添加到阿里云数据库实例的白名单;如果源或目标数据库是ECS上的自建数据库,DTS会自动将对应地区DTS服务的IP地址添加到ECS的安全规则中,您还需确保自建数据库没有限制ECS的访问(若数据库是集群部署在多个ECS实例,您需要手动将DTS服务对应地区的IP地址添加到其余每个ECS的安全规则中);如果源或目标数据库是IDC自建数据库或其他云数据库,则需要您手动添加对应地区DTS服务的IP地址,以允许来自DTS服务器的访问。DTS服务的IP地址,请参见DTS服务器的IP地址段。
DTS自动添加或您手动添加DTS服务的公网IP地址段可能会存在安全风险,一旦使用本产品代表您已理解和确认其中可能存在的安全风险,并且需要您做好基本的安全防护,包括但不限于加强账号密码强度防范、限制各网段开放的端口号、内部各API使用鉴权方式通信、定期检查并限制不需要的网段,或者使用通过内网(专线/VPN网关/智能网关)的方式接入。
选择迁移类型和迁移对象。
配置
说明
配置
说明
迁移类型
如果只需要进行全量迁移,同时选中结构迁移和全量数据迁移。
如果需要进行不停机迁移,同时选中结构迁移、全量数据迁移和增量数据迁移。本案例同时选中这三种迁移类型。
迁移对象
在迁移对象框中单击待迁移的对象,然后单击
图标将其移动至已选择对象框。
迁移对象选择的粒度为库、表、列。若选择的迁移对象为表或列,其他对象(如视图、触发器、存储过程)不会被迁移至目标库。
默认情况下,迁移对象在目标库中的名称与源库保持一致。如果您需要改变迁移对象在目标库中的名称,需要使用对象名映射功能,详情请参见库表列映射。
如果使用了对象名映射功能,可能会导致依赖这个对象的其他对象迁移失败。
映射名称更改
如需更改迁移对象在目标实例中的名称,请使用对象名映射功能,详情请参见库表列映射。
源、目标库无法连接重试时间
默认重试12小时,您也可以自定义重试时间。如果DTS在设置的时间内重新连接上源、目标库,迁移任务将自动恢复。否则,迁移任务将失败。
由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。
上述配置完成后,单击页面右下角的预检查并启动。
在迁移任务正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动迁移任务。
如果预检查失败,单击具体检查项后的
,查看失败详情。
您可以根据提示修复后重新进行预检查。
如无需修复告警检测项,您也可以选择确认屏蔽、忽略告警项并重新进行预检查,跳过告警检测项重新进行预检查。
预检查通过后,单击下一步。
在弹出的购买配置确认对话框,选择链路规格并选中数据传输(按量付费)服务条款。
单击购买并启动,迁移任务正式开始。
结构迁移+全量数据迁移
请勿手动结束迁移任务,否则可能会导致数据不完整。您只需等待迁移任务完成即可,迁移任务会自动结束。
结构迁移+全量数据迁移+增量数据迁移
迁移任务不会自动结束,您需要手动结束迁移任务。
请选择合适的时间手动结束迁移任务,例如业务低峰期或准备将业务切换至目标集群时。
观察迁移任务的进度变更为增量迁移,并显示为无延迟状态时,将源库停写几分钟,此时增量迁移的状态可能会显示延迟的时间。
等待迁移任务的增量迁移再次进入无延迟状态后,手动结束迁移任务。
- 本页导读 (1)
- 前提条件
- 背景信息
- 注意事项
- 费用说明
- 迁移类型说明
- 准备工作
- 操作步骤