本文介绍如何使用数据传输服务DTS(Data Transmission Service),将云数据库MongoDB版(副本集架构或分片集群架构)迁移至云原生多模数据库Lindorm。
注意事项
类型 |
说明 |
源库限制 |
- 带宽要求:源库所属的服务器需具备足够出口带宽,否则将影响数据迁移速率。
- 待迁移的集合需具备主键或唯一约束,且字段具有唯一性,否则可能会导致目标数据库中出现重复数据。
- 如迁移对象为集合级别,且需进行编辑(如集合的名称映射),则单次迁移任务仅支持迁移至多1000个集合。当超出数量限制,任务提交后会显示请求报错,此时建议您拆分待迁移的集合,分批配置多个任务。
- 如需进行增量迁移,需开启Oplog日志,否则预检查阶段提示报错,且无法成功启动数据迁移任务。
说明
如需进行增量迁移,DTS要求源数据库的Oplog日志保存24小时以上;如需进行全量迁移和增量迁移,DTS要求源数据库的Oplog日志至少保留7天以上(您可在全量迁移完成后将Oplog日志保存时间设置为24小时以上),否则DTS可能因无法获取Oplog日志而导致任务失败,极端情况下甚至可能会导致数据不一致或丢失。由于您所设置的Oplog日志保存时间低于DTS要求的时间进而导致的问题,不在DTS的SLA保障范围内。
- 源库的操作限制:
- 在全量迁移阶段,请勿对库或集合执行结构变更操作,否则数据迁移任务会失败。
- 如仅执行全量数据迁移,请勿向源实例中写入新的数据,否则会导致源库和目标库数据不一致。
|
其他限制 |
- 不支持迁移admin和local库中的数据。
- 目标云原生多模数据库Lindorm的集合不能有名称为_id和_value的字段,否则会导致迁移失败。
- 如果需要增量迁移UPDATE或DELETE操作,有如下限制::
- 若宽表是通过Lindorm SQL创建的,须在建表时添加一列非主键列_mongo_id_,类型由MongoDB中_id的类型决定,同时需要为该列创建二级索引。
- 若宽表是通过HBase接口创建的,须在建表时添加一列非主键列且列族为f的列_mongo_id_,类型由MongoDB中_id的类型决定,同时需要为该列创建二级索引。若您需要同时使用新增列和ETL功能,请确保Lindorm中的数据不会重复。
- 不保留事务信息,即源库中的事务迁移到目标库时会转变为单条的记录。
- 执行数据迁移前需评估源库和目标库的性能,同时建议在业务低峰期执行数据迁移。否则全量数据迁移时DTS占用源和目标库一定读写资源,可能会导致数据库的负载上升。
- 由于全量数据迁移会并发执行INSERT操作,导致目标数据库的集合产生碎片,因此全量迁移完成后目标数据库的集合存储空间会大于源实例的集合存储空间。
- 请确认DTS对数据类型为FLOAT或DOUBLE的列的迁移精度是否符合业务预期。DTS会通过
ROUND(COLUMN,PRECISION) 来读取这两类列的值。如果没有明确定义其精度,DTS对FLOAT的迁移精度为38位,对DOUBLE的迁移精度为308位。
- DTS会尝试恢复七天之内迁移失败任务。因此在业务切换至目标实例前,请务必结束或释放该任务,或者用
revoke 命令回收DTS访问目标实例账号的写权限。避免该任务被自动恢复后,源端数据覆盖目标实例的数据。
- 由于DTS增量迁移的延迟时间是根据迁移到目标库最后一条数据的时间戳和当前时间戳对比得出,源库长时间未执行更新操作可能导致延迟信息不准确。如果任务显示的延迟时间过大,您可以在源库执行一个更新操作来更新延迟信息。
|
费用说明
迁移类型 |
链路配置费用 |
公网流量费用 |
全量数据迁移 |
不收费。 |
通过公网将数据迁移出阿里云时将收费,详情请参见计费概述。
|
增量数据迁移 |
收费,详情请参见计费概述。
|
迁移类型说明
迁移类型 |
说明 |
全量迁移 |
将源云数据库MongoDB版迁移对象的存量数据全部迁移到目标云原生多模数据库Lindorm中。
说明 支持全量迁移DATABASE、COLLECTION、INDEX中的数据。
|
增量迁移 |
在全量迁移的基础上,将源云数据库MongoDB版的增量更新迁移到目标云原生多模数据库Lindorm中。
说明 支持迁移如下增量更新:
- CREATE DATABASE、COLLECTION、INDEX
- DROP DATABASE、COLLECTION、INDEX
- RENAME COLLECTION
|
数据库账号的权限要求
数据库 |
全量迁移 |
增量迁移 |
账号创建及授权方法 |
源云数据库MongoDB版 |
待迁移库的read权限。 |
待迁移库、admin库和local库的read权限。 |
MongoDB数据库账号权限管理 |
目标云原生多模数据库Lindorm |
云原生多模数据库Lindorm的read和write权限。 |
管理ACL权限 |
操作步骤
本操作的目标库以Lindorm SQL创建的宽表为例进行介绍。
- 进入迁移任务的列表页面。
- 登录DMS数据管理服务。
- 在顶部菜单栏中,单击集成与开发(DTS)。
- 在左侧导航栏,选择。
- 在迁移任务右侧,选择源实例所属地域。
说明 新版DTS迁移任务列表页面,需要在页面左上角选择迁移实例所属地域。
- 单击创建任务,配置源库及目标库信息。
类别 |
配置 |
说明 |
无 |
任务名称 |
DTS会自动生成一个任务名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。
|
源库信息 |
选择已有的实例 |
您可以按实际需求,选择是否使用已有实例。
- 如使用已有实例,数据库信息将自动填入,您无需重复输入。
- 如不使用已有实例,您需要输入下方的数据库信息。
|
数据库类型 |
选择MongoDB。
|
接入方式 |
选择云实例。
|
实例地区 |
选择源云数据库MongoDB版所属地域。
|
架构类型 |
本示例选择副本集架构。
说明 若您的源 云数据库MongoDB版为 分片集群架构,您还需要填写 shard账号和 shard密码。申请shard账号的具体操作请参见 申请Shard节点。
|
实例ID |
选择源云数据库MongoDB版实例ID。
|
鉴权数据库名称 |
填入源云数据库MongoDB版实例中同步对象所属鉴权数据库的名称,若未修改过则默认为admin。
|
数据库账号 |
填入源云数据库MongoDB版的数据库账号。
|
数据库密码 |
填入该数据库账号对应的密码。
|
目标库信息 |
选择已有的实例 |
您可以按实际需求,选择是否使用已有实例。
- 如使用已有实例,数据库信息将自动填入,您无需重复输入。
- 如不使用已有实例,您需要输入下方的数据库信息。
|
数据库类型 |
选择Lindorm。
|
接入方式 |
选择云实例。
|
实例地区 |
选择目标云原生多模数据库Lindorm所属地域。 |
实例ID |
选择目标云原生多模数据库Lindorm的实例ID。 |
数据库账号 |
填入目标云原生多模数据库Lindorm的数据库账号。 |
数据库密码 |
填入该数据库账号对应的密码。
|
- 配置完成后,单击页面下方的测试连接以进行下一步。
警告
- 如果源或目标数据库是阿里云数据库实例(例如RDS MySQL、云数据库MongoDB版等)或ECS上的自建数据库,DTS会自动将对应地区DTS服务的IP地址添加到阿里云数据库实例的白名单或ECS的安全规则中,您无需手动添加,请参见DTS服务器的IP地址段;如果源或目标数据库是IDC自建数据库或其他云数据库,则需要您手动添加对应地区DTS服务的IP地址,以允许来自DTS服务器的访问。
- 上述场景中,DTS自动添加或您手动添加DTS服务的公网IP地址段可能会存在安全风险,一旦使用本产品代表您已理解和确认其中可能存在的安全风险,并且需要您做好基本的安全防护,包括但不限于加强账号密码强度防范、限制各网段开放的端口号、内部各API使用鉴权方式通信、定期检查并限制不需要的网段,或者使用通过内网(专线/VPN网关/智能网关)的方式接入。
- DTS任务完成或释放后,建议您手动检测并删除DTS相关的服务器IP地址段。
- 进行数据迁移配置。
配置 |
说明 |
任务步骤 |
- 如果只需要进行全量迁移,请选中全量迁移。
- 如果需要进行不停机迁移,请同时选中全量迁移和增量迁移。
说明 如果未选择增量迁移,为保障数据一致性,数据迁移期间请勿在源实例中写入新的数据。
|
目标已存在表的处理模式 |
- 预检查并报错拦截:检查目标数据库中是否有同名的集合。如果目标数据库中没有同名的集合,则通过该检查项目;如果目标数据库中有同名的集合,则在预检查阶段提示错误,数据同步任务不会被启动。
- 忽略报错并继续执行:跳过目标数据库中是否有同名集合的检查项。
警告 选择为 忽略报错并继续执行,可能导致数据不一致,给业务带来风险,例如:
- 在目标库遇到与源库主键的值相同的记录,则会保留目标库中的该条记录,即源库中的该条记录不会同步至目标库中。
- 可能会导致无法初始化数据、只能同步部分的数据或同步失败。
|
目标库对象名称大小写策略 |
您可以配置目标实例中同步对象的库名和集合名的英文大小写策略。默认情况下选择DTS默认策略,您也可以选择与源库或目标库默认策略保持一致。更多信息,请参见目标库对象名称大小写策略。
|
源库对象 |
在源库对象框中单击待迁移的集合,然后单击 将其移动至已选择对象框。
|
已选择对象 |
若目标库中的宽表是通过Lindorm SQL创建的,需要通过配置新增列的方式迁移数据,未配置的列不会迁移至目标库。
- 编辑库名映射。
- 右击已选择对象中的待迁移集合所属的库。
- 将Schema名称修改为Lindorm中目标库的名称。

- 可选:在勾选所需同步的DML&DDL操作中选择所需增量迁移的操作。
- 单击确定。
- 编辑表名映射。
- 右击已选择对象中的待迁移的集合。
- 将表名称修改为Lindorm中目标表的名称。

- 可选:设置过滤条件,设置方法请参见通过SQL条件过滤任务数据。
- 可选:在勾选所需同步的DML&DDL操作中选择所需增量迁移的操作。
- 配置MongoDB中需要迁移的字段(Field)。

- 单击+ 新增列。
- 填写列名称。
说明 此处填写的是Lindorm中目标表的列名。
- 若目标表是用SQL创建的,列名称填写的是Lindorm中目标表的列名。
- 若目标表是用HBase创建的且需要使用新增列功能,在修改列名称前您需要提前添加列映射关系,详情请参见HBase表添加列映射示例。列名称填写内容如下:
- 该列是主键:填写为ROW。
- 该列不是主键:填写格式为列族:列名,如person:name。
- 选择列数据的类型。
- 可选:配置列数据的长度和精度。
- 在赋值下方的文本框中填写
bson_value() 表达式,详情请参见赋值配置示例。
|
- 单击下一步高级配置,进行高级配置。
配置 |
说明 |
设置告警 |
是否设置告警,当迁移失败或延迟超过阈值后,将通知告警联系人。
- 不设置:不设置告警。
- 设置:设置告警,您还需要设置告警阈值和告警联系人。
|
源库、目标库无法连接后的重试时间 |
在迁移任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为120分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的重试时间内重新连接上源库、目标库,迁移任务将自动恢复。否则,迁移任务将失败。
说明
- 针对同源或者同目标的多个DTS实例,如DTS实例A和DTS实例B,设置网络重试时间时A设置30分钟,B设置60分钟,则重试时间以低的30分钟为准。
- 由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。
|
配置ETL功能 |
选择是否配置ETL功能。关于ETL的更多信息,请参见 什么是ETL。
说明 若目标表是用HBase创建的,请注意如下事项:
|
- 上述配置完成后,单击页下方的下一步保存任务并预检查。
说明
- 在迁移任务正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动迁移任务。
- 如果预检查失败,请单击失败检查项后的查看详情,并根据检查结果的提示修复后重新进行预检查。
- 如果预检查产生警告,请单击该检查项后的点击确认告警详情。
- 您可以根据提示修复后重新进行预检查。
- 如果无需修复该检查项,您也可以依次单击确认屏蔽、确定、重新进行预检查,跳过告警检查项重新进行预检查。如果选择屏蔽告警检查项,可能会导致数据不一致等问题,给业务带来风险。
- 预检查通过率显示为100%时,单击下一步购买。
- 在购买页面,选择数据迁移实例的链路规格,详细说明请参见下表。
类别 |
参数 |
说明 |
信息配置 |
链路规格 |
DTS为您提供了不同性能的迁移规格,迁移链路规格的不同会影响迁移速率,您可以根据业务场景进行选择,详情请参见数据迁移链路规格说明。
|
- 配置完成后,阅读并勾选《数据传输(按量付费)服务条款》。
- 单击购买并启动,迁移任务正式开始,您可在数据迁移界面查看具体进度。
HBase表添加列映射示例
-
为HBase创建的表添加列映射。
ALTER TABLE test MAP DYNAMIC COLUMN f:_mongo_id_ HSTRING/HINT/..., person:name HSTRING, person:age HINT;
-
为HBase创建的表添加二级索引。
CREATE INDEX idx ON test(f:_mongo_id_);
HBase表迁移示例(ETL)
MongoDB文档(Document)
{
"_id" : 0,
"person" : {
"name" : "cindy0",
"age" : 0,
"student" : true
}
}
ETL数据处理语句
script:e_expand_bson_value("*", "_id")
迁移结果
赋值配置示例
源MongoDB数据结构
{
"_id":"62cd344c85c1ea6a2a9f****",
"person":{
"name":"neo",
"age":"26",
"sex":"male"
}
}
目标Lindorm表结构
列名称 |
类型 |
id |
STRING |
person_name |
STRING |
person_age |
INT |
新增列配置
列名称 |
类型 |
赋值 |
id |
STRING |
bson_value("_id") |
person_name |
STRING |
bson_value("person","name") |
person_age |
BIGINT |
bson_value("person","age") |