本文介绍如何使用数据传输服务DTS(Data Transmission Service),将自建Redis迁移至云原生内存数据库Tair实例。DTS支持全量数据迁移以及增量数据迁移,同时使用这两种迁移类型可以实现在自建应用不停服的情况下,平滑地完成自建Redis数据库的迁移上云。
前提条件
- 已创建源自建Redis实例和目标云原生内存数据库Tair。目标云原生内存数据库Tair实例的创建方式,请参见步骤1:创建实例。说明
- 当前DTS仅支持直连模式的云原生内存数据库Tair实例。
- DTS也支持云数据库Redis迁移至Tair和Tair间的迁移,配置方式与自建Redis迁移至Tair实例类似,您可以参考本文进行配置。
- 自建Redis的版本为2.8、3.0、3.2、4.0、5.0、6.0。
- 自建Redis可正常运行
psync
或sync
命令。 - 目标云原生内存数据库Tair实例的存储空间须大于源自建Redis数据库已使用的存储空间。
注意事项
类型 | 说明 |
---|---|
源库限制 |
|
其他限制 |
|
费用说明
迁移类型 | 链路配置费用 | 公网流量费用 |
---|---|---|
结构迁移和全量数据迁移 | 不收费。 | 通过公网将数据迁移出阿里云时将收费,详情请参见计费概述。 |
增量数据迁移 | 收费,详情请参见计费概述。 |
迁移类型说明
- 全量数据迁移 DTS将自建Redis数据库迁移对象的存量数据,全部迁移到云原生内存数据库Tair实例中。说明 如仅执行全量数据迁移,则为保障数据一致性,全量数据迁移期间请勿在自建Redis数据库中写入新的数据。
- 增量数据迁移
在全量数据迁移的基础上,DTS将自建Redis数据库的增量更新数据到云原生内存数据库Tair实例中。通过增量数据迁移可以实现在应用不停服的情况下,平滑地完成Redis数据库的迁移上云。
增量数据迁移支持同步的命令
- APPEND
- BITOP、BLPOP、BRPOP、BRPOPLPUSH
- DECR、DECRBY、DEL
- EVAL、EVALSHA、EXEC、EXPIRE、EXPIREAT
- FLUSHALL、FLUSHDB
- GEOADD、GETSET
- HDEL、HINCRBY、HINCRBYFLOAT、HMSET、HSET、HSETNX
- INCR、INCRBY、INCRBYFLOAT
- LINSERT、LPOP、LPUSH、LPUSHX、LREM、LSET、LTRIM
- MOVE、MSET、MSETNX、MULTI
- PERSIST、PEXPIRE、PEXPIREAT、PFADD、PFMERGE、PSETEX、PUBLISH
- RENAME、RENAMENX、RESTORE、RPOP、RPOPLPUSH、RPUSH、RPUSHX
- SADD、SDIFFSTORE、SELECT、SET、SETBIT、SETEX、SETNX、SETRANGE、SINTERSTORE、SMOVE、SPOP、SREM、SUNIONSTORE
- ZADD、ZINCRBY、ZINTERSTORE、ZREM、ZREMRANGEBYLEX、ZUNIONSTORE、ZREMRANGEBYRANK、ZREMRANGEBYSCORE
准备工作(增量数据迁移)
为保障增量数据迁移任务的正常执行,建议关闭复制输出缓冲区的限制。本文以Linux操作系统的服务器为例进行演示。
说明 如您只须要进行全量数据迁移,可跳过本步骤。
- 使用redis-cli工具连接自建Redis数据库。 说明 安装原生Redis即可使用redis-cli,详情请参见Redis社区版官网。
redis-cli -h <host> -p <port> -a <password>
说明- <host>:自建Redis数据库的访问地址,本机可使用127.0.0.1。
- <port>:自建Redis数据库的服务端口,默认为6379。
- <password>:自建Redis数据库的访问密码。
示例:redis-cli -h 127.0.0.1 -p 6379 -a Test123456
- 执行下述命令,关闭复制输出缓冲区的限制。
config set client-output-buffer-limit 'slave 0 0 0'
操作步骤
- 进入迁移任务的列表页面。
- 登录DMS数据管理服务。
- 在顶部菜单栏中,单击集成与开发(DTS)。
- 在左侧导航栏,选择 。
说明 您也可以登录新版DTS迁移任务的列表页面。 - 在迁移任务右侧,选择迁移实例所属地域。说明 新版DTS迁移任务列表页面,需要在页面左上角选择迁移实例所属地域。
- 单击创建任务,配置源库及目标库信息。
类别 配置 说明 无 任务名称 DTS会自动生成一个任务名称,建议配置具有业务意义的名称(无唯一性要求),便于后续识别。
源库信息 选择已有的实例 您可以按实际需求,选择是否使用已有实例。- 如使用已有实例,数据库信息将自动填入,您无需重复输入。
- 如不使用已有实例,您需要输入下方的数据库信息。
数据库类型 选择Tair/Redis。 接入方式 根据源库的部署位置进行选择,本示例选择ECS自建数据库。 说明 当源实例为自建数据库时,您还需要执行相应的准备工作,详情请参见准备工作概览。实例地区 选择源Redis实例所属地域。 是否跨阿里云账号 本示例为同一阿里云账号间迁移,选择不跨账号。 ECS实例ID 选择作为迁移数据源的ECS实例ID。 说明 当源Redis数据库为集群架构时,选择任一节点的Master所在的ECS实例ID。实例模式 根据源Redis数据库的架构选择单机版或集群版。 端口 填入源Redis数据库的服务端口,默认为6379。 说明 当源Redis数据库为集群架构时,填入任一节点的Master的服务端口。数据库密码 填入连接源Redis数据库的密码。 说明- 非必填项,如果没有设置密码可以不填。
- 数据库密码格式为<user>:<password>。例如,Redis实例自定义的用户名为admin,密码为Rp829dlwa,则此处填入的数据库密码为admin:Rp829dlwa。
目标库信息 选择已有的实例 您可以按实际需求,选择是否使用已有实例。- 如使用已有实例,数据库信息将自动填入,您无需重复输入。
- 如不使用已有实例,您需要输入下方的数据库信息。
数据库类型 选择Tair/Redis。 接入方式 选择云实例。 实例地区 选择目标云原生内存数据库Tair实例所属地域。 实例ID 选择目标云原生内存数据库Tair实例ID。 数据库密码 填入连接目标云原生内存数据库Tair的密码。 说明 数据库密码格式为<user>:<password>。例如,Tair实例自定义的用户名为admin,密码为Rp829dlwa,则此处填入的数据库密码为admin:Rp829dlwa。 - 配置完成后,单击页面下方的测试连接以进行下一步。警告
- 如果源或目标数据库是阿里云数据库实例(例如RDS MySQL、云数据库MongoDB版等)或ECS上的自建数据库,DTS会自动将对应地区DTS服务的IP地址添加到阿里云数据库实例的白名单或ECS的安全规则中,您无需手动添加,请参见DTS服务器的IP地址段;如果源或目标数据库是IDC自建数据库或其他云数据库,则需要您手动添加对应地区DTS服务的IP地址,以允许来自DTS服务器的访问。
- 上述场景中,DTS自动添加或您手动添加DTS服务的公网IP地址段可能会存在安全风险,一旦使用本产品代表您已理解和确认其中可能存在的安全风险,并且需要您做好基本的安全防护,包括但不限于加强账号密码强度防范、限制各网段开放的端口号、内部各API使用鉴权方式通信、定期检查并限制不需要的网段,或者使用通过内网(专线/VPN网关/智能网关)的方式接入。
- DTS任务完成或释放后,建议您手动检测并删除DTS相关的服务器IP地址段。
- 配置任务对象及高级配置。
- 基础配置
配置 说明 同步类型 勾选全量迁移 + 增量迁移。
目标已存在表的处理模式 预检查并报错拦截:检查目标数据库中是否有同名的表。如果目标数据库中没有同名的表,则通过该检查项目;如果目标数据库中有同名的表,则在预检查阶段提示错误,数据迁移任务不会被启动。
- 忽略报错并继续执行:跳过目标数据库中是否有同名表的检查项。 警告 选择为忽略报错并继续执行,可能导致数据不一致,给业务带来风险,例如:
- 表结构一致的情况下,在目标库遇到与源库主键的值相同的记录,则会保留目标库中的该条记录,即源库中的该条记录不会迁移至目标库中。
- 表结构不一致的情况下,可能导致只能迁移部分列的数据或迁移失败。
源库对象 在源库对象框中单击待迁移对象,然后单击
将其移动至已选择对象框。
说明 迁移对象的选择粒度为库,暂不支持Key粒度的选择。已选择对象 不支持更改映射名称。 - 高级配置
配置 说明 设置告警 是否设置告警,当迁移失败或延迟超过阈值后,将通知告警联系人。- 不设置:不设置告警。
- 设置:设置告警,您还需要设置告警阈值和告警联系人。更多信息,请参见在配置任务过程中配置监控报警。
源库、目标库无法连接后的重试时间 在迁移任务连接失败时,DTS会立即进行持续的重试连接,默认持续重试时间为120分钟,您也可以在取值范围(10~1440分钟)内自定义重试时间,建议设置30分钟以上。如果DTS在设置的重试时间内重新连接上源库、目标库,迁移任务将自动恢复。否则,迁移任务将失败。说明- 针对同源或者同目标的多个DTS实例,网络重试时间以后创建任务的设置为准。
- 由于连接重试期间,DTS将收取任务运行费用,建议您根据业务需要自定义重试时间,或者在源和目标库实例释放后尽快释放DTS实例。
延长目标库key的过期时间 设置源库中的key迁移到目标库时额外延长的过期时间。为保障数据的一致性,如有使用到(包括但不限于)如下命令,都建议设置延长key的过期时间,建议设置为600秒。EXPIRE key seconds PEXPIRE key milliseconds EXPIREAT key timestamp PEXPIREAT key timestampMs
配置ETL功能 选择是否配置ETL功能。关于ETL的更多信息,请参见 什么是ETL 。- 是:配置ETL功能,并在文本框中填写数据处理语句,详情请参见在DTS 迁移或 同步任务中配置ETL。
- 否:不配置ETL功能。
- 基础配置
- 上述配置完成后,单击页面下方的下一步保存任务并预检查。说明
- 在迁移任务正式启动之前,会先进行预检查。只有预检查通过后,才能成功启动迁移任务。
- 如果预检查失败,请单击失败检查项后的查看详情,并根据提示修复后重新进行预检查。
- 如果预检查产生警告:
- 对于不可以忽略的检查项,请单击失败检查项后的查看详情,并根据提示修复后重新进行预检查。
- 对于可以忽略无需修复的检查项,您可以依次单击点击确认告警详情、确认屏蔽、确定、重新进行预检查,跳过告警检查项重新进行预检查。如果选择屏蔽告警检查项,可能会导致数据不一致等问题,给业务带来风险。
- 预检查通过率显示为100%时,单击下一步购买。
- 在购买页面,选择数据迁移实例的链路规格,详细说明请参见下表。
类别 参数 说明 信息配置 链路规格 DTS为您提供了不同性能的迁移规格,迁移链路规格的不同会影响迁移速率,您可以根据业务场景进行选择,详情请参见数据迁移链路规格说明。
- 配置完成后,阅读并勾选《数据传输(按量付费)服务条款》。
- 单击购买并启动,迁移任务正式开始,您可在数据迁移界面查看具体进度。