在上篇「快、准、稳的实现亿级别MySQL大表迁移」的文章中,介绍了NineData在单张大表场景下的迁移性能和优势。但在大部分场景中,可能遇到的是多张表构成的大数据量场景下的数据搬迁问题。因为搬迁数据量较大,迁移的时长、稳定性及准确性都受到极大的挑战,常见的迁移工具通常不能很好得支持。为此,NineData针对这种场景专门进行针对性的优化,以提供高效、准确、稳定的大数据量迁移能力。
目前,数据迁移主要分为逻辑迁移和物理迁移,逻辑迁移主要有mysqldump、mydumper ,物理迁移主要有XtraBackup。对于这类导入导出和拷贝文件的传统迁移方案,在迁移中会存在一些问题:
NineData 提供的数据复制同时包含了数据迁移和数据同步的能力,在不影响业务的前提下,提供了高效、稳定、可运维的大数据量迁移能力。经实测,在源及目标实例同城情况下,500GB数据的迁移,只需1个小时,平均迁移速度142MB/s。
通过对 MySQL 大数据量迁移的性能测试,和传统迁移比,NineData 数据迁移的优势有:
NineData 在提供强大迁移能力的同时,也保证了使用的简单性,只需要1分钟就能完成迁移任务的配置,实现完全自动化的数据迁移过程。下面我们来看下整个任务的配置过程:
选择迁移对象:针对不同粒度选择迁移对象,也可以选择部分迁移对象。
配置映射和过滤规则:可自定义迁移的库名、表名和按照不同的过滤条件进行多表的部分数据迁移,也可以针对表的列名进行映射和部分列迁移。
通过丰富的检查项,保证了迁移任务的稳定性;通过开启数据对比,保证了迁移后数据的一致性。到此,我们就完成了一个高性能迁移任务的配置。
同时,为了提供更好的迁移体验,NineData针对迁移过程提供了完善的观测、干预能力。其不但提供对象迁移的详细状态、进展、详情,还通过监控和日志透露后台线程的内部执行情况,帮助用户全方位追踪迁移进展。同时,还针对运行过程中可能出现的异常情况,提供基础诊断能力,及修复、跳过、移除等多种修复策略和迁移限流能力,让用户能够自主快速得诊断并修复链路,保障迁移稳定性。
NineData 提供的高效、快速、稳定的MySQL大数据量迁移能力,很好的补充了传统迁移方案的不足。当前,NineData 已经支持数十种常见数据库的迁移复制,同时,除了SAAS模式外,还提供了企业专属集群模式,满足企业最高的数据安全合规要求。目前,NineData已在运营商、金融、制造业、地产、电商等多个行业完成大规模应用实践。如果您感兴趣的话,可以登录https://www.ninedata.cloud/dbmigration,立即开始使用。