本文列出了一些使用 TiDB Lightning 时可能会遇到的问题与答案。
TiDB Lightning 的版本应与集群相同。如果使用 Local-backend 模式,最低版本要求为 4.0.0。如果使用 Importer-backend 或 TiDB-backend 模式 最低版本要求是 2.0.9,但建议使用最新的稳定版本 3.0。
支持。
详细权限描述参考 TiDB Lightning 使用前提。
如果只是个别表报错,不会影响整体。报错的那个表会停止处理,继续处理其他的表。
如果使用 Importer-backend,根据 tikv-importer 的状态,重启 TiDB Lightning 的基本顺序如下:
如果 tikv-importer 仍在运行:
tidb-lightning。如果 tikv-importer 需要重启:
tikv-importer。tidb-lightning 并等待,直到程序因校验和错误(如果有的话)而失败。
tikv-importer 将清除所有仍在写入的引擎文件,但是 tidb-lightning 并不会感知到该操作。从 v3.0 开始,最简单的方法是让 tidb-lightning 继续,然后再重试。tidb-lightning。如果使用 Local-backend 和 TiDB-backend,操作和 Importer-backend 的 tikv-importer 仍在运行时相同。
TiDB Lightning 默认会对导入数据计算校验和 (checksum),如果校验和不一致就会停止导入该表。可以在日志看到相关的信息。
TiDB 也支持从 MySQL 命令行运行 ADMIN CHECKSUM TABLE 指令来计算校验和。
ADMIN CHECKSUM TABLE `schema`.`table`;
+---------+------------+---------------------+-----------+-------------+ | Db_name | Table_name | Checksum_crc64_xor | Total_kvs | Total_bytes | +---------+------------+---------------------+-----------+-------------+ | schema | table | 5505282386844578743 | 3 | 96 | +---------+------------+---------------------+-----------+-------------+ 1 row in set (0.01 sec)
目前,TiDB Lightning 支持:
自 v5.1 起,TiDB Lightning 可以自动识别下游的库和表。如果你使用低于 v5.1 的 TiDB Lightning,需在配置文档中的 [mydumper] 部分将 no-schema 设置为 true 即可。no-schema=true 会默认下游已经创建好所需的数据库和表,如果没有创建,会报错。
可以。TiDB Lightning 默认的 sql_mode 为 "STRICT_TRANS_TABLES,NO_ENGINE_SUBSTITUTION"。
这个设置不允许一些非法的数值,例如 1970-00-00 这样的日期。可以修改配置文件 [tidb] 下的 sql-mode 值。
... [tidb] sql-mode = "" ...
tikv-importer,同时有多个 tidb-lightning 进程导入数据吗?只要每个 TiDB Lightning 操作的表互不相同就可以。
tikv-importer 进程?手动部署:如果 tikv-importer 正在前台运行,可直接按 Ctrl+C 退出。否则,可通过 ps aux | grep tikv-importer 获取进程 ID,然后通过 kill «pid» 结束进程。
tidb-lightning 进程?根据部署方式,选择相应操作结束进程。
手动部署:如果 tidb-lightning 正在前台运行,可直接按 Ctrl+C 退出。否则,可通过 ps aux | grep tidb-lightning 获取进程 ID,然后通过 kill -2 «pid» 结束进程。
使用 TiDB Lightning 的 SST Mode 建议配置万兆网卡。
千兆网卡的总带宽只有 120 MB/s,而且需要与整个 TiKV 集群共享。在使用 TiDB Lightning Physical Import Mode 导入时,极易用尽所有带宽,继而因 PD 无法联络集群使集群断连。
当使用默认的 3 副本设置时,TiDB Lightning 需要 TiKV 集群预留数据源大小 6 倍的空间。多出来的 2 倍是算上下列没储存在数据源的因素的保守估计:
不能,TiKV Importer 会在内存中存储一些引擎文件,重启后,tidb-lightning 会因连接失败而停止。此时,你需要清除失败的断点,因为这些 TiKV Importer 特有的信息丢失了。你可以在之后重启 TiDB Lightning。
删除断点文件。
tidb-lightning-ctl --config conf/tidb-lightning.toml --checkpoint-remove=all
如果出于某些原因而无法运行该命令,你可以尝试手动删除 /tmp/tidb_lightning_checkpoint.pb 文件。
如果使用 Local-backend,删除配置中 sorted-kv-dir 对应的目录;如果使用 Importer-backend,删除 tikv-importer 所在机器上的整个 import 文件目录。
如果需要的话,删除 TiDB 集群上创建的所有表和库。
清理残留的元信息。如果存在以下任意一种情况,需要手动清理元信息库:
使用下面命令清理元信息:
DROP DATABASE IF EXISTS `lightning_metadata`;
如果 TiDB Lightning 的配置文件中已经指定了 status-port,可以跳过此步骤。否则,需要向 TiDB Lightning 发送 USR1 信号以开启 status-port。
首先通过 ps 等命令获取 TiDB Lightning 的进程 PID,然后运行如下命令:
kill -USR1
查看 TiDB Lightning 的日志,其中 starting HTTP server / start HTTP server / started HTTP server 的日志会显示新开启的 status-port。
访问 http:// 可获取 goroutine 信息。