全局锁就是对整个数据库实例加锁。MySQL
提供了一个加全局读锁的方法,命令是 Flush tables with read lock (FTWRL)
。当你需要让整个库处于只读状态的时候,可以使用这个命令,之后其他线程的以下语句会被阻塞:数据更新语句(数据的增删改)、数据定义语句(包括建表、修改表结构等)和更新类事务的提交语句。
全局锁的典型使用场景是,做全库逻辑备份。也就是把整库每个表都 select
出来存成文本。在备份过程中整个库完全处于只读状态。
官方自带的逻辑备份工具是 mysqldump
。当 mysqldump
使用参数–single-transaction
的时候,导数据之前就会启动一个事务,来确保拿到一致性视图。而由于 MVCC
的支持,这个过程中数据是可以正常更新的。
你一定在疑惑,有了这个功能,为什么还需要 FTWRL
呢?**一致性读是好,但前提是引擎要支持这个隔离级别。**比如,对于 MyISAM
这种不支持事务的引擎,如果备份过程中有更新,总是只能取到最新的数据,那么就破坏了备份的一致性。这时,我们就需要使用 FTWRL
命令了。
所以,single-transaction
方法只适用于所有的表使用事务引擎的库。如果有的表使用了不支持事务的引擎,那么备份就只能通过 FTWRL
方法。这往往是 DBA
要求业务开发人员使用 InnoDB
替代 MyISAM
的原因之一。
set global readonly=true
readonly
方式也可以让全库进入只读状态,但还是建议使用 FTWRL
方式,主要有两个原因:
readonly
的值会被用来做其他逻辑,比如用来判断一个库是主库还是备库。因此,修改 global
变量的方式影响面更大,不建议你使用。FTWRL
命令之后由于客户端发生异常断开,那么 MySQL
会自动释放这个全局锁,整个库回到可以正常更新的状态。而将整个库设置为 readonly
之后,如果客户端发生异常,则数据库就会一直保持 readonly
状态,这样会导致整个库长时间处于不可写状态,风险较高。业务的更新不只是增删改数据(DML
),还有可能是加字段等修改表结构的操作(DDL
)。不论是哪种方法,一个库被全局锁上以后,你要对里面任何一个表做加字段操作,都是会被锁住的。
MySQL
里面表级别的锁有两种:一种是表锁,一种是元数据锁(meta data lock,MDL
)。
表锁的语法是 lock tables … read/write
。与 FTWRL
类似,可以用unlock tables
主动释放锁,也可以在客户端断开的时候自动释放。需要注意,lock tables
语法除了会限制别的线程的读写外,也限定了本线程接下来的操作对象。
如果线程 A
中执行 lock tables t1 read, t2 write
;则其他线程写 t1
、读写 t2
的语句都会被阻塞。同时,线程A
在执行 unlock tables
之前,也只能执行读 t1
、读写 t2
的操作。连写 t1
都不允许,自然也不能访问其他表。
在还没有出现更细粒度的锁的时候,表锁是最常用的处理并发的方式。而对于 InnoDB
这种支持行锁的引擎,一般不使用 lock tables
命令来控制并发,毕竟锁住整个表的影响面还是太大。
另一类表级的锁是 MDL(metadata lock)
。MDL
不需要显式使用,在访问一个表的时候会被自动加上。MDL 的作用是,保证读写的正确性。你可以想象一下,如果一个查询正在遍历一个表中的数据,而执行期间另一个线程对这个表结构做变更,删了一列,那么查询线程拿到的结果跟表结构对不上,肯定是不行的。
因此,在 MySQL 5.5
版本中引入了 MDL
,当对一个表做增删改查操作的时候,加 MDL
读锁;当要对表做结构变更操作的时候,加 MDL
写锁。
MySQL
的行锁是在引擎层由各个引擎自己实现的,并不是所有的引擎都支持行锁,比如MyISAM
引擎就不支持行锁。
InnoDB
的行锁:顾名思义,行锁就是针对数据表中行记录的锁。这很好理解,比如事务 A
更新了一行,而这时候事务 B
也要更新同一行,则必须等事务 A
的操作完成后才能进行更新。
在 InnoDB
事务中,行锁是在需要的时候才加上的,但并不是不需要了就立刻释放,而是要等到事务结束时才释放。这个就是两阶段锁协议。
当并发系统中不同线程出现循环资源依赖,涉及的线程都在等待别的线程释放资源时,就会导致这几个线程都进入无限等待的状态,称为死锁。
当出现死锁以后,有两种策略:
innodb_lock_wait_timeout
来设置。innodb_deadlock_detect
设置为 on
,表示开启这个逻辑。在 InnoDB
中,innodb_lock_wait_timeout
的默认值是 50s
,意味着如果采用第一个策略,当出现死锁以后,第一个被锁住的线程要过 50s
才会超时退出,然后其他线程才有可能继续执行。对于在线服务来说,这个等待时间往往是无法接受的。
但是,我们又不可能直接把这个时间设置成一个很小的值,比如 1s
。这样当出现死锁的时候,确实很快就可以解开,但如果不是死锁,而是简单的锁等待呢?所以,超时时间设置太短的话,会出现很多误伤。
所以,正常情况下我们还是要采用第二种策略,即:主动死锁检测,而且 innodb_deadlock_detect
的默认值本身就是 on
。主动死锁检测在发生死锁的时候,是能够快速发现并进行处理的,但是它也是有额外负担的。
怎么解决由这种热点行更新导致的性能问题呢?问题的症结在于,死锁检测要耗费大量的 CPU
资源。
一种头痛医头的方法,就是如果你能确保这个业务一定不会出现死锁,可以临时把死锁检测关掉。但是这种操作本身带有一定的风险,因为业务设计的时候一般不会把死锁当做一个严重错误,毕竟出现死锁了,就回滚,然后通过业务重试一般就没问题了,这是业务无损的。而关掉死锁检测意味着可能会出现大量的超时,这是业务有损的。
另一个思路是控制并发度。根据上面的分析,你会发现如果并发能够控制住,比如同一行同时最多只有 10 个线程在更新,那么死锁检测的成本很低,就不会出现这个问题。一个直接的想法就是,在客户端做并发控制。但是,你会很快发现这个方法不太可行,因为客户端很多。我见过一个应用,有 600 个客户端,这样即使每个客户端控制到只有 5 个并发线程,汇总到数据库服务端以后,峰值并发数也可能要达到 3000。
因此,这个并发控制要做在数据库服务端。如果你有中间件,可以考虑在中间件实现;如果你的团队有能修改 MySQL
源码的人,也可以做在 MySQL
里面。基本思路就是,对于相同行的更新,在进入引擎之前排队。这样在 InnoDB
内部就不会有大量的死锁检测工作了。