一、锁

事务的隔离性由这章讲述的锁来实现。

1.1 概述

是计算机协调多个进程或线程 并发访问某一资源 的机制。在程序开发中会存在多线程同步的问题,当多个线程并发访问某个数据的时候,尤其是针对一些敏感的数据(比如订单、金额等),我们就需要保证这个数据在任何时刻最多只有一个线程 在访问,保证数据的 完整性和一致性。在开发过程中加锁是为了保证数据的一致性,这个思想在数据库领域中同样很重要。
在数据库中,除传统的计算资源(如CPU、RAM、I/O等)的争用以外,数据也是一种供许多用户共享的资源。为保证数据的一致性,需要对并发操作进行控制,因此产生了。同时锁机制也为实现MySQL的各个隔离级别提供了保证。锁冲突也是影响数据库并发访问性能的一个重要因素。所以锁对数据库而言显得尤其重要,也更加复杂。

1.2 MySQL并发事务访问相同记录

并发事务访问相同记录的情况大致可以划分为3种:

1.2.1 读-读情况

读-读情况,即并发事务相继读取相同的记录。读取操作本身不会对记录有任何影响,并不会引起什么问题,所以允许这种情况的发生。

1.2.2 写-写情况

写-写情况,即并发事务相继对相同的记录做出改动。
在这种情况下会发生脏写的问题,任何一种隔离级别都不允许这种问题的发生。所以在多个未提交事务相继对一条记录做改动时,需要让它们排队执行,这个排队的过程其实是通过锁来实现的。这个所谓的锁其实是一个内存中的结构,在事务执行前本来是没有锁的,也就是说一开始是没有锁结构和记录进行关联的,当一个事务想对这条记录做改动时,首先会看看内存中有没有与这条记录关联的锁结构,当没有的时候就会在内存中生成一个锁结构与之关联。比如,事务T1 要对这条记录做改动,就需要生成一个锁结构与之关联,锁和事务相关,一条事务对应一个锁:
image.png
锁结构 里有很多信息,为了简化理解,只把两个比较重要的属性拿了出来:

  • trx信息:代表这个锁结构是哪个事务生成的。
  • is_waiting:代表当前事务是否在等待。
    当事务T1改动了这条记录后,就生成了一个 锁结构 与该记录关联,因为之前没有别的事务为这条记录加锁,所以 is_waiting属性就是false,我们把这个场景就称之为 获取锁成功,或者 加锁成功,然后就可以继续执行操作了。
    在事务 T1 提交之前,另一个事务 T2 也想对该记录做改动,那么先看看有没有 锁结构 与这条记录关联,发现有一个 锁结构 与之关联后,然后也生成了一个锁结构与这条记录关联,不过锁结构的 is_waiting 属性值为 true,表示当前事务需要等待,我们把这个场景就称之为 获取锁失败 ,或者 加锁失败,图示:
    image.png
    image.png
    在事务T1提交之后,就会把该事务生成的 锁结构释放 掉,然后看看还有没有别的事务在等待获取锁,发现了事务T2还在等待获取锁,所以把事务 T2 对应的锁结构的 is_waiting 属性设置为 false,然后把该事务对应的线程唤醒,让它继续执行,此时事务T2就算获取到锁了。效果图就是这样:
    image.png

小结几种说法:

  • 不加锁
    意思就是不需要在内存中生成对应的锁结构,可以直接执行操作。
  • 获取锁成功,或者加锁成功
    意思就是在内存中生成了对应的锁结构,而且锁结构的 is_waiting 属性为 false ,也就是事务可以继续执行操作。
  • 获取锁失败,或者加锁失败,或者没有获取到锁
    意思就是在内存中生成了对应的锁结构,不过锁结构的 is_waiting 属性为 true ,也就是事务需要等待,不可以继续执行操作。

1.2.3 读-写或写-读情况

读-写写-读 ,即一个事务进行读取操作,另一个进行改动操作。这种情况下可能发生 脏读不可重复读幻读 的问题。
各个数据库厂商对SQL标准的支持都可能不一样。比如MySQL在REPEATABLE READ 隔离级别上就已经解决了幻读问题。

1.2.4 并发问题的解决方案

怎么解决 脏读不可重复读幻读 这些问题呢!其实有两种可选的解决方案:

方案一:读操作利用多版本并发控制(MVCC,后文讲解),写操作进行加锁
所谓的 MVCC,就是生成一个 Readview,通过ReadView找到符合条件的记录版本(历史版本由undo日志构建)。查询语句只能 在生成ReadView之前已提交事务所做的更改,在生成ReadView之前未提交的事务或者之后才开启的事务所做的更改是看不到的。而写操作 肯定针对的是 最新版本的记录 ,读记录的历史版本和改动记录的最新版本本身并不冲突,也就是采用MVCC时,读-写操作并不冲突。

普通的SELECT语句在READ COMMITTED和REPEATABLE READ隔离级别下会使用到MVCC读取记录。

  • READ COMMITTED 隔离级别下,一个事务在执行过程中每次执行SELECT操作时都会生成一个ReadView,ReadView的存在本身就保证了事务不可以读取到未提交的事务所做的更改,也就是避免了脏读现象;
  • REPEATABLE READ 隔离级别下,一个事务在执行过程中只有 第一次执行SELECT操作 才会生成一个ReadView,之后的SELECT操作都 复用 这个ReadView,这样也就避免了不可重复读和幻读的问题。

方案二: 读写操作都采用加锁的方式。
如果我们的一些业务场景不允许读取记录的旧版本,而是每次都必须去 读取记录的最新版本。比如,在银行存款的事务中,你需要先把账户的余额读出来,然后将其加上本次存款的数额,最后再写到数据库中。在将账户余额读取出来后,就不想让别的事务再访问该余额,直到本次存款事务执行完成,其他事务才可以访问账户的余额。这样在读取记录的时候就需要对其进行加锁 操作,这样也就意味着 操作和 操作也像 写-写 操作那样 排队 执行。

  • 脏读 的产生是因为当前事务读取了另一个未提交事务写的一条记录,如果另一个事务在写记录的时候就给这条记录加锁,那么当前事务就无法继续读取该记录了,所以也就不会有脏读问题的产生了。
  • 不可重复读 的产生是因为当前事务先读取一条记录,另外一个事务对该记录做了改动之后并提交之后,当前事务再次读取时会获得不同的值,如果在当前事务读取记录时就给该记录加锁,那么另一个事务就无法修改该记录自然也不会发生不可重复读了,
  • 幻读 问题的产生是因为当前事务读取了一个范围的记录,然后另外的事务向该范围内插入了新记录,当前事务再次读取该范围的记录时发现了新插入的新记录。采用加锁的方式解决幻读问题就有一些麻烦,因为当前事务在第一次读取记录时幻影记录并不存在,所以读取的时候加锁就有点尴尬(因为你并不知道给谁加锁)。

小结对比发现:

  • 采用 MVCC 方式的话,读-写 操作彼此并不冲突,性能更高
  • 采用 加锁 方式的话,读-写操作彼此需要 排队执行,影响性能,
    一般情况下我们当然愿意采用 MVCC 来解决 读-写 操作并发执行的问题,但是业务在某些特殊情况下,要求必须采用 加锁 的方式执行。下面就讲解下MySQL中不同类别的锁。

1.3 锁的不同角度分类

锁的分类图,如下:
第15章_锁.jpg

1.3.1 从数据操作的类型划分:读锁、写锁

对于数据库中并发事务的 读-读 情况并不会引起什么问题。对于 写-写读-写写-读 这些情况可能会引起一些问题,需要使用 MVCC 或者 加锁 的方式来解决它们。在使用 加锁 的方式解决问题时,由于既要允许 读-读 情况不受影响,又要使写-写读-写写-读 情况中的操作 相互阻塞,所以MySQL实现一个由两种类型的锁组成的锁系统来解决。这两种类型的锁通常被称为 共享锁(Shared Lock,SLock)排他锁(Exclusive Lock,X Lock)也叫 读锁(readlock)写锁(write lock)

  • 读锁:也称为共享锁、英文用S 表示。针对同一份数据,多个事务的读操作可以同时进行而不会互相影响,相互不阻塞的。
  • 写锁:也称为排他锁、英文用X 表示。当前写操作没有完成前,它会阻断其他写锁和读锁。这样就能确保在给定的时间里,只有一个事务能执行写入,并防止其他用户读取正在写入的同一资源。

需要注意的是对于 InnoDB 引擎来说,读锁和写锁可以加在表上,也可以加在行上。

举例(行级读写锁):如果一个事务T1已经获得了某个行r的读锁,那么此时另外的一个事务 T2 是可以去获得这个行r的读锁的,因为读取操作并没有改变行r的数据;但是,如果某个事务 T3 想获得行r的写锁,则它必须等待事务 T1、T2 释放掉行r上的读锁才行。

总结:这里的兼容是指对同一张表或记录的锁的兼容性情况,

image.png

  1. 锁定读
    在采用 加锁 方式解决 脏读不可重复读幻读 这些问题时,读取一条记录时需要获取该记录的 S锁 ,其实是不严谨的,有时候需要在读取记录时就获取记录的 X锁 ,来禁止别的事务读写该记录,为此MySQL提出了两种比较特殊的 SELECT 语句格式:
  • 对读取的记录加 S锁:
SELECT ... LOCK IN SHARE MODE
#或
SELECT ... FOR SHARE;#(8.0新增语法)

在普通的SELECT语句后边加LOCK IN SHARE MODE,如果当前事务执行了该语句,那么它会为读取到的记录加 S锁 ,这样允许别的事务继续获取这些记录的 S锁(比方说别的事务也使用 SELECT ... LOCK IN SHAREMODE 语句来读取这些记录),但是不能获取这些记录的X锁(比如使用 SELECT... FOR UPDATE 语句来读取这些记录,或者直接修改这些记录)。如果别的事务想要获取这些记录的X锁,那么它们会阻塞,直到当前事务提交之后将这些记录上的 S锁 释放掉。

  • 对读取的记录加X锁:
SELECT ... FOR UPDATE;

在普通的SELECT语句后边加 FOR UPDATE,如果当前事务执行了该语句,那么它会为读取到的记录加 X锁,这样既不允许别的事务获取这些记录的S锁(比方说别的事务使用 SELECT...LOCK IN SHARE MODE 语句来读取这些记录),也不允许获取这些记录的 X锁(比如使用 SELECT...FOR UPDATE 语句来读取这些记那么它们会阻塞,直到当前录,或者直接修改这些记录)。如果别的事务想要获取这些记录的S锁 或者X锁,事务提交之后将这些记录上的 X锁 释放掉。

MySQL8.0新特性:
在5.7及之前的版本,SELECT ... FOR UPDATE,如果获取不到锁,会一直等待,直到 innodb_lock_wait_timeout 超时。在8.0版本中,SELECT ... FOR UPDATE , SELECT .. FOR SHARE 添加 NOWAITSKIP LOCKED 语法,跳过锁等待,或者跳过锁定

  • 通过添加NOWAIT、SKIP LOCKED语法,能够立即返回。如果查询的行已经加锁:
    • 那么NOWAIT会立即报错返回
    • 而SKIP LOCKED也会立即返回,只是返回的结果中不包含被锁定的行。
# session1:
select * from t1 where c1 = 2 for update;

# session2:
mysql> select * from t1 where c1 = 2 for update nowait;
ERROR 3572 (HY000): Statement aborted because lock(s) could not be acquired
immediately and NOWAIT is set.

mysql>select * from t1 where c1=2 for update skip locked;
Empty set(0.80 sec)
  1. 写操作
    平常所用到的 写操作 无非是 DELETEUPDATEINSERT 这三种:
  • DELETE
    对一条记录做DELETE操作的过程其实是先在 B+ 树中定位到这条记录的位置,然后获取这条记录的 X锁 ,再执行 delete mark操作。我们也可以把这个定位待删除记录在B+树中位置的过程看成是一个获取 X锁锁定读
  • UPDATE
    • 情况1:未修改该记录的键值,并且被更新的列占用的存储空间在修改前后未发生变化。
      则先在 B+ 树中定位到这条记录的位置,然后再获取一下记录的 X锁,最后在原记录的位置进行修改操作。我们也可以把这个定位待修改记录在 B+ 树中位置的过程看成是一个获取 X锁锁定读
    • 情况2:未修改该记录的键值,并且至少有一个被更新的列占用的存储空间在修改前后发生变化。
      则先在 B+ 树中定位到这条记录的位置,然后获取一下记录的 X锁,将该记录彻底删除掉(就是把记录彻底移入垃圾链表),最后再插入一条新记录。这个定位待修改记录在 B+ 树中位置的过程看成是一个获取X锁锁定读 ,新插入的记录由 INSERT 操作提供的 隐式锁 进行保护。
    • 情况3:修改了该记录的键值,则相当于在原记录上做 DELETE 操作之后再来一次 INSERT 操作,加锁操作就需要按照 DELETEINSERT 的规则进行了。
  • INSERT
    一般情况下,新插入一条记录的操作并不加锁,通过一种称之为 隐式锁 的结构来保护这条新插入的记录在本事务提交前不被别的事务访问。

1.3.2 从数据操作的粒度划分:表级锁、页级锁、行锁

为了尽可能提高数据库的并发度,每次锁定的数据范围越小越好,理论上每次只锁定当前操作的数据的方案会得到最大的并发度,但是管理锁是很 耗资源 的事情(涉及获取、检査、释放锁等动作)。因此数据库系统需要在 高并发响应系统性能 两方面进行平衡,这样就产生了“锁粒度(Lock granularity)”的概念。
对一条记录加锁影响的也只是这条记录而已,我们就说这个锁的粒度比较细;其实一个事务也可以在 表级别 进行加锁,自然就被称之为 表级锁 或者 表锁 ,对一个表加锁影响整个表中的记录,我们就说这个锁的粒度比较粗。锁的粒度主要分为表级锁页级锁行锁

1.表锁(Table Lock)

该锁会锁定整张表,它是 MySQL 中最基本的锁策略,并不依赖于存储引擎(不管你是 MySQL 的什么存储引擎对于表锁的策略都是一样的),并且表锁是开销最小的策略(因为粒度比较大)。由于表级锁一次会将整个表锁定,所以可以很好的 避免死锁 问题。当然,锁的粒度大所带来最大的负面影响就是出现锁资源争用的概率也会最高,导致 并发率大打折扣

① 表级别的S锁、X锁
在对某个表执行SELECT、INSERT、DELETE、UPDATE语句时,InnoDB存储引擎是不会为这个表添加表级别的S锁或者X锁的。在对某个表执行一些诸如ALTER TABLEDROP TABLE 这类的DDL 语句时,其他事务对这个表并发执行诸如SELECTINSERTDELETEUPDATE的语句会发生阻塞。同理,某个事务中对某个表执行SELECT、INSERT、DELETE、UPDATE语句时,在其他会话中对这个表执行DDL 语句也会发生阻塞。这个过程其实是通过在server层使用一种称之为元数据锁(英文名: Metadata Locks ,简称MDL )结构来实现的。
一般情况下,不会使用InnoDB存储引擎提供的表级别的S锁X锁。只会在一些特殊情况下,比方说崩溃恢复过程中用到。比如,在系统变量autocommit=0,innodb_table_locks = 1 时, 手动获取InnoDB存储引擎提供的表t 的S锁或者X锁可以这么写:

  • LOCK TABLES t READ :InnoDB存储引擎会对表t 加表级别的S锁。
  • LOCK TABLES t WRITE :InnoDB存储引擎会对表t 加表级别的X锁。
    不过尽量避免在使用InnoDB存储引擎的表上使用LOCK TABLES 这样的手动锁表语句,它们并不会提供什么额外的保护,只是会降低并发能力而已。InnoDB的厉害之处还是实现了更细粒度的行锁,关于InnoDB表级别的S锁X锁大家了解一下就可以了。

举例: 下面我们讲解MyISAM引擎下的表锁。
步骤1:创建表并添加数据

CREATE TABLE mylock(
id INT NOT NULL PRIMARY KEY auto_increment,
NAME VARCHAR(20)
)ENGINE myisam;#存储引擎使用 InnoDB也可以,只是不建议

#插入一条数据
INSERT INTO mylock(NAME) VALUES ('a');

SELECT * FROM mylock;

步骤2:查看表上加过的锁

SHOW OPEN TABLES; #主要关注In_user字段的值
或者
SHOW OPEN TABLES where In_use > 0;
mysql> SHOW OPEN TABLES;

mysql> SHOW OPEN TABLES where In_use > 0;

当前数据库中没有被锁定的表上面的结果表明。

步骤3:手动增加表锁命令

LOCK TABLES t READ;#存储引擎会对表t加表级别的共享锁。共享锁也叫读锁或S锁(share的缩写)
LOCK TABLES t WRITE;#存储引擎会对表t加表级别的排它锁。排它锁也叫独占锁、写锁或X锁(是exclusive的缩写)

为mylock表加write锁,观察阻塞的情况,流程如下:
image.png
总结:
MyISAM在执行查询语句(SELECT)前,会给涉及的所有表加读锁,在执行增删改操作前,会给涉及的表加写锁。
InnoDB 存储引擎是不会为这个表添加表级别的 读锁 或者 写锁 的。
MySQL的表级锁有两种模式:(以MyISAM表进行操作的演示)

  • 表共享读锁(Table Read Lock)
  • 表独占写锁(Table Write Lock)
    image.png

② 意向锁 (intention lock)
InnoDB 支持多粒度锁(multiple granularity locking) ,它允许行级锁表级锁共存,而意向锁就是其中的一种表锁

  1. 意向锁的存在是为了协调行锁和表锁的关系,支持多粒度(表锁与行锁)的锁并存。
  2. 意向锁是一种 不与行级锁冲突表级锁 ,这一点非常重要。
  3. 表明“某个事务正在某些行持有了锁或该事务准备去持有锁’
    意向锁分为两种:
  • 意向共享锁(intention shared lock, IS):事务有意向对表中的某些行加共享锁(S锁)
-- 事务要获取某些行的 S 锁,必须先获得表的 IS 锁。
SELECT column FROM table ... LOCK IN SHARE MODE;
  • 意向排他锁(intention exclusive lock, IX):事务有意向对表中的某些行加排他锁(X锁)
-- 事务要获取某些行的 X 锁,必须先获得表的 IX 锁。
SELECT column FROM table ... FOR UPDATE;

即:意向锁是由存储引擎自己维护的,用户无法手动操作意向锁,在为数据行加共享 / 排他锁之前,
InooDB 会先获取该数据行所在数据表的对应意向锁

1.意向锁要解决的问题
现在有两个事务,分别是T1和T2,其中T2试图在该表级别上应用共享或排它锁,如果没有意向锁存在,那么T2就需要去检查各个页或行是否存在锁;如果存在意向锁,那么此时就会受到由T1控制的 表级别意向锁的阻塞。T2在锁定该表前不必检查各个页或行锁,而只需检查表上的意向锁。简单来说就是给更大一级别的空间示意里面是否已经上过锁
在数据表的场景中,如果我们给某一行数据加上了排它锁,数据库会自动给更大一级的空间,比如数据页或数据表加上意向锁,告诉其他人这个数据页或数据表已经有人上过排它锁了,这样当其他人想要获取数据表排它锁的时候,只需要了解是否有人已经获取了这个数据表的意向排他锁即可。

  • 如果事务想要获得数据表中某些记录的共享锁,就需要在数据表上 添加意向共享锁
  • 如果事务想要获得数据表中某些记录的排他锁,就需要在数据表上 添加意向排他锁
    这时,意向锁会告诉其他事务已经有人锁定了表中的某些记录。

意向锁分为两种:

  • 意向共享锁(intention shared lock,ls):事务有意向对表中的某些行加共享锁(S锁)
# 事务要获取某些行的S锁,必须先获得表的 IS 锁。

SELECT column FROM table ... LOCK IN SHARE MODE;
  • 意向排他锁(intention exclusive lock,IX):事务有意向对表中的某些行加排他锁(X锁)
# 事务要获取某些行的 X锁,必须先获得表的 IX 锁。
SELECT column FROM table ... FOR UPDATE

即:意向锁是由存储引擎自己维护的,用户无法手动操作意向锁,在为数据行加共享/排他锁之前,InooDB 会先获取该数据行 所在数据表的对应意向锁。
image.png
注意这里的排他/共享锁指的都是表锁,意向锁不会与行级的共享/排他锁互斥。

结论:

  1. InnoDB 支持 多粒度锁,特定场景下,行级锁可以与表级锁存。
  2. 意向锁之间互不排斥,但除了IS与S兼容外,意向锁会与 共享锁 / 排他锁 互斥
  3. IX,IS是表级锁,不会和行级的X,S锁发生冲突。只会和表级的X,S发生冲突
  4. 意向锁在保证并发性的前提下,实现了 行锁和表锁共存满足事务隔离性 的要求。

③自增锁(AUTO-INC锁)
在使用MySQL过程中,我们可以为表的某个列添加AUTO_INCREMENT 属性。举例:

CREATE TABLE `teacher` (
`id` int NOT NULL AUTO_INCREMENT,
`name` varchar(255) NOT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci;

由于这个表的id字段声明了AUTO_INCREMENT,意味着在书写插入语句时不需要为其赋值,SQL语句修改如下所示。

INSERT INTO `teacher` (name) VALUES ('zhangsan'), ('lisi');

上边的插入语句并没有为id列显式赋值,所以系统会自动为它赋上递增的值,结果如下所示。

mysql> select * from teacher;
+----+----------+
| id | name     |
+----+----------+
| 1  | zhangsan |
| 2  | lisi     |
+----+----------+
2 rows in set (0.00 sec)

现在我们看到的上面插入数据只是一种简单的插入模式,所有插入数据的方式总共分为三类,分别是“ Simple inserts ”,“ Bulk inserts ”和“ Mixed-mode inserts ”。

  1. “Simple inserts” (简单插入)
    可以预先确定要插入的行数(当语句被初始处理时)的语句。包括没有嵌套子查询的单行和多行INSERT...VALUES()REPLACE 语句。比如我们上面举的例子就属于该类插入,已经确定要插入的行
    数。

  2. “Bulk inserts” (批量插入)
    事先不知道要插入的行数(和所需自动递增值的数量)的语句。比如INSERT ... SELECT REPLACE ... SELECTLOAD DATA 语句,但不包括纯INSERT。 InnoDB在每处理一行,为AUTO_INCREMENT列
    分配一个新值。

  3. “Mixed-mode inserts” (混合模式插入)
    这些是“Simple inserts”语句但是指定部分新行的自动递增值。例如INSERT INTO teacher (id,name) VALUES (1,'a'), (NULL,'b'), (5,'c'), (NULL,'d'); 只是指定了部分id的值。另一种类型的“混合模式插入”是 INSERT ... ON DUPLICATE KEY UPDATE

对于上面数据插入的案例,MySQL中采用了 自增锁 的方式来实现,AUTO-INC锁是当向使用含有AUTO_INCREMENT列的表中插入数据时需要获取的一种特殊的表级锁,在执行插入语句时就在表级别加一个AUTO-INC锁,然后为每条待插入记录的AUTO_INCREMENT修饰的列分配递增的值,在该语句执行结束后,再把AUTO-INC锁释放掉。一个事务在持有AUTO-INC锁的过程中,其他事务的插入语句都要被阻塞,可以保证一个语句中分配的递增值是连续的。也正因为此,其并发性显然并不高,当我们向一个有AUTO_INCREMENT关键字的主键插入值的时候,每条语句都要对这个表锁进行竞争,这样的并发潜力其实是很低下的,所以innodb通过 innodb_autoinc_lock_mode 的不同取值来提供不同的锁定机制,来显著提高SQL语句的可伸缩性和性能。

innodb_autoinc_lock_mode有三种取值,分别对应与不同锁定模式:
(1)innodb_autoinc_lock_mode = 0(“传统”锁定模式)
在此锁定模式下,所有类型的insert语句都会获得一个特殊的表级AUTO-INC锁,用于插入具有
AUTO_INCREMENT列的表。这种模式其实就如我们上面的例子,即每当执行insert的时候,都会得到一个 表级锁(AUTO-INC锁),使得语句中生成的auto_increment为顺序,且在binlog中重放的时候,可以保证master与slave中数据的auto_increment是相同的。因为是表级锁,当在同一时间多个事务中执行insert的时候,对于AUTO-INC锁的争夺会限制并发能力。

(2)innodb_autoinc_lock_mode = 1(“连续”锁定模式)
在 MySQL 8.0 之前,连续锁定模式是默认的。
在这个模式下,“bulk inserts”仍然使用AUTO-INC表级锁,并保持到语句结束。这适用于所有INSERT ... SELECT,REPLACE ... SELECT和LOAD DATA语句。同一时刻只有一个语句可以持有AUTO-INC锁。
对于“Simple inserts”(要插入的行数事先已知),则通过在mutex(轻量锁)控制下获得所需数量的自动递增值来避免表级AUTO-INC锁, 它只在分配过程的持续时间内保持,而不是直到语句完成。不使用表级AUTO-INC锁,除非AUTO-INC锁由另一个事务保持。如果另一个事务保持AUTO-INC锁,则“Simple inserts”等待AUTO-INC锁,如同它是一个“bulk inserts”。

(3)innodb_autoinc_lock_mode = 2(“交错”锁定模式)
从 MySQL 8.0 开始,交错锁模式是默认设置。
在这种锁定模式下,所有类INSERT语句都不会使用表级AUTO-INC 锁,并且可以同时执行多个语句。这是最快和最可扩展的锁定模式,但是当使用基于语句的复制或恢复方案时,从二进制日志重播SQL语句时,这是不安全的.。
在此锁定模式下,自动递增值保证在所有并发执行的所有类型的insert语句中是唯一单调递增的。但是,由于多个语句可以同时生成数字(即,跨语句交叉编号),为任何给定语句插入的行生成的值可能不是连续的
如果执行的语句是“simple inserts”,其中要插入的行数已提前知道,除了“Mixed-mode inserts”之外,为单个语句生成的数字不会有间隙。然而,当执行“bulk inserts”时,在由任何给定语句分配的自动递增值中可能存在间隙,

④ 元数据锁(MDL锁)
MySQL5.5引入了meta data lock,简称MDL锁,属于表锁范畴。MDL 的作用是,保证读写的正确性。比
如,如果一个查询正在遍历一个表中的数据,而执行期间另一个线程对这个表结构做变更,增加了一列,那么查询线程拿到的结果跟表结构对不上,肯定是不行的。
因此,当对一个表做增删改查操作的时候,加 MDL读锁;当要对表做结构变更操作的时候,加 MDL 写
锁。
读锁之间不互斥,因此你可以有多个线程同时对一张表增删改查。读写锁之间、写锁之间是互斥的,用来保证变更表结构操作的安全性,解决了DMLDDL操作之间的一致性问题。不需要显式使用,在访问一个表的时候会被自动加上。

元数据锁可能带来的问题
image.png
我们可以看到 session A会对表teacher加一个 MDL读锁,之后 session B要加MDL写锁会被 blocked,因为 session A的 MDL 读锁还没有释放,而 session c要在表 teacher 上新申请 MDL 读锁的请求也会被 sessionB阻塞。前面我们说了,所有对表的增删改查操作都需要先申请MDL 读锁,就都被阻塞,等于这个表现在完全不可读写了。

2. InnoDB中的行锁

行锁(Row Lock)也称为记录锁,顾名思义,就是锁住某一行(某条记录 row)。需要的注意的是,MySQL服务器层并没有实现行锁机制,行级锁只在存储引擎层实现
优点:锁定力度小,发生 锁冲突概率低,可以实现的 并发度高
缺点:对于 锁的开销比较大,加锁会比较慢,容易出现 死锁 情况。
InnoDB与MyISAM的最大不同有两点:一是支持事务(TRANSACTION);二是采用了行级锁。

建表:

CREATE TABLE student (
	id INT,
	name VARCHAR(20),
	class varchar(10),
	PRIMARY KEY (id)
) Engine = InnoDB CHARSET = utf8;

INSERT INTO student VALUES
(1,'张三','一班'),
(3,'李四','一斑'),
(8,'王五','二班'),
(15,'赵六','二斯'),(20,'钱七','三班');

mysql> SELECT * FROM student;

image.png
这里把B+树的索引结构做了一个超级简化,只把索引中的记录给拿了出来,下面看看都有哪些常用的行锁类型。

① 记录锁(Record Locks)
记录锁也就是仅仅把一条记录锁上,官方的类型名称为: LOCK_REC_NOT_GAP 。比如我们把id值为8的
那条记录加一个记录锁的示意图如图所示。仅仅是锁住了id值为8的记录,对周围的数据没有影响。
image.png
举例如下:
image.png
记录锁是有S锁和X锁之分的,称之为S型记录锁X型记录锁

  • 当一个事务获取了一条记录的S型记录锁后,其他事务也可以继续获取该记录的S型记录锁,但不可以继续获取X型记录锁;
  • 当一个事务获取了一条记录的X型记录锁后,其他事务既不可以继续获取该记录的S型记录锁,也不可以继续获取X型记录锁。

② 间隙锁(Gap Locks)
MySQLREPEATABLE READ 隔离级别下是可以解决幻读问题的,解决方案有两种,可以使用 MVCC 方案解决,也可以采用加锁方案解决。但是在使用加锁方案解决时有个大问题,就是事务在第一次执行读取操作时,那些幻影记录尚不存在,我们无法给这些幻影记录加上记录锁。InnoDB提出了一种称之为 Gap Locks 的锁,官方的类型名称为: LOCK_GAP ,我们可以简称为gap锁。比如,把id值为8的那条记录加一个gap锁的示意图如下。

图中id值为8的记录加了gap锁,意味着不允许别的事务在id值为8的记录前边的间隙插入新记录,其实就是id列的值(3, 8)这个区间的新记录是不允许立即插入的。比如,有另外一个事务再想插入一条id值为4的新记录,它定位到该条新记录的下一条记录的id值为8,而这条记录上又有一个gap锁,所以就会阻塞插入操作,直到拥有这个gap锁的事务提交了之后,id列的值在区间(3, 8)中的新记录才可以被插入。
gap锁的提出仅仅是为了防止插入幻影记录而提出的。
虽然有 共享gap锁独占gap锁 这样的说法,但是它们起到的作用是相同的。而且如果对一条记录加了gap锁(不论是共享gap锁还是独占gap锁),并不会限制其他事务对这条记录加记录锁或者继续加gap锁。

举例:
image.png
这里 session2并不会被堵住。因为表里并没有 id=5 这个记录,因此session1加的是间隙锁(3,8)。而 session 2也是在这个间隙加的间隙锁。它们有共同的目标,即:保护这个间隙,不允许插入值。但,它们之间是不冲突的
注意,给一条记录加了 gap锁 只是 不允许 其他事务往这条记录前边的间隙 插入新记录 ,那对于最后一条记录之后的间隙,也就是student 表中id值为 20的记录之后的间限该咋办呢?也就是说给哪条记录加 gap锁 才能阻止其他事务插入 id值在(20,+∞)这个区间的新记录呢?这时候我们在讲数据页时介绍的两条伪记录派上用场了:

  • Infimum 记录,表示该页面中最小的记录。
  • Supremum 记录,表示该页面中最大的记录。
    为了实现阻止其他事务插入id值在(20,+∞)这个区间的新记录,我们可以给索引中的最后一条记录,也就是id值为20的那条记录所在页面的Supremum记录加上一个gap锁,如图所示。
    image.png
mysql> select * from student where id > 20 lock in share mode;

#检测
mysq1>SELECT * FROM performance_schema.data_locks\G

间隙锁的引入,可能会导致同样的语句锁住更大的范围,这其实是影响了并发度的。下面的例子会产生 死锁
image.png

③ 临键锁(Next-Key Locks)
有时候我们既想锁住某条记录,又想阻止其他事务在该记录前边的间隙插入新记录,所以InnoDB就提出了一种称之为Next-Key Locks的锁,官方的类型名称为: LOCK_ORDINARY ,我们也可以简称为next-key锁。Next-Key Locks是在存储引擎innodb 、事务级别在可重复读的情况下使用的数据库锁,innodb默认的锁就是Next-Key locks。
image.png
next-key锁 的本质就是一个 记录锁 和一个 gap锁 的合体,它既能保护该条记录,又能阻止别的事务将新记录插入被保护记录前边的 间隙

begin;
select * from student where id <= 8 and id > 3 for update;

④ 插入意向锁(Insert Intention Locks)
我们说一个事务在插入一条记录时需要判断一下插入位置是不是被别的事务加了gap锁next-key锁也包含gap锁),如果有的话,插入操作需要等待,直到拥有gap锁的那个事务提交。但是InnoDB规
定事务在等待的时候也需要在内存中生成一个锁结构,表明有事务想在某个间隙中插入新记录,但是
现在在等待。InnoDB就把这种类型的锁命名为Insert Intention Locks ,官方的类型名称为:
LOCK_INSERT_INTENTION ,我们称为插入意向锁。插入意向锁是一种Gap锁,不是意向锁,在insert
操作时产生。
插入意向锁是在插入一条记录行前,由 INSERT 操作产生的一种间隙锁。该锁用以表示插入意向,当多个事务在同一区间(gap)插入位置不同的多条数据时,事务之间不需要互相等待。假设存在两条值分别为4和7的记录,两个不同的事务分别试图插入值为5和6的两条记录,每个事务在获取插入行上独占的(排他)锁前,都会获取(4,7)之间的间隙锁,但是因为数据行之间并 不冲突,所以两个事务之间并不会产生冲突(阻塞等待)。总结来说,插入意向锁的特性可以分成两部分:
(1)插入意向锁是一种 特殊的间隙锁-- 间隙锁可以锁定开区间内的部分记录。
(2)插入意向锁之间 互不排斥,所以即使多个事务在同一区间插入多条记录,只要记录本身(主键、唯一索引)不冲突,那么事务之间就不会出现冲突等待。
注意,虽然插入意向锁中含有意向锁三个字,但是它并不属于意向锁而属于间隙锁,因为意向锁是表锁而插入意向锁是 行锁

比如,把id值为8的那条记录加一个插入意向锁的示意图如下:
image.png

比如,现在T1为id值为8的记录加了一个gap锁,然后T2和T3分别想向student表中插入id值分别为4、5的两条记录,所以现在为id值为8的记录加的锁的示意图就如下所示:
image.png

从图中可以看到,由于T1持有gap锁,所以T2和T3需要生成一个插入意向锁的锁结构并且处于等待状态。当T1提交后会把它获取到的锁都释放掉,这样T2和T3就能获取到对应的插入意向锁了(本质上就是把插入意向锁对应锁结构的is_waiting属性改为false),T2和T3之间也并不会相互阻塞,它们可以同时获取到id值为8的插入意向锁,然后执行插入操作。事实上插入意向锁并不会阻止别的事务继续获取该记录上任何类型的锁

3. 页锁

页锁就是在页的粒度上进行锁定,锁定的数据资源比行锁要多,因为一个页中可以有多个行记录。当我
们使用页锁的时候,会出现数据浪费的现象,但这样的浪费最多也就是一个页上的数据行。页锁的开销介于表锁和行锁之间,会出现死锁。锁定粒度介于表锁和行锁之间,并发度一般
每个层级的锁数量是有限制的,因为锁会占用内存空间, 锁空间的大小是有限的。当某个层级的锁数量
超过了这个层级的阈值时,就会进行锁升级。锁升级就是用更大粒度的锁替代多个更小粒度的锁,比如
InnoDB 中行锁升级为表锁,这样做的好处是占用的锁空间降低了,但同时数据的并发度也下降了。

1.3.3 从对待锁的态度划分:乐观锁、悲观锁

从对待锁的态度来看锁的话,可以将锁分成乐观锁和悲观锁,从名字中也可以看出这两种锁是两种看待数据并发的思维方式。需要注意的是,乐观锁和悲观锁并不是锁,而是锁的设计思想

  1. 悲观锁(Pessimistic Locking)
    悲观锁是一种思想,顾名思义,就是很悲观,对数据被其他事务的修改持保守态度,会通过数据库自身的锁机制来实现,从而保证数据操作的排它性。
    悲观锁总是假设最坏的情况,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会阻塞直到它拿到锁(共享资源每次只给一个线程使用,其它线程阻塞,用完后再把资源转让给其它线程)。比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁,当
    其他线程想要访问数据时,都需要阻塞挂起。Java中synchronizedReentrantLock 等独占锁就是悲观锁思想的实现。

需要设计索引,并且让悲观锁用上索引!

秒杀案例1:
商品秒杀过程中,库存数量的减少,避免出现 超卖 的情况。比如,商品表中有一个字段为quantity表示当前该商品的库存量。假设商品为华为mate40,id为1001,quantity=100个。如果不使用锁的情况下,操作方法如下所示

#第1步:查出商品库存
select quantity from items where id = 1001;
#第2步:如果库存大于0,则根据商品信息生产订单
insert into orders(item_id) values(1001);
#第3步:修改商品的库存,num表示购买数量
update items set quantity = quantity-num where id = 1001;

这样写的话,在并发量小的公司没有大的问题,但是如果在 高并发环境 下可能出现以下问题
image.png
其中线程B此时已经下单并且减完库存,这个时候线程A依然去执行step3,就造成了超卖。我们使用悲观锁可以解决这个问题,商品信息从查询出来到修改,中间有一个生成订单的过程,使用悲观锁的原理就是,当我们在查询items信息后就把当前的数据锁定,直到我们修改完毕后再解锁。那么整个过程中,因为数据被锁定了,就不会出现有第三者来对其进行修改了。而这样做的前提是需要将要执行的SQL语句放在同一个事务中,否则达不到锁定数据行的目的

#第1步:查出商品库存
select quantity from items where id = 1001 for update;
#第2步:如果库存大于0,则根据商品信息生产订单
insert into orders(item_id)values(1001);
#第3步:修改商品的库存,num表示购买数量
update items set quantity = quantity-num where id = 1001;

select ... for updateMySQL中悲观锁。此时在items表中,id为1001的那条数据就被我们锁定了,其他的要执行select quantity from items where id= 1001 for update;语句的事务必须等本次事务提交之后才能执行。这样我们可以保证当前的数据不会被其它事务修改。
注意,当执行select quantity from items where id= 1001 for update;语句之后,如果在其他事务中执行select quantity from items where id=1001;语句,并不会受第一个事务的影响,仍然可以正常查询出数据。
注意:select ….. for update语句执行过程中所有扫描的行都会被锁上因此在MySQL中用悲观锁必须确定使用了索引,而不是全表扫描,否则将会把整个表锁住
悲观锁不适用的场景较多,它存在一些不足,因为悲观锁大多数情况下依靠数据库的锁机制来实现,以保证程序的并发访问性,同时这样对数据库性能开销影响也很大,特别是 长事务 而言,这样的 开销往往无法承受,这时就需要乐观锁

  1. 乐观锁(Optimistic Locking)
    乐观锁认为对同一数据的并发操作不会总发生,属于小概率事件,不用每次都对数据上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,也就是不采用数据库自身的锁机制,而是通过程序来实现。在程序上,我们可以采用版本号机制或者CAS机制实现。乐观锁适用于多读的应用类型,这样可以提高吞吐量。在Java中java.util.concurrent.atomic 包下的原子变量类就是使用了乐观锁的一种实现方式:CAS实现的。

  2. 乐观锁的版本号机制
    在表中设计一个 版本字段 version ,第一次读的时候,会获取 version 字段的取值。然后对数据进行更新或删除操作时,会执这种方式类似我们熟悉的 SVN、CVS 版本管理系统,当我们修改了代码进行提交时,首先会检查当前版本号与服务器上的版本号是否一致,如果一致就可以直接提交,如果不一致就需要更新服务器上的最新代码,然后再进行提交行UPDATE ... SET version=version+1 WHERE version=version。此时如果已经有事务对这条数据进行了更改,修改就不会成功。
    这种方式类似我们熟悉的 SVN、CVS 版本管理系统,当我们修改了代码进行提交时,首先会检查当前版本号与服务器上的版本号是否一致,如果一致就可以直接提交,如果不一致就需要更新服务器上的最新代码,然后再进行提交

  3. 乐观锁的时间戳机制
    时间戳和版本号机制一样,也是在更新提交的时候,将当前数据的时间戳和更新之前取得的时间戳进行比较,如果两者一致则更新成功,否则就是版本冲突。
    你能看到乐观锁就是程序员自己控制数据并发操作的权限,基本是通过给数据行增加一个戳(版本号或
    者时间戳),从而证明当前拿到的数据是否最新。

将上述秒杀场景sql修改如下:

#第1步:查出商品库存
select quantity from items where id = 1001;
#第2步:如果库存大于0,则根据商品信息生产订单
insert into orders(item_id)values(1001);
#第3步:修改商品的库存,num表示购买数量
update items set quantity = quantity-num,vesion=version+1 where id=1001 and version = #{version};

注意,如果数据表是 读写分离 的表,当matser表中写入的数据没有及时同步到slave表中时,会造成更新一直失败的问题。此时需要 强制读取master表中的数据(即将select语句放到事务中即可,这时候査询的就是master主库了。)
如果我们对间一条数据进行 频繁的修改 的话,那么就会出现这么一种场景,每次修改都只有一个事务能更新成功,在业务感知上面就有大量的失败操作。我们把代码修改如下:

#第1步:查出商品库存
select quantity from items where id = 1001;
#第2步:如果库存大于0,则根据商品信息生产订单
insert into orders(item_id)values(1001);
#第3步:修改商品的库存,num表示购买数量
update items set quantity = quantity-num where id = 1001 and quantity-num>0;
  1. 两种锁的适用场景
    从这两种锁的设计思想中,我们总结一下乐观锁和悲观锁的适用场景:
  • 乐观锁适合读操作多的场景,相对来说写的操作比较少。它的优点在于程序实现不存在死锁问题,不过适用场景也会相对乐观,因为它阻止不了除了程序以外的数据库操作。
  • 悲观锁适合写操作多的场景,因为写的操作具有排它性。采用悲观锁的方式,可以在数据库层面阻止其他事务对该数据的操作权限,防止读 - 写写 - 写的冲突。
    我们把乐观锁和悲观锁总结如下图所示:
    image.png

1.3.4 按加锁的方式划分:显式锁、隐式锁

1. 隐式锁

一个事务在执行 INSERT 操作时,如果即将插入的 间隙 已经被其他事务加了 gap锁 ,那么本次 INSERT 操作会阻塞,并且当前事务会在该间隙上加一个 插入意向锁 ,否则一般情况下 INSERT 操作是不加锁的。那如果一个事务首先插入了一条记录(此时并没有在内存生产与该记录关联的锁结构),然后另一个事务:

  • 立即使用 SELECT ... LOCK IN SHARE MODE 语句读取这条记录,也就是要获取这条记录的 S锁 ,或者使用SELECT ... FOR UPDATE 语句读取这条记录,也就是要获取这条记录的 X锁,怎么办?
    如果允许这种情况的发生,那么可能产生 脏读 问题,
  • 立即修改这条记录,也就是要获取这条记录的X锁,怎么办?
    如果允许这种情况的发生,那么可能产生 脏写 问题

    这时候我们前边提过的 事务id 又要起作用了。我们把聚簇索引和二级索引中的记录分开看一下:

情景一: 对于聚簇索引记录来说,有一个 trx_id 隐藏列,该隐藏列记录着最后改动该记录的 事务id 。那么如果在当前事务中新插入一条聚簇索引记录后,该记录的 trx_id 隐藏列代表的的就是当前事务的事务id ,如果其他事务此时想对该记录添加S锁或者X锁时,首先会看一下该记录的 trx_id 隐藏列代表的事务是否是当前的活跃事务,如果是的话,那么就帮助当前事务创建一个X 锁(也就是为当前事务创建一个锁结构, is_waiting 属性是 false ),然后自己进入等待状态(也就是为自己也创建一个锁结构, is_waiting 属性是 true )。

情景二: 对于二级索引记录来说,本身并没有 trx_id 隐藏列,但是在二级索引页面的 Page Header 部分有一个 PAGE_MAX_TRX_ID 属性,该属性代表对该页面做改动的最大的事务id ,如果 PAGE_MAX_TRX_ID 属性值小于当前最小的活跃事务id ,那么说明对该页面做修改的事务都已经提交了,否则就需要在页面中定位到对应的二级索引记录,然后回表找到它对应的聚簇索引记录,然后再重复情景一的做法。

即:一个事务对新插入的记录可以不显式的加锁(生成一个锁结构),但是由于事务id的存在,相当于加了一个隐式锁 。别的事务在对这条记录加 S锁 或者 X锁 时,由于 隐式锁 的存在,会先帮助当前事务生成一个锁结构然后自己再生成一个锁结构后进入等待状态。隐式锁是一种 延迟加锁 的机制,从而来减少加锁的数量。
隐式锁在实际内存对象中并不含有这个锁信息。只有当产生锁等待时,隐式锁转化为显式锁。
InnoDB 的 insert 操作,对插入的记录不加锁,但是此时如果另一个线程进行当前读,类似以下的用例,session 2会锁等待 session 1,那么这是如何实现的呢?
session 1:

mysql> begin;

mysql> INSERT INTO student VALUES(34,"周八","二班");

session 2:

mysql> begin;

mysql> SELECT * FROM student LOCK in share mode;#执行完,当前事务被阻塞


mysql> SELECT * FROM performance_schema.data_lock_waits\G;
*************************** 1. row ***************************
ENGINE: INNODB
REQUESTING_ENGINE_LOCK_ID: 140562531358232:7:4:9:140562535668584
REQUESTING_ENGINE_TRANSACTION_ID: 422037508068888
REQUESTING_THREAD_ID: 64
REQUESTING_EVENT_ID: 6
REQUESTING_OBJECT_INSTANCE_BEGIN: 140562535668584
BLOCKING_ENGINE_LOCK_ID: 140562531351768:7:4:9:140562535619104
BLOCKING_ENGINE_TRANSACTION_ID: 15902
BLOCKING_THREAD_ID: 64
BLOCKING_EVENT_ID: 6
BLOCKING_OBJECT_INSTANCE_BEGIN: 140562535619104
1 row in set (0.00 sec)

隐式锁的逻辑过程如下:
A. InnoDB的每条记录中都一个隐含的trx_id字段,这个字段存在于聚簇索引的B+Tree中。
B. 在操作一条记录前,首先根据记录中的trx_id检查该事务是否是活动的事务(未提交或回滚)。如果是活
动的事务,首先将隐式锁转换为显式锁(就是为该事务添加一个锁)。
C. 检查是否有锁冲突,如果有冲突,创建锁,并设置为waiting状态。如果没有冲突不加锁,跳到E。
D. 等待加锁成功,被唤醒,或者超时。
E. 写数据,并将自己的trx_id写入trx_id字段。

2.显示锁

通过特定的语句进行加锁,我们一般称之为显示加锁,例如:
显示加共享锁:

select .... lock in share mode

显示加排它锁:

select .... for update

1.3.5 其它锁之:全局锁

全局锁就是对整个数据库实例加锁。当你需要让整个库处于只读状态的时候,可以使用这个命令,之后其他线程的以下语句会被阻塞:数据更新语句(数据的增删改)、数据定义语句(包括建表、修改表结构等)和更新类事务的提交语句。全局锁的典型使用场景是:做全库逻辑备份
全局锁的命令:

Flush tables with read lock

1.3.6 其它锁之:死锁

1.概念

死锁是指两个或多个事务在同一资源上相互占用,并请求锁定对方占用的资源,从而导致恶性循环
两个事务都持有对方需要的锁,并且在等待对方释放,并且双方都不会释放自己的锁。

用户A给用户B转账100,在此同时,用户B也给用户A转账100。这个过程,可能导致死锁。

#事务1
update account set balance = balance - 100 where name ='A';#操作1
update account set balance = balance + 100 where name = 'B';#操作3
#事务2
update account set balance = balance - 100 where name = 'B';#操作2
update account set balance = balance + 100 where name = 'A';#操作4

image.png

2.产生死锁的必要条件

  1. 两个或者两个以上事务
  2. 每个事务都已经持有锁并且申请新的锁
  3. 锁资源同时只能被同一个事务持有或者不兼容
  4. 事务之间因为持有锁和申请锁导致彼此循环等待

死锁的关键在于:两个(或以上)的session加锁的顺序不一致。

死锁示例:image.png
这时候,事务1在等待事务2释放id=2的行锁,而事务2在等待事务1释放id=1的行锁。 事务1和事务2在互相等待对方的资源释放,就是进入了死锁状态。当出现死锁以后,有两种策略

3. 如何处理死锁

  • 一种策略是,直接进入等待,直到超时。
    即当两个事务互相等待时,当一个事务等待时间超过设置的阈值时,就将其 回滚 ,另外事务继续进行。这个超时时间可以通过参数 innodb_lock_wait_timeout 来设置(50s)。
    缺点:对于在线服务来说,这个等待时间往往是无法接受的。
    那将此值修改短一些,比如1s,0.1s是否合适?不合适,容易误伤到普通的锁等待。

  • 另一种策略是,发起死锁检测,发现死锁后,主动回滚死锁链条中的某一个事务(将持有最少行级排他锁的事务进行回滚),让其他事务得以继续执行。
    第一种策略检测死锁太过被动,innodb还提供了 wait-for graph算法 来主动进行死锁检测,每当加锁请求无法立即满足需要并进入等待时,wait-for graph算法都会被触发。
    这是一种较为 主动的死锁检测机制,要求数据库保存 锁的信息链表事务等待链表 两部分信息。
    image.png
    基于这两个信息,可以绘制wait-for graph(等待图)
    image.png

    死锁检测的原理是构建一个以事务为顶点、锁为边的有向图,判断有向图是否存在环,存在即有死锁。

    一旦检测到回路、有死锁,这时候InnoDB存储引擎会选择回滚undo量最小的事务,让其他事务继续执行(innodb_deadlock_detect=on 表示开启这个逻辑)。

缺点: 每个新的被阻塞的线程,都要判断是不是由于自己的加入导致了死锁,这个操作时间复杂度是O(n)。如果100个并发线程同时更新同一行,意味着要检测100 * 100=1万次1万个线程就会有1千万次检测。
如何解决?

  • 方式1:关闭死锁检测,但意味着可能会出现大量的超时,会导致业务有损。如果你能确保这个业务一定不会出现死锁,可以临时把死锁检测关掉。但是这种操作本身带有一定的风险,因为业务设计的时候一般不会把死锁当做一个严重错误,毕竟出现死锁了,就回滚,然后通过业务重试一般就没问题了,这是业务无损的。而关掉死锁检测意味着可能会出现大量的超时,这是业务有损的。
  • 方式2:控制并发访问的数量。如果并发能够控制住,比如同一行同时最多只有10个线程在更新,那么死锁检测的成本很低,就不会出现这个问题。比如在中间件中实现对于相同行的更新,在进入引擎之前排队,这样在InnoDB内部就不会有大量的死锁检测工作。
    进一步的思考:
    可以考虑通过将一行改成逻辑上的多行来减少 锁冲突。比如,连锁超市账户总额的记录,可以考虑放到多条记录上。账户总额等于这多个记录的值的总和。
    这个并发控制要做在数据库服务端。如果你有中间件,可以考虑在中间件实现;甚至有能力修改MySQL
    源码的人,也可以做在MySQL里面。基本思路就是,对于相同行的更新,在进入引擎之前排队,这样在 InnoDB内部就不会有大量的死锁检测工作了

4.如何避免死锁

  • 合理设计索引,使业务 SQL尽可能通过索引定位更少的行,减少锁竞争。
  • 调整业务逻辑 SQL 执行顺序,避免 update/delete 长时间持有锁的 SQL 在事务前面。
  • 避免大事务,尽量将大事务拆成多个小事务来处理,小事务缩短锁定资源的时间,发生锁冲突的几率也更小。
  • 在并发比较高的系统中,不要显式加锁,特别是是在事务里显式加锁。如 select ... for update 语句,如果是在事务里运行了 start transaction 或设置了autocommit 等于0,那么就会锁定所查找到的记录。
  • 降低隔离级别。如果业务允许,将隔离级别调低也是较好的选择,比如将隔离级别从RR调整为RC,可以避免掉很多因为gap锁造成的死锁。

1.4 锁的内存结构

我们前边说对一条记录加锁的本质就是在内存中创建一个 锁结构 与之关联,那么是不是一个事务对多条记录加锁,就要创建多个 锁结构 呢?比如:

#事务T1
SELECT * FROM user LOCK IN SHARE MODE;

理论上创建多个 锁结构 没问题,但是如果一个事务要获取10000条记录的锁,生成10000个锁结构也太崩溃了!所以决定在对不同记录加锁时,如果符合下边这些条件的记录会放到一个 锁结构 中。

  • 在同一个事务中进行加锁操作
  • 被加锁的记录在同一个页面中
  • 加锁的类型是一样的
  • 等待状态是一样的
    InnoDB 存储引擎中的 锁结构 如下:
    image.png
    结构解析:
  1. 锁所在的事务信息:
    不论是 表锁 还是行锁,都是在事务执行过程中生成的,哪个事务生成了这个锁结构,这里就记录这个
    事务的信息。
    锁所在的事务信息在内存结构中只是一个指针,通过指针可以找到内存中关于该事务的更多信息,比
    方说事务id等。
  2. 索引信息:
    对于行锁来说,需要记录一下加锁的记录是属于哪个索引的。这里也是一个指针
  3. 表锁/行锁信息:
    表锁结构和行锁结构在这个位置的内容是不同的:
    表锁:
    记载着是对哪个表加的锁,还有其他的一些信息。
    行锁:
    记载了三个重要的信息:
  • Space ID :记录所在表空间。
  • Page Number :记录所在页号。
  • n_bits :对于行锁来说,一条记录就对应着一个比特位,一个页面中包含很多记录,用不同的比特位来区分到底是哪一条记录加了锁。为此在行锁结构的末尾放置了一堆比特位,这个n_bits 属性代表使用了多少比特位。

n_bits的值一般都比页面中记录条数多一些。主要是为了之后在页面中插入了新记录后也不至于重新分配锁结构

  1. type_mode :
    这是一个32位的数,被分成了lock_modelock_typerec_lock_type 三个部分,如图所示:
    image.png
  • 锁的模式( lock_mode ),占用低4位,可选的值如下:
  • LOCK_IS (十进制的0 ):表示共享意向锁,也就是IS锁。
  • LOCK_IX (十进制的1 ):表示独占意向锁,也就是IX锁。
  • LOCK_S (十进制的2 ):表示共享锁,也就是S锁。
  • LOCK_X (十进制的3 ):表示独占锁,也就是X锁。
  • LOCK_AUTO_INC (十进制的4 ):表示AUTO-INC锁。
    在InnoDB存储引擎中,LOCK_IS,LOCK_IX,LOCK_AUTO_INC都算是表级锁的模式,LOCK_S和LOCK_X既可以算是表级锁的模式,也可以是行级锁的模式。
  • 锁的类型( lock_type ),占用第5~8位,不过现阶段只有第5位和第6位被使用:
    • LOCK_TABLE (十进制的16 ),也就是当第5个比特位置为1时,表示表级锁。
    • LOCK_REC (十进制的32 ),也就是当第6个比特位置为1时,表示行级锁。
  • 行锁的具体类型( rec_lock_type ),使用其余的位来表示。只有在 lock_type 的值为 LOCK_REC 时,也就是只有在该锁为行级锁时,才会被细分为更多的类型:
    • LOCK_ORDINARY (十进制的0 ):表示next-key锁
    • LOCK_GAP (十进制的512 ):也就是当第10个比特位置为1时,表示gap锁
    • LOCK_REC_NOT_GAP (十进制的1024 ):也就是当第11个比特位置为1时,表示正经记录锁
    • LOCK_INSERT_INTENTION (十进制的2048 ):也就是当第12个比特位置为1时,表示插入意向锁
    • 其他的类型:还有一些不常用的类型我们就不多说了。
  • is_waiting 属性呢?基于内存空间的节省,所以把is_waiting 属性放到了type_mode 这个32位的数字中:
    • LOCK_WAIT (十进制的256 ) :当第9个比特位置为1 时,表示is_waiting 为true ,也就是当前事务尚未获取到锁,处在等待状态;当这个比特位为0 时,表示is_waiting 为false ,也就是当前事务获取锁成功。
  1. 其他信息:
    为了更好的管理系统运行过程中生成的各种锁结构而设计了各种哈希表和链表。
  2. 一堆比特位:
    如果是行锁结构的话,在该结构末尾还放置了一堆比特位,比特位的数量是由上边提到的 n_bits 属性表示的。InnoDB数据页中的每条记录在记录头信息中都包含一个 heap_no 属性,伪记录 Infimum 的heap_no 值为 0Supremumheap_no 值为 1 ,之后每插入一条记录, heap_no 值就增1锁结构最后的一堆比特位就对应着一个页面中的记录,一个比特位映射一个 heap_no ,即一个比特位映射到页内的一条记录。

1.5. 锁监控

关于MySQL锁的监控,我们一般可以通过检查 InnoDB_row_lock 等状态变量来分析系统上的行锁的争夺情况

mysql> show status like 'innodb_row_lock%';

image.png
对各个状态量的说明如下:

  • Innodb_row_lock_current_waits:当前正在等待锁定的数量;
  • Innodb_row_lock_time :从系统启动到现在锁定总时间长度;(等待总时长)
  • Innodb_row_lock_time_avg :每次等待所花平均时间;(等待平均时长)
  • Innodb_row_lock_time_max:从系统启动到现在等待最常的一次所花的时间;
  • Innodb_row_lock_waits :系统启动后到现在总共等待的次数;(等待总次数)
    对于这5个状态变量,比较重要的3个见上面(着重)。

其他监控方法:
MySQL把事务和锁的信息记录在了 information_schema 库中,涉及到的三张表分别是 INNODB_TRXINNODB_LOCKSINNODB_LOCK_WAITS
MySQL5.7及之前,可以通过information_schema.INNODB_LOCKS查看事务的锁情况,但只能看到阻塞事务的锁;如果事务并未被阻塞,则在该表中看不到该事务的锁情况。
MySQL8.0删除了information_schema.INNODB_LOCKS,添加了performance_schema.data_locks ,可
以通过performance_schema.data_locks查看事务的锁情况,和MySQL5.7及之前不同,performance_schema.data_locks不但可以看到阻塞该事务的锁,还可以看到该事务所持有的锁。
同时,information_schema.INNODB_LOCK_WAITS也被performance_schema.data_lock_waits 所代替。
我们模拟一个锁等待的场景,以下是从这三张表收集的信息锁等待场景,我们依然使用记录锁中的案例,当事务2进行等待时,查询情况如下:
(1)查询正在被锁阻塞的sql语句。

SELECT * FROM information_schema.INNODB_TRX\G;

重要属性代表含义已在上述中标注。
(2)查询锁等待情况

SELECT * FROM data_lock_waits\G;
*************************** 1. row ***************************
ENGINE: INNODB
REQUESTING_ENGINE_LOCK_ID: 139750145405624:7:4:7:139747028690608
REQUESTING_ENGINE_TRANSACTION_ID: 13845 #被阻塞的事务ID
REQUESTING_THREAD_ID: 72
REQUESTING_EVENT_ID: 26
REQUESTING_OBJECT_INSTANCE_BEGIN: 139747028690608
BLOCKING_ENGINE_LOCK_ID: 139750145406432:7:4:7:139747028813248
BLOCKING_ENGINE_TRANSACTION_ID: 13844 #正在执行的事务ID,阻塞了13845
BLOCKING_THREAD_ID: 71
BLOCKING_EVENT_ID: 24
BLOCKING_OBJECT_INSTANCE_BEGIN: 139747028813248
1 row in set (0.00 sec)

(3)查询锁的情况

mysql > SELECT * from performance_schema.data_locks\G;
*************************** 1. row ***************************
ENGINE: INNODB
ENGINE_LOCK_ID: 139750145405624:1068:139747028693520
ENGINE_TRANSACTION_ID: 13847
THREAD_ID: 72
EVENT_ID: 31
OBJECT_SCHEMA: atguigu
OBJECT_NAME: user
PARTITION_NAME: NULL
SUBPARTITION_NAME: NULL
INDEX_NAME: NULL
OBJECT_INSTANCE_BEGIN: 139747028693520
LOCK_TYPE: TABLE
LOCK_MODE: IX
LOCK_STATUS: GRANTED
LOCK_DATA: NULL
*************************** 2. row ***************************
ENGINE: INNODB
ENGINE_LOCK_ID: 139750145405624:7:4:7:139747028690608
ENGINE_TRANSACTION_ID: 13847
THREAD_ID: 72
EVENT_ID: 31
OBJECT_SCHEMA: atguigu
OBJECT_NAME: user
PARTITION_NAME: NULL
SUBPARTITION_NAME: NULL
INDEX_NAME: PRIMARY
OBJECT_INSTANCE_BEGIN: 139747028690608
LOCK_TYPE: RECORD
LOCK_MODE: X,REC_NOT_GAP
LOCK_STATUS: WAITING
LOCK_DATA: 1
*************************** 3. row ***************************
ENGINE: INNODB
ENGINE_LOCK_ID: 139750145406432:1068:139747028816304
ENGINE_TRANSACTION_ID: 13846
THREAD_ID: 71
EVENT_ID: 28
OBJECT_SCHEMA: atguigu
OBJECT_NAME: user
PARTITION_NAME: NULL
SUBPARTITION_NAME: NULL
INDEX_NAME: NULL
OBJECT_INSTANCE_BEGIN: 139747028816304
LOCK_TYPE: TABLE
LOCK_MODE: IX
LOCK_STATUS: GRANTED
LOCK_DATA: NULL
*************************** 4. row ***************************
ENGINE: INNODB
ENGINE_LOCK_ID: 139750145406432:7:4:7:139747028813248
ENGINE_TRANSACTION_ID: 13846
THREAD_ID: 71
EVENT_ID: 28
OBJECT_SCHEMA: atguigu
OBJECT_NAME: user
PARTITION_NAME: NULL
SUBPARTITION_NAME: NULL
INDEX_NAME: PRIMARY
OBJECT_INSTANCE_BEGIN: 139747028813248
LOCK_TYPE: RECORD
LOCK_MODE: X,REC_NOT_GAP
LOCK_STATUS: GRANTED
LOCK_DATA: 1
4 rows in set (0.00 sec)
ERROR:
No query specified

从锁的情况可以看出来,两个事务分别获取了IX锁,我们从意向锁章节可以知道,IX锁互相时兼容的。所
以这里不会等待,但是事务1同样持有X锁,此时事务2也要去同一行记录获取X锁,他们之间不兼容,导
致等待的情况发生。

二、多版本并发控制

2.1 什么是MVCC

MVCC(Multiversion concurrency cpntrol),多版本并发控制。顾名思义,MVCC 是通过数据行的多个版本管理来实现数据库的 并发控制。这项技术使得在InnoDB的事务隔离级别下执行 一致性读 操作有了保证。换言之,就是为了查询一些正在被另一个事务更新的行,并且可以看到它们被更新之前的值,这样在做查询的时候就不用等待另一个事务释放锁。
MVCC 没有正式的标准,在不同的 DBMS 中 MVCC 的实现方式可能是不同的,也不是普遍使用的(大家可以参考相关的 DBMS 文档)。这里讲解 InnoDB 中 MVCC 的实现机制(MySQL其它的存储引擎并不支持它)。

2.2 快照读与当前读

MVCC在MySQL InnoDB中的实现主要是为了提高数据库并发性能,用更好的方式去处理读-写冲突,做到即使有读写冲突时,也能做到不加锁非阻塞并发读,而这个读指的就是快照读, 而非当前读。当前读实际上是一种加锁的操作,是悲观锁的实现。而MVCC本质是采用乐观锁思想的一种方式。

2.2.1 快照读

快照读又叫一致性读,读取的是快照数据。不加锁的简单的 SELECT 都属于快照读,即不加锁的非阻塞读;比如这样:

SELECT * FROM player WHERE ...

之所以出现快照读的情况,是基于提高并发性能的考虑,快照读的实现是基于MVCC,它在很多情况下,避免了加锁操作,降低了开销。
既然是基于多版本,那么快照读可能读到的并不一定是数据的最新版本,而有可能是之前的历史版本快照读的前提是隔离级别不是串行级别,串行级别下的快照读会退化成当前读。

2.2.2 当前读

当前读读取的是记录的最新版本(最新数据,而不是历史版本的数据),读取时还要保证其他并发事务不能修改当前记录,会对读取的记录进行加锁。加锁的 SELECT,或者对数据进行增删改都会进行当前读。比如:

SELECT * FROM student LOCK IN SHARE MODE; # 共享锁
SELECT * FROM student FOR UPDATE; # 排他锁
INSERT INTO student values ... # 排他锁
DELETE FROM student WHERE ... # 排他锁
UPDATE student SET ... # 排他锁

2.3 复习

2.3.1 再谈隔离级别

我们知道事务有 4 个隔离级别,可能存在三种并发问题:
image.png

在 MySQL 中,默认的隔离级别是可重复读,可以解决脏读和不可重复读的问题,如果仅从定义的角度来看,它并不能解决幻读问题。如果我们想要解决幻读问题,就需要采用串行化的方式,也就是将隔离级别提升到最高,但这样一来就会大幅降低数据库的事务并发能力。
MVCC 可以不采用锁机制,而是通过乐观锁的方式来解决不可重复读和幻读问题!它可以在大多数情况下替代行级锁,降低系统的开销。

image.png

2.3.2 隐藏字段、Undo Log版本链

回顾一下undo日志的版本链,对于使用InnoDB 存储引擎的表来说,它的聚簇索引记录中都包含两个必
要的隐藏列。

  • trx_id :每次一个事务对某条聚簇索引记录进行改动时,都会把该事务的事务id 赋值给trx_id 隐藏列。
  • roll_pointer :每次对某条聚簇索引记录进行改动时,都会把旧的版本写入到undo日志中,然后这个隐藏列就相当于一个指针,可以通过它来找到该记录修改前的信息。
    举例:student表数据如下
mysql> SELECT * FROM student;

假设插入该过录的事务id8,那么此刻该条记录的示意图如下所示:
image.png

insert undo只在事务回滚时起作用,当事务提交后,该类型的undo日志就没用了,它占用的Undo Log Segment也会被系统回收(也就是该undo日志占用的Undo页面链表要么被重用,要么被释放)。

假设之后两个事务id分别为10 、20 的事务对这条记录进行UPDATE 操作,操作流程如下:
image.png

能不能在两个事务中交叉更新同一条记录呢?不能!这不就是一个事务修改了另一个未提交事务修改过的数据,脏写。
InnoDB使用来保证不会有脏写情况的发生,也就是在第一个事务更新了某条记录后,就会给这条记录加锁,另一个事务再次更新时就需要等待第一个事务提交了,把锁释放之后才可以继续更新。

每次对记录进行改动,都会记录一条undo日志,每条undo日志也都有一个 roll_pointer 属性( INSERT 操作对应的undo日志没有该属性,因为该记录并没有更早的版本),可以将这些undo日志
都连起来,串成一个链表:
image.png
对该记录每次更新后,都会将旧值放到一条undo日志中,就算是该记录的一个旧版本,随着更新次数的增多,所有的版本都会被 roll_pointer 属性连接成一个链表,我们把这个链表称之为 版本链,版本链的头节点就是当前记录最新的值。
每个版本中还包含生成该版本时对应的 事务id

2.4 MVCC实现原理之ReadView

MVCC 的实现依赖于:隐藏字段Undo LogRead View

2.4.1 什么是ReadView

在 MVCC机制中,多个事务对同一个行记录进行更新会产生多个历史快照,这些历史快照保存在 Undo Log里。如果一个事务想要查询这个行记录,需要读取哪个版本的行记录呢?这时就需要用到 ReadView 了,它帮我们解决了行的可见性问题
ReadView 就是事务在使用MVCC机制进行快照读操作时产生的读视图。当事务启动时,会生成数据库系统当前的一个快照,InnoDB 为每个事务构造了一个数组,用来记录并维护系统当前 活跃事务 的ID(“活跃”指的就是,启动了但还没提交)。

2.4.2 设计思路

使用READ UNCOMMITTED 隔离级别的事务,由于可以读到未提交事务修改过的记录,所以直接读取记录 的最新版本就好了。
使用 SERIALIZABLE 隔离级别的事务,InnoDB规定使用加锁的方式来访问记录。
使用READ COMMITTED(读已提交)REPEATABLE READ(可重复读) 隔离级别的事务,都必须保证读到已经提交了的事务修改过的记录。假如另一个事务已经修改了记录但是尚未提交,是不能直接读取最新版本的记录的,核心问题就是需要判断一下版本链中的哪个版本是当前事务可见的,这是ReadView要解决的主要问题。
这个ReadView中主要包含4个比较重要的内容,分别如下:

  1. creator_trx_id ,创建这个 Read View 的事务 ID。

    说明:只有在对表中的记录做改动时(执行INSERT、DELETE、UPDATE这些语句时)才会为事务分配事务id,否则在一个只读事务中的事务id值都默认为0。

  2. trx_ids ,表示在生成ReadView时当前系统中活跃的读写事务的事务id列表

  3. up_limit_id ,活跃的事务中最小的事务 ID。

  4. low_limit_id ,表示生成ReadView时系统中应该分配给下一个事务的id 值。low_limit_id 是系统最大的事务id值,这里要注意是系统中的事务id,需要区别于正在活跃的事务ID

    注意:low_limit_id并不是trx_ids中的最大值,事务id是递增分配的。比如,现在有id为1,2,3这三个事务,之后id为3的事务提交了。那么一个新的读事务在生成ReadView时,trx_ids就包括1和2,up_limit_id的值就是1,low_limit_id的值就是4。

举例:
trx_ids 为 trx2、trx3、trx5 和 trx8 的集合,系统的最大事务 ID(low_limit_id)为 trx8+1(如果之前没有其他的新增事务),活跃的最小事务ID(up_limit_id)为 trx2。
image.png

2.4.3 ReadView的规则

有了这个ReadView,这样在访问某条记录时,只需要按照下边的步骤判断记录的某个版本是否可见。

  • 如果被访问版本的trx_id属性值与ReadView中的creator_trx_id 值相同,意味着当前事务在访问它自己修改过的记录,所以该版本可以被当前事务访问。
  • 如果被访问版本的trx_id属性值小于ReadView中的up_limit_id 值,表明生成该版本的事务在当前事务生成ReadView前已经提交,所以该版本可以被当前事务访问。
  • 如果被访问版本的trx_id属性值大于或等于ReadView中的low_limit_id 值,表明生成该版本的事务在当前事务生成ReadView后才开启,所以该版本不可以被当前事务访问。
  • 如果被访问版本的trx_id属性值在ReadView的up_limit_id 和low_limit_id 之间,那就需要判断一下trx_id属性值是不是在trx_ids 列表中。
    • 如果在,说明创建ReadView时生成该版本的事务还是活跃的,该版本不可以被访问。
    • 如果不在,说明创建ReadView时生成该版本的事务已经被提交,该版本可以被访问。

2.4.4 MVCC整体操作流程

了解了这些概念之后,我们来看下当查询一条记录的时候,系统如何通过MVCC找到它:

  1. 首先获取事务自己的版本号,也就是事务 ID;
  2. 获取 ReadView;
  3. 查询得到的数据,然后与 ReadView 中的事务版本号进行比较;
  4. 如果不符合 ReadView 规则,就需要从 Undo Log 中获取历史快照;
  5. 最后返回符合规则的数据。

如果某个版本的数据对当前事务不可见的话,那就顺着版本链找到下一个版本的数据,继续按照上边的步骤判断可见性,依此类推,直到版本链中的最后一个版本。如果最后一个版本也不可见的话,那么就意味着该条记录对该事务完全不可见,查询结果就不包含该记录。

InnoDB 中,MVCC 是通过 Undo Log+ Read view进行数据读取,Undo Log保存了历史快照,而 Read view规则帮我们判断当前版本的数据是否可见

在隔离级别为读已提交(Read Committed)时,一个事务中的每一次 SELECT 查询都会重新获取一次Read View
如表所示:
image.png

注意,此时同样的查询语句都会重新获取一次 Read View,这时如果 Read View 不同,就可能产生不可重复读或者幻读的情况。

当隔离级别为可重复读的时候,就避免了不可重复读,这是因为一个事务只在第一次 SELECT 的时候会获取一次 Read View,而后面所有的 SELECT 都会复用这个 Read View,如下表所示:

image.png

2.5 举例说明

假设现在student表中只有一条由 事务id为8的事务插入的一条记录:

mysql> SELECT * FROM student;

image.png

MVCC 只能在 READ COMMITTEDREPEATABLE READ 两个隔离级别下工作。接下来看一下 READ COMMITTED和REPEATABLE READ 所谓的生成ReadView的时机不同到底不同在哪里。

2.5.1 READ COMMITTED隔离级别下

READ COMMITTED :每次读取数据前都生成一个ReadView
现在有两个事务id 分别为1020 的事务在执行:

# Transaction 10
BEGIN;
UPDATE student SET name="李四" WHERE id=1;
UPDATE student SET name="王五" WHERE id=1;
# Transaction 20
BEGIN;
# 更新了一些别的表的记录
...

说明:事务执行过程中,只有在第一次真正修改记录时(比如使用INSERT、DELETE、UPDATE语句),才会被分配一个单独的事务id,这个事务id是递增的。所以我们才在事务2中更新一些别的表的记录,目的是让它分配事务id。

此刻,表student 中id 为1 的记录得到的版本链表如下所示:

image.png

假设现在有一个使用READ COMMITTED 隔离级别的事务开始执行:

# 使用READ COMMITTED隔离级别的事务
BEGIN;

# SELECT1:Transaction 10、20未提交
SELECT * FROM student WHERE id = 1; # 得到的列name的值为'张三'

这个SELECT1的执行过程如下:
步骤1:在执行SELECT语句时会先生成一个ReadView,ReadView的trx_ids列表的内容就是[10,20],up_limit_id10,low_limit_id为21,creator_trx_id0
步骤2:从版本链中挑选可见的记录,从图中看出,最新版本的列 name 的内容是'王五',该版本的 trx_id 值为 10,在 trx_ids 列表内,所以不符合可见性要求,根据 roll_pointer 跳到下一个版本。
步骤3:下一个版本的列 name 的内容是'李四',该版本的 trx_id 值也为 10,也在 trx_ids 列表内,所以也不符合要求,继续跳到下一个版本。
步骤4:下一个版本的列 name 的内容是'张三',该版本的 trx_id 值为 8,小于 Readview 中的 up_limit_id10,所以这个版本是符合要求的,最后返回给用户的版本就是这条列 name'张三' 的记录。

之后,我们把事务id 为10 的事务提交一下:

# Transaction 10
BEGIN;

UPDATE student SET name="李四" WHERE id=1;
UPDATE student SET name="王五" WHERE id=1;

COMMIT;

然后再到事务id20 的事务中更新一下表 studentid1 的记录:

# Transaction 20
BEGIN;

# 更新了一些别的表的记录
...
UPDATE student SET name="钱七" WHERE id=1;
UPDATE student SET name="宋八" WHERE id=1;

此刻,表student中id 为1 的记录的版本链就长这样:

image.png

然后再到刚才使用READ COMMITTED 隔离级别的事务中继续查找这个id 为1 的记录,如下:

# 使用READ COMMITTED隔离级别的事务
BEGIN;

# SELECT1:Transaction 10、20均未提交
SELECT * FROM student WHERE id = 1; # 得到的列name的值为'张三'

# SELECT2:Transaction 10提交,Transaction 20未提交
SELECT * FROM student WHERE id = 1; # 得到的列name的值为'王五'

这个 SELECT2 的执行过程如下:
步骤1:在执行 SELECT 语句时会又会单独生成一个 Readview,该 ReadViewtrx_ids 列表的内容就是 [20], up_limit_id20, low_limit_id 为21,creator_trx_id0
步骤2:从版本链中挑选可见的记录,从图中看出,最新版本的列 name 的内容是'宋八',该版本的 trx_id 值为20,在 trx_ids 列表内,所以不符合可见性要求,根据 roll_pointer 跳到下一个版本。
步骤3:下一个版本的列 name 的内容是 '钱七',该版本的 trx_id 值为 20 ,也在 trx_ids 列表内,所以也不符合要求,继续跳到下一个版本。
步骤4:下一个版本的列 name 的内容是'王五',该版本的 trx_id 值为10,小于ReadView中的 up_limit_id20,所以这个版本是符合要求的,最后返回给用户的版本就是这条列 name'王五'的记录。
以此类推,如果之后 事务id20 的记录也提交了,再次在使用 READ COMMITTED 隔离级别的事务中查询表 studentid 值为 1 的记录时,得到的结果就是'宋八'了,具体流程我们就不分析了。

强调:使用READCOMMITTED隔离级别的事务在每次查询开始时都会生成一个独立的ReadView。

2.5.2 REPEATABLE READ隔离级别下

使用 REPEATABLE READ 隔离级别的事务来说,只会在第一次执行查询语句时生成一个 ReadView ,之后的查询就不会重复生成了。
比如,系统里有两个 事务id 分别为 1020 的事务在执行:

# Transaction 10
BEGIN;
UPDATE student SET name="李四" WHERE id=1;
UPDATE student SET name="王五" WHERE id=1;

# Transaction 20
BEGIN;
# 更新了一些别的表的记录
...

此刻,表student 中id 为1 的记录得到的版本链表如下所示:

image.png

假设现在有一个使用 REPEATABLE READ 隔离级别的事务开始执行:

# 使用REPEATABLE READ隔离级别的事务
BEGIN;

# SELECT1:Transaction 10、20未提交
SELECT * FROM student WHERE id = 1; # 得到的列name的值为'张三'

SELECT1的流程同上述SELECT1。

之后,我们把事务id 为10 的事务提交一下,就像这样:
\

# Transaction 10
BEGIN;

UPDATE student SET name="李四" WHERE id=1;
UPDATE student SET name="王五" WHERE id=1;

COMMIT;

然后再到 事务id20 的事务中更新一下表 studentid1 的记录:

# Transaction 20
BEGIN;

# 更新了一些别的表的记录
...
UPDATE student SET name="钱七" WHERE id=1;
UPDATE student SET name="宋八" WHERE id=1;

此刻,表student 中id 为1 的记录的版本链长这样:

image.png

然后再到刚才使用 REPEATABLE READ 隔离级别的事务中继续查找这个 id1 的记录,如下:

# 使用REPEATABLE READ隔离级别的事务
BEGIN;

# SELECT1:Transaction 10、20均未提交
SELECT * FROM student WHERE id = 1; # 得到的列name的值为'张三'

# SELECT2:Transaction 10提交,Transaction 20未提交
SELECT * FROM student WHERE id = 1; # 得到的列name的值仍为'张三'

SELECT2 的执行过程如下:
步骤1:因为当前事务的隔离级别为 REPEATABLE READ,而之前在执行SELECT1时已经生成过 Readview 了,所以此时直接复用之前的 ReadView,之前的 ReadViewtrx_ids 列表的内容就是[10,20]up_limit_id10low_limit_id21creator_trx_id0
步骤2:然后从版本链中挑选可见的记录,从图中可以看出,最新版本的列 name 的内容是'宋八',该版本的 trx_id 值为 20,在 trx_ids 列表内,所以不符合可见性要求,根据 roll_pointer 跳到下一个版本。
步骤3:下一个版本的列 name 的内容是'钱七',该版本的 trx_id 值为 20 ,也在 trx_ids 列表内,所以也不符合要求,继续跳到下一个版本。
步骤4:下一个版本的列 name 的内容是'王五',该版本的 trx_id 值为 10,而 trx_ids 列表中是包含值为 10事务id 的,所以该版本也不符合要求,同理下一个列 name 的内容是'李四'的版本也不符合要求。继续跳到下个版本。
两次 SELECT 查询得到的结果是重复的,记录的列c值都是'张三’,这就是 可重复读 的含义。如果我们之后再把事务id为20的记录提交了,然后再到刚才使用 REPEATABLE READ 隔离级别的事务中继续査找这个 id1的记录,得到的结果还是'张三'具体执行过程大家可以自己分析一下。

2.5.3 如何解决幻读(Repeatable Read)

接下来说明InnoDB 是如何解决幻读的。
假设现在表 student 中只有一条数据,数据内容中,主键 id=1,隐藏的 trx_id=10,它的 undo log 如下图
所示。

image.png

假设现在有事务 A 和事务 B 并发执行, 事务 A事务 id20事务 B事务 id30
步骤1:事务 A 开始第一次查询数据,查询的 SQL 语句如下。

select * from student where id >= 1;

在开始查询之前,MySQL 会为事务 A 产生一个 ReadView,此时 ReadView 的内容如下:

trx_ids=[20,30] , up_limit_id=20 , low_limit_id=31 , creator_trx_id=20 。

由于此时表 student 中只有一条数据,且符合 where id>=1 条件,因此会查询出来。然后根据 ReadView机制,发现该行数据的trx_id=10,小于事务 A 的 ReadView 里 up_limit_id,这表示这条数据是事务 A 开启之前,其他事务就已经提交了的数据,因此事务 A 可以读取到。
结论:事务 A 的第一次查询,能读取到一条数据,id=1。
步骤2:接着事务 B(trx_id=30),往表 student 中新插入两条数据,并提交事务。

insert into student(id,name) values(2,'李四');
insert into student(id,name) values(3,'王五');

此时表student 中就有三条数据了,对应的 undo 如下图所示:
image.png
步骤3:接着事务 A 开启第二次查询,根据可重复读隔离级别的规则,此时事务 A 并不会再重新生成ReadView。此时表 student 中的 3 条数据都满足 where id>=1 的条件,因此会先查出来。然后根据ReadView 机制,判断每条数据是不是都可以被事务 A 看到。

  1. 首先 id=1 的这条数据,前面已经说过了,可以被事务 A 看到。
  2. 然后是 id=2 的数据,它的 trx_id=30,此时事务 A 发现,这个值处于 up_limit_id 和 low_limit_id 之间,因此还需要再判断 30 是否处于 trx_ids 数组内。由于事务 A 的 trx_ids=[20,30],因此在数组内,这表示 id=2 的这条数据是与事务 A 在同一时刻启动的其他事务提交的,所以这条数据不能让事务 A 看到。
  3. 同理,id=3 的这条数据,trx_id 也为 30,因此也不能被事务 A 看见。

image.png

结论:最终事务 A 的第二次查询,只能查询出 id=1 的这条数据。这和事务 A 的第一次查询的结果是一样
的,因此没有出现幻读现象,所以说在 MySQL 的可重复读隔离级别下,不存在幻读问题。

2.6 总结

这里介绍了 MVCCREAD COMMITTDREPEATABLE READ 这两种隔离级别的事务在执行快照读操作时
访问记录的版本链的过程。这样使不同事务的读-写写-读操作并发执行,从而提升系统性能。
核心点在于 ReadView 的原理, READ COMMITTDREPEATABLE READ 这两个隔离级别的一个很大不同就是生成ReadView的时机不同:

  • READ COMMITTD 在每一次进行普通SELECT操作前都会生成一个ReadView
  • REPEATABLE READ 只在第一次进行普通SELECT操作前生成一个ReadView,之后的查询操作都重复使用这个ReadView就好了。

说明:我们之前说执行DELETE语句或者更新主键的UPDATE语句并不会立即把对应的记录完全从页面中删除而是执行一个所谓的delete mark操作,相当于只是对记录打上了一个删除标志位,这主要就是为MVCC服务的。

通过 MVCC 我们可以解决:

  1. 读写之间阻塞的问题。通过MVCC 可以让读写互相不阻塞,即读不阻塞写,写不阻塞读,这样就可以提升事务并发处理能力。
  2. 降低了死锁的概率。这是因为 MVCC 采用了乐观锁的方式,读取数据时并不需要加锁,对于写操作,也只锁2定必要的行。
  3. 解决快照读的问题。当我们查询数据库在某个时间点的快照时,只能看到这个时间点之前事务提交更新的结果,而不能看到这个时间点之后事务提交的更新结果。