1. 概述
1.1 定义
锁是计算机协调多个进程或线程并发访问某一资源的机制。
在数据库中,除了传统的计算资源(如CPU、RAM、I/O等)的争用以外,数据也是一种供需要用户共享的资源。如何保证数据并发访问的一致性、有效性是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发访问性能的一个重要因素。从这个角度来说,锁对数据库而言显得尤其重要,也更加复杂。
1.2 锁的分类
- 从性能上分为
乐观锁
(用版本对比来实现)和悲观锁
- 从对数据库操作的类型上分为
读锁
和写锁
(都属于悲观锁)
读锁(共享锁):针对同一份数据,多个读操作可以同时进行而不会互相影响
写锁(排它锁):当前写操作没有完成前,它会阻断其它写锁和读锁 - 从对数据库操作的粒度分为
表锁
和行锁
2. 三锁
2.1 表锁(偏读)
表锁偏向MyISAM存储引擎,开销小,加锁快,无死锁,锁定粒度大,发生锁冲突的概率最高,并发度最低。
2.1.1 基本操作
- 建表SQL
CREATE TABLE `mylock` (
`id` INT (11) NOT NULL AUTO_INCREMENT,
`NAME` VARCHAR (20) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE = MyISAM DEFAULT CHARSET = utf8;
- 插入数据
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('1', 'a');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('2', 'b');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('3', 'c');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('4', 'd');
- 手动增加表锁
lock table 表名称 read(write),表名称2 read(write);
- 查看表上加过的锁
show open tables;
- 删除表锁
unlock tables;
2.1.2 案例分析(加读锁)
- 当前session和其他session都可以读该表
- 当前session中插入或者更新锁定的表都会报错,其他session插入或更新则会等待
注意:当前session会话,也就是当前连接,一个IP可以进行多个连接
(1)session1执行sql语句
lock table mylock read;
(2)session2执行sql语句
update mylock set name = 'a' where id =1;
发现session2sql语句一直在等待
(3)session1执行解锁sql语句
unlock table;
(4)session1解锁后 session2 sql语句就执行了
注意:加读锁一般用来数据迁移使用。
2.1.3 案例分析(加写锁)
当前session对该表的增删改查都没有问题,其他session对该表的所有操作被阻塞
lock table mylock write;
update mylock set name = 'a' where id =1;
2.1.4 案例结论
MyISAM在执行查询语句(SELECT)前,会自动给涉及的所有表加读锁,在执行增删改操作前,会自动给涉及的表加写锁。
1、对MyISAM表的读操作(加读锁) ,不会阻寒其他进程对同一表的读请求,但会阻赛对同一表的写请求。只有当读锁释放后,才会执行其它进程的写操作。
2、对MylSAM表的写操作(加写锁) ,会阻塞其他进程对同一表的读和写操作,只有当写锁释放后,才会执行其它进程的读写操作
总结:
简而言之,就是读锁会阻塞写,但是不会阻塞读。而写锁则会把读和写都阻塞。
2.2 行锁(偏写)
行锁偏向InnoDB存储引擎,开销大,加锁慢,会出现死锁,锁定粒度最小,发生锁冲突的概率最低,并发度也最高。InnoDB与MYISAM的最大不同有两点:一是支持事务(TRANSACTION);二是采用了行级锁。
2.2.1 行锁支持事务
-
事务(Transaction)及其ACID属性
事务是由一组SQL语句组成的逻辑处理单元,事务具有以下4个属性,通常简称为事务的ACID属性。
原子性(Atomicity) :事务是一个原子操作单元,其对数据的修改,要么全都执行,要么全都不执行。
一致性(Consistent) :在事务开始和完成时,数据都必须保持一致状态。这意味着所有相关的数据规则都必须应用于事务的修改,以保持数据的完整性;事务结束时,所有的内部数据结构(如B树索引或双向链表)也都必须是正确的。
隔离性(Isolation) :数据库系统提供一定的隔离机制,保证事务在不受外部并发操作影响的“独立”环境执行。这意味着事务处理过程中的中间状态对外部是不可见的,反之亦然。
持久性(Durable) :事务完成之后,它对于数据的修改是永久性的,即使出现系统故障也能够保持。
-
并发事务处理带来的问题
更新丢失(Lost Update)
当两个或多个事务选择同一行,然后基于最初选定的值更新该行时,由于每个事务都不知道其他事务的存在,就会发生丢失更新问题–最后的更新覆盖了由其他事务所做的更新。
脏读(Dirty Reads)
一个事务正在对一条记录做修改,在这个事务完成并提交前,这条记录的数据就处于不一致的状态;这时,另一个事务也来读取同一条记录,如果不加控制,第二个事务读取了这些“脏”数据,并据此作进一步的处理,就会产生未提交的数据依赖关系。这种现象被形象的叫做“脏读”。
一句话:事务A读取到了事务B已经修改但尚未提交的数据,还在这个数据基础上做了操作。此时,如果B事务回滚,A读取的数据无效,不符合一致性要求。
不可重读(Non-Repeatable Reads)
一个事务在读取某些数据后的某个时间,再次读取以前读过的数据,却发现其读出的数据已经发生了改变、或某些记录已经被删除了!这种现象就叫做“不可重复读”。
一句话:事务A读取到了事务B已经提交的修改数据,不符合隔离性
幻读(Phantom Reads)
一个事务按相同的查询条件重新读取以前检索过的数据,却发现其他事务插入了满足其查询条件的新数据,这种现象就称为“幻读”。
一句话:事务A读取到了事务B提交的新增数据,不符合隔离性
脏读是事务B里面修改了数据
幻读是事务B里面新增了数据
-
事务隔离级别
脏读”、“不可重复读”和“幻读”,其实都是数据库读一致性问题,必须由数据库提供一定的事务隔离机制来解决。
隔离级别 | 脏读(Dirty Reads) | 不可重复读(Non-Repeatable Reads) | 幻读(Phantom Reads) |
---|---|---|---|
Serializable(串行化) | 不可能 | 不可能 | 不可能 |
Repeatable Read(可重复读) | 不可能 | 不可能 | 可能 |
Read Commited(读已提交数据) | 不可能 | 可能 | 可能 |
Read Uncomitted(读未提交数据) | 可能 | 可能 | 可能 |
数据库的事务隔离越严格,并发副作用越小,但付出的代价也就越大,因为事务隔离实质上就是使事务在一定程度上“串行化”进行,这显然与“并发”是矛盾的。
同时,不同的应用对读一致性和事务隔离程度的要求也是不同的,比如许多应用对“不可重复读"和“幻读”并不敏感,可能更关心数据并发访问的能力。
查看当前数据库的事务隔离级别:
select @@tx_isolation;
Mysql 8+ 执行语句
select @@transaction_isolation;
设置事务隔离级别:
set tx_isolation='REPEATABLE-READ';
Mysql 8+ 执行语句
set transaction_isolation='REPEATABLE-READ';
2.2.2 行锁案例分析
用下面的表演示,需要开启事务,Session_1更新某一行,Session_2更新同一行被阻塞,但是更新其他行正常
2.2.3 隔离级别案例分析
CREATE TABLE `account` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`name` varchar(255) DEFAULT NULL,
`balance` int(11) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('lilei', '450');
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('hanmei', '16000');
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('lucy', '2400');
(1) Session_1 执行语句
BEGIN;
update account set name = 'lilei999' where id =1;
(2) Session_2 查询语句
SELECT * FROM account;
发现id=1的name并未修改,因为Session_1 事务并未执行(commit)。
(3) Session_2 执行update语句
update account set name = 'hanmei22' where id =2;
update account set name = 'lilei22' where id =1;
发现 id =1时,update一直处于等待状态,说明InnoDB默认行锁(表中某一行或多行加锁)
1.读未提交 READ-UNCOMMITTED
(1)Session_1执行SQL语句
set transaction_isolation='READ-UNCOMMITTED';
BEGIN;
SELECT * FROM account;
(2)Session_2执行SQL语句
set transaction_isolation='READ-UNCOMMITTED';
BEGIN;
UPDATE account SET balance = balance + 50 where id = 1;
SELECT * FROM account;
(3)Session_1再执行查询语句
发现Session_2 未提交事务的情况下,Session_1能读到Session_2 未提交事务的数据
注意:一旦客户端B的事务因为某种原因回滚,所有的操作都将会被撤销,那客户端A查询到的数据其实就是脏数据:
结论:读未提交事务隔离级别(READ-UNCOMMITTED)未出现脏读
2.读已提交 READ-COMMITTED
(1)Session_1执行SQL语句
set transaction_isolation='READ-COMMITTED';
BEGIN;
SELECT * FROM account;
(2)Session_2执行SQL语句
set transaction_isolation='READ-COMMITTED';
BEGIN;
UPDATE account SET balance = balance + 50 where id = 1;
SELECT * FROM account;
(3)Session_1再执行查询语句
(4)Session_2 提交事务
COMMIT;
(4)Session_1继续执行查询语句
发现客户端A(Session_1事务未COMMIT提交)执行与上一步相同的查询,结果 与上一步不一致,即产生了不可重复读的问题
结论:读已提交事务隔离级别(READ-COMMITTED)未出现脏读,但是产生了不可重复读的问题
3.可重复读 REPEATABLE-READ
(1)Session_1执行SQL语句
set transaction_isolation='REPEATABLE-READ';
BEGIN;
SELECT * FROM account;
(2)Session_2执行SQL语句
(3)Session_1执行查询语句
(4)Session_2提交事务
COMMIT;
(5)Session_1执行查询语句
(6)Session_1执行update语句
发现在客户端A,接着执行update balance = balance + 50 where id = 1,balance没有变成500+50=550,lilei的balance值用的是步骤(4)中的550来算的,所以是600,数据的一致性倒是没有被破坏。可重复读的隔离级别下使用了MVCC机制,select操作不会更新版本号,是快照读(历史版本);insert、update和delete会更新版本号,是当前读(当前版本)。
(7)重新打开Session_2 客户端B,插入一条新数据后提交
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('wang', '1111');
SELECT * FROM account;
(8)在Session_1客户端A查询表account的所有记录,没有 查出 新增数据,奇怪没有出现幻读??
(9)更新操作出现幻读
UPDATE account SET balance = balance + 50 where id = 5;
SELECT * FROM account;
结论:可重复读事务隔离级别(REPEATABLE-READ)未出现脏读和不可重复读的问题,但是出现幻读问题。
4..串行化 Serializable
串行化就是把事务串行执行而非并发执行,但是执行效率低。
mysql中事务隔离级别为serializable时会锁表,因此不会出现幻读的情况,这种隔离级别并发性极低,开发中很少会用到。
Mysql默认级别是repeatable-read,有办法解决幻读问题吗?
间隙锁在某些情况下可以解决幻读问题
要避免幻读可以用间隙锁在Session_1下面执行update account set name = 'zhuge' where id > 10 and id <=20;,则其他Session没法插入这个范围内的数据
2.2.4 案例结论
Innodb存储引擎由于实现了行级锁定,虽然在锁定机制的实现方面所带来的性能损耗可能比表级锁定会要更高一下,但是在整体并发处理能力方面要远远优于MYISAM的表级锁定的。当系统并发量高的时候,Innodb的整体性能和MYISAM相比就会有比较明显的优势了。
但是,Innodb的行级锁定同样也有其脆弱的一面,当我们使用不当的时候,可能会让Innodb的整体性能表现不仅不能比MYISAM高,甚至可能会更差。
2.2.5 行锁分析
通过检查InnoDB_row_lock状态变量来分析系统上的行锁的争夺情况
show status like'innodb_row_lock%';
对各个状态量的说明如下:
Innodb_row_lock_current_waits: 当前正在等待锁定的数量
Innodb_row_lock_time: 从系统启动到现在锁定总时间长度
Innodb_row_lock_time_avg: 每次等待所花平均时间
Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花时间
Innodb_row_lock_waits:系统启动后到现在总共等待的次数
对于这5个状态变量,比较重要的主要是:
Innodb_row_lock_time_avg (等待平均时长)
Innodb_row_lock_waits (等待总次数)
Innodb_row_lock_time(等待总时长)
尤其是当等待次数很高,而且每次等待时长也不小的时候,我们就需要分析系统中为什么会有如此多的等待,然后根据分析结果着手制定优化计划。
2.2.6 死锁
set tx_isolation='repeatable-read';
Session_1执行:select * from account where id=1 for update;
Session_2执行:select * from account where id=2 for update;
Session_1执行:select * from account where id=2 for update;
Session_2执行:select * from account where id=1 for update;
查看近期死锁日志信息:show engine innodb status\G;
大多数情况mysql可以自动检测死锁并回滚产生死锁的那个事务,但是有些情况mysql没法自动检测死锁
2.2.7 优化建议
- 尽可能让所有数据检索都通过索引来完成,避免无索引行锁升级为表锁
- 合理设计索引,尽量缩小锁的范围
- 尽可能减少检索条件,避免间隙锁
- 尽量控制事务大小,减少锁定资源量和时间长度
- 尽可能低级别事务隔离