mysql> SET SESSION TRANSACTION ISOLATION LEVEL READ COMMITTED;
Query OK, 0 rows affected (0.00 sec)
事务`T1`先执行:
T1中,隔离级别为READ COMMITTED
mysql> BEGIN;
Query OK, 0 rows affected (0.00 sec)
mysql> SELECT * FROM hero WHERE country = ‘魏’ FOR UPDATE;
+——–+———+———+
| number | name | country |
+——–+———+———+
| 8 | c曹操 | 魏 |
| 15 | x荀彧 | 魏 |
+——–+———+———+
2 rows in set (0.01 sec)
`country`列并不是索引列,所以本条语句执行时肯定是使用扫描聚簇索引的全表扫描方式来执行,`EXPLAIN`语句也证明了我们的想法:
mysql> EXPLAIN SELECT * FROM hero WHERE country = ‘魏’ FOR UPDATE;
+—-+————-+——-+————+——+—————+——+———+——+——+———-+————-+
| id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
+—-+————-+——-+————+——+—————+——+———+——+——+———-+————-+
| 1 | SIMPLE | hero | NULL | ALL | NULL | NULL | NULL | NULL | 5 | 20.00 | Using where |
+—-+————-+——-+————+——+—————+——+———+——+——+———-+————-+
1 row in set, 1 warning (0.02 sec)
我们之前学过MySQL语句的加锁分析,知道在`READ COMMITTED`隔离级别下,如果采用全表扫描的方式执行查询语句时,InnoDB存储引擎将依次对每条记录加正经记录锁,在server层测试该记录是否符合WHERE条件,如果不符合则将加在该记录上的锁释放掉。本例中使用`FOR UPDATE`语句,肯定加的是X型正经记录锁。只有两条记录符合`WHERE`条件,所以最终其实只对这两条符合条件的记录加了`X型正经记录锁`(就是`number`列值为`8`和`15`的两条记录)。当然,我们可以使用`SHOW ENGINE INNODB STATUS`命令证明我们的分析:
mysql> SHOW ENGINE INNODB STATUS/G
… 省略了很多内容
TRANSACTIONS
Trx id counter 39764
Purge done for trx’s n:o < 39763 undo n:o < 0 state: running but idle
History list length 36
Total number of lock structs in row lock hash table 1
LIST OF TRANSACTIONS FOR EACH SESSION:
—TRANSACTION 281479653009568, not started
0 lock struct(s), heap size 1160, 0 row lock(s)
—TRANSACTION 281479653012832, not started
0 lock struct(s), heap size 1160, 0 row lock(s)
—TRANSACTION 39763, ACTIVE 468 sec
2 lock struct(s), heap size 1160, 2 row lock(s)
MySQL thread id 19, OS thread handle 123145470611456, query id 586 localhost 127.0.0.1 root
TABLE LOCK table xiaohaizi
.hero
trx id 39763 lock mode IX
RECORD LOCKS space id 287 page no 3 n bits 72 index PRIMARY of table xiaohaizi
.hero
trx id 39763 lock_mode X locks rec but not gap
Record lock, heap no 4 PHYSICAL RECORD: n_fields 5; compact format; info bits 0
0: len 4; hex 80000008; asc ;;
1: len 6; hex 000000009b4a; asc J;;
2: len 7; hex 80000001d3012a; asc *;;
3: len 7; hex 63e69bb9e6938d; asc c ;;
4: len 3; hex e9ad8f; asc ;;
Record lock, heap no 5 PHYSICAL RECORD: n_fields 5; compact format; info bits 0
0: len 4; hex 8000000f; asc ;;
1: len 6; hex 000000009b4a; asc J;;
2: len 7; hex 80000001d30137; asc 7;;
3: len 7; hex 78e88d80e5bda7; asc x ;;
4: len 3; hex e9ad8f; asc ;;
… 省略了很多内容
其中`id`为`39763`的事务就是指`T1`,可以看出它为`heap no`值为`4`和`5`的两条记录加了`X型正经记录锁`(lock_mode X locks rec but not gap)。
然后再开启一个隔离级别也为`READ COMMITTED`的事务`T2`,在其中执行:
T2中,隔离级别为READ COMMITTED
mysql> BEGIN;
Query OK, 0 rows affected (0.00 sec)
mysql> SELECT * FROM hero WHERE country = ‘吴’ FOR UPDATE;
(进入阻塞状态)
很显然,这条语句也会采用全表扫描的方式来执行,会依次去获取每一条聚簇索引记录的锁。不过因为`number`值为`8`的记录已经被`T1`加了`X型正经记录锁`,`T2`想得却得不到,只能眼巴巴的进行阻塞状态,此时的`SHOW ENGINE INNODB STATUS`也能证明我们的猜想(只截取了一部分):
—TRANSACTION 39764, ACTIVE 34 sec fetching rows
mysql tables in use 1, locked 1
LOCK WAIT 3 lock struct(s), heap size 1160, 1 row lock(s)
MySQL thread id 20, OS thread handle 123145471168512, query id 590 localhost 127.0.0.1 root Sending data
SELECT FROM hero WHERE country = ‘吴’ FOR UPDATE
——- TRX HAS BEEN WAITING 34 SEC FOR THIS LOCK TO BE GRANTED:
RECORD LOCKS space id 287 page no 3 n bits 72 index PRIMARY of table xiaohaizi
.hero
trx id 39764 lock_mode X locks rec but not gap waiting
Record lock, heap no 4 PHYSICAL RECORD: n_fields 5; compact format; info bits 0
0: len 4; hex 80000008; asc ;;
1: len 6; hex 000000009b4a; asc J;;
2: len 7; hex 80000001d3012a; asc ;;
3: len 7; hex 63e69bb9e6938d; asc c ;;
4: len 3; hex e9ad8f; asc ;;
可以看到`T2`正在等待获取`heap no`为`4`的记录上的`X型正经记录锁`(lock_mode X locks rec but not gap waiting)。
以上是很正常的阻塞逻辑,我们都可以分析出来,不过如果在`T2`中执行下边的`UPDATE`语句:
T2中,隔离级别为READ COMMITTED
mysql> BEGIN;
Query OK, 0 rows affected (0.00 sec)
Kafka实战笔记
关于这份笔记,为了不影响大家的阅读体验,我只能在文章中展示部分的章节内容和核心截图
CodeChina开源项目:【一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频】
- Kafka入门
- 为什么选择Kafka
- Karka的安装、管理和配置
- Kafka的集群
- 第一个Kafka程序
afka的生产者
- Kafka的消费者
- 深入理解Kafka
- 可靠的数据传递
- Spring和Kalka的整合
- Sprinboot和Kafka的整合
- Kafka实战之削峰填谷
- 数据管道和流式处理(了解即可)
- Kafka实战之削峰填谷
原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/165783.html