涨姿势了!delete后加 limit是个好习惯么?
写在前面,如果是清空表数据建议直接用truncate,效率上truncate远高于delete,应为truncate不走事务,不会锁表,也不会生产大量日志写入日志文件;truncate table table_name后立刻释放磁盘空间,并重置 auto_increment的值。delete删除不释放磁盘空间,但后续insert会覆盖在之前删除的数据上。详细了解请跳转另一篇博文《delete、truncate、drop 的区别有哪些,该如何选择》
\[where ...\]
\[order by ...\]
\[limit row\_count\]
加 limit 的的优点:
1. 降低写错SQL的代价,就算删错了,比如limit 500, 那也就丢了 500条数据,并不致命,通过binlog也可以很快恢复数据
2. 避免了长事务,delete执行时MySQL会将所有涉及的行加写锁和Gap锁(间隙锁),所有DML语句执行相关行会被锁住,如果删除数量大,会直接影响相关业务无法使用
3. delete数据量大时,不加limit容易把cpu打满,导致越删越慢
如果你要删除一个表里面的前 10000 行数据,有以下三种方法可以做到:第一种,直接执行 delete from T limit 10000; 第二种,在一个连接中循环执行 20 次 delete from T limit 500; 第三种,在 20 个连接中同时执行 delete from T limit 500。
你先考虑一下,再看看几位老铁的回答:
方案一,事务相对较长,则占用锁的时间较长,会导致其他客户端等待资源时间较长。 方案二,串行化执行,将相对长的事务分成多次相对短的事务,则每次事务占用锁的时间相对较短,其他客户端在等待相应资源的时间也较短。这样的操作,同时也意味着将资源分片使用(每次执行使用不同片段的资源),可以提高并发性。
方案三,人为自己制造锁竞争,加剧并发量。 方案二相对比较好,具体还要结合实际业务场景。
第一个方案,一次占用的锁时间较长,可能会导致其他客户端一直在等待资源。
第二个方案,分成多次占用锁,串行执行,不占有锁的间隙其他客户端可以工作,类似于现在多任务操作系统的时间分片调度,大家分片使用资源,不直接影响使用。
第三个方案,自己制造了锁竞争,加剧并发。
至于选哪一种方案要结合实际场景,综合考虑各个因素吧,比如表的大小,并发量,业务对此表的依赖程度等。
1. 直接delete 10000可能使得执行事务时间过长
2. 效率慢点每次循环都是新的短事务,并且不会锁同一条记录,重复执行DELETE知道影响行为0即可
3. 效率虽高,但容易锁住同一条记录,发生死锁的可能性比较高
怎么删除表的前10000行。比较多的朋友都选择了第二种方式,即:在一个连接中循环执行20次delete from T limit 500。确实是这样的,第二种方式是相对较好的。
第三种方式(即:在20个连接中同时执行delete from T limit 500),会人为造成锁冲突。
这个例子对我们实践的指导意义就是,在删除数据的时候尽量加limit。这样不仅可以控制删除数据的条数,让操作更安全,还可以减小加锁的范围。所以,在delete后加limit是个值得养成的好习惯。
作者:_陈哈哈
来源:https://blog.csdn.net/qq_39390545/article/details/107519747
推荐文章: