慢查询优化,我终于在生产踩到了这个坑!!
为什么会想取这样一个标题,因为看了理论上的慢查询优化,今天!!!终于在生产上实战了。
一、慢sql一
问题发现
将应用发布到生产环境后,前端页面请求后台API返回数据,发现至少需要6s。查看到慢sql:
复现慢sql
执行sql:
select count(*) from sync\_block\_datawhere unix\_timestamp(sync\_dt) >= 1539101010AND unix\_timestamp(sync\_dt) <= 1539705810
查看耗时:
一共耗时为2658ms 查看执行计划:
explain select count(*) from sync\_block\_datawhere unix\_timestamp(sync\_dt) >= 1539101010AND unix\_timestamp(sync\_dt) <= 1539705810
执行计划结果:
优化慢查询一
sync_dt的类型为datetime类型。换另外一种sql写法,直接通过比较日期而不是通过时间戳进行比较。将sql中的时间戳转化为日期,分别为2018-10-10 00:03:30和2018-10-17 00:03:30 执行sql:
select count(*) from sync\_block\_datawhere sync\_dt >= "2018-10-10 00:03:30"AND sync\_dt <= "2018-10-17 00:03:30"
查看耗时:
一共耗时419毫秒,和慢查询相比速度提升六倍多 查看执行计划:
explain select count(*) from sync\_block\_datawhere sync\_dt >= "2018-10-10 00:03:30"AND sync\_dt <= "2018-10-17 00:03:30"
执行计划结果:
执行计划中慢查询和快查询唯一的区别就是type不一样:慢查询中type为index,快查询中type为range。关注微信公众号:互联网架构师,在后台回复:2T,可以获取架构师资源。
优化慢查询二
这条sql的业务逻辑为统计出最近七天该表的数据量,可以去掉右边的小于等于 执行sql:
select count(*) from sync\_block\_datawhere sync_dt >= "2018-10-10 00:03:30"
查看耗时:
一共耗时275毫秒,又将查询时间减少了一半 查看执行计划:
explain select count(*) from sync\_block\_datawhere sync_dt >= "2018-10-10 00:03:30"
执行计划结果:
type仍是range。但是通过少比较一次将查询速度提高一倍。推荐阅读:推荐 4 款 MySQL 调优工具。
优化慢查询三
新建一个bigint类型字段syncdtlong存储syncdt的毫秒值,并在syncdt_long字段上建立索引 测试环境下:优化慢查询二sql
select count(*) from copy\_sync\_block\_datawhere sync\_dt >="2018-10-10 13:15:02"
耗时为34毫秒 优化慢查询三sql
select count(*) from copy\_sync\_block\_datawhere sync\_dt_long >= 1539148502916
耗时为22毫秒 测试环境中速度提升10毫秒左右
优化慢查询三sql测试小结:在InnoDB存储引擎下,比较bigint的效率高于datetime 完成三步优化以后生产环境中请求耗时:关注微信公众号:互联网架构师,在后台回复:2T,可以获取架构师资源。
速度又快了200毫秒左右。通过给查询的数据加10s缓存,响应速度最快平均为20ms
explain使用介绍
id:执行编号,标识select所属的行。如果在语句中没子查询或关联查询,只有唯一的select,每行都将显示1。否则,内层的select语句一般会顺序编号,对应于其在原始语句中的位置
select_type:显示本行是简单或复杂select。如果查询有任何复杂的子查询,则最外层标记为PRIMARY(DERIVED、UNION、UNION RESUlT)
table:访问引用哪个表(引用某个查询,如“derived3”)
type:数据访问/读取操作类型(ALL、index、range、ref、eq_ref、const/system、NULL)
possible_keys:揭示哪一些索引可能有利于高效的查找
ref:显示了之前的表在key列记录的索引中查找值所用的列或常量
rows:为了找到所需的行而需要读取的行数,估算值,不精确。通过把所有rows列值相乘,可粗略估算整个查询会检查的行数。
Extra:额外信息,如using index、filesort等
重点关注type,type类型的不同竟然导致性能差六倍!!!
eq_ref:最多只返回一条符合条件的记录。使用唯一性索引或主键查找时会发生 (高效)
const:当确定最多只会有一行匹配的时候,MySQL优化器会在查询前读取它而且只读取一次,因此非常快。当主键放入where子句时,mysql把这个查询转为一个常量(高效)
system:这是const连接类型的一种特例,表仅有一行满足条件。
Null:意味说mysql能在优化阶段分解查询语句,在执行阶段甚至用不到访问表或索引(高效)
出现慢查询的原因
在where子句中使用了函数操作 出现慢查询的sql语句中使用了unix_timestamp函数统计出自'1970-01-01 00:00:00'的到当前时间的秒数差。导致索引全扫描统计出近七天的数据量的。
解决方案
尽量避免在where子句中对字段进行函数操作,这将导致存储引擎放弃使用索引而进行全表扫描。对于需要计算的值最好通过程序计算好传入而不是在sql语句中做计算,比如这个sql中我们将当前的日期和七天前的日期计算好传入
后记
这个问题当时在测试环境没有发现,测试环境的请求速度还是可以的。没有被发现可以归结为数据量。生产数据量为百万级别,测试环境数据量为万级,数据量差50倍,数据量的增大把慢查询的问题也放大了。
二、慢sql二
因为线上出现了很明显的请求响应慢的问题,又去看了项目中的其他sql,发现还有sql执行的效率比较低。
复现慢sql
执行sql
select FROM\_UNIXTIME(copyright\_apply\_time/1000,'%Y-%m-%d') point,count(1) numsfrom resource\_info where copyright\_apply\_time >= 1539336488355 and copyright\_apply\_time <= 1539941288355 group by point
查看耗时:
耗时为1123毫秒 查看执行计划:
explain select FROM\_UNIXTIME(copyright\_apply\_time/1000,'%Y-%m-%d') point,count(1) numsfrom resource\_info where copyright\_apply\_time >= 1539336488355 and copyright\_apply\_time <= 1539941288355 group by point
执行计划结果:
索引是命中了,但是extra字段中出现了Using temporary和Using filesort
优化慢sql一
group by实质是先排序后分组,也就是分组之前必排序。通过分组的时候禁止排序优化sql 执行sql:
select FROM\_UNIXTIME(copyright\_apply\_time/1000,'%Y-%m-%d') point,count(1) numsfrom resource\_info where copyright\_apply\_time >= 1539336488355 and copyright\_apply\_time <= 1539941288355 group by point order by null
查看耗时:
一共耗时1068毫秒,提高100毫秒左右,效果并不是特别明显 查看执行计划:
优化慢sql二
慢查询的sql业务逻辑为根据时间段分类统计出条件范围内各个时间段的数量 比如给定的条件范围为2018-10-20~2018-10-27的时间戳,这条sql就会统计出2018-10-20~2018-10-27每天的数据增量。现在优化成一天一天查,分别查七次数据,去掉分组操作
select FROM\_UNIXTIME(copyright\_apply\_time/1000,'%Y-%m-%d') point,count(1) numsfrom resource\_info where copyright\_apply\_time >= 1539855067355 and copyright\_apply\_time <= 1539941467355
查看耗时:
耗时为38毫秒,即使查7次所用时间也比1123毫秒少 查看执行计划:
作者:何甜甜在吗
https://juejin.im/post/5bcc2935f265da0ac66987c9
公众号后台回复【2T】有惊喜礼包!
1、GitHub 标星 3.2w!史上最全技术人员面试手册!FackBoo发起和总结
5、37岁程序员被裁,120天没找到工作,无奈去小公司,结果懵了...