查看原文
其他

SRE重案调查组 第一集 | 高延迟问题的罪魁祸首System.gc()

SRE team eBay技术荟 2022-03-15


供稿 | eBay Infrastructure Engineering

编辑 | 顾欣怡

本文共2625字,预计阅读时间8分钟

更多干货请关注“eBay技术荟”公众号


导读

eBay SRE 每天都处理生产环境中出现的各种各样的问题,有些问题很具有代表性,这次我们将分享与Java语言中System.gc()相关的两个典型案例,介绍如何分析这种问题,并且如何定位且修复这些问题。

01

案例一:

某日,支付平台的开发人员找到SRE,需要SRE帮助解决一个棘手的问题。他们发现一个调用第三方支付接口的应用里面,偶尔出现请求超时的情况。第三方平台保证他们的服务99%10秒内完成,算上网络传输时间,15秒足够了,尽管支付平台设置的超时时间是30秒,但还是发生了超时的情况。
从最近一周日志的数据来看,大概每天出现15~40次超时问题。发生的时间也没有什么大致规律,有时同时出现2~3次,有时过2个小时才又出现一次。尽管客户只要重试几乎全部成功,并且这种请求错误出现的次数相对于总请求数比例极低,可这确实影响部分用户的支付体验。出现的总数量虽相对不高,但影响用户体验的问题必须是大问题。
支付平台的小伙伴先是和这个外部支付公司联系,根据我们提供的业务ID,该公司确认他们那边都是很快完成了支付,不存在超时的现象。

那么还有一个可能是中间的网络问题,网络先是通过我们的内网,然后是互联网,最后是他们的内网,这中间任何一步都有可能出现网络的抖动,导致我们的业务超时。

可是为什么又每天出现这么多次呢? 因为网络问题涉及外网,并没有那么容易查清楚,并且每天分布的时间点并没有什么规律,所以支付平台的小伙伴转而找到SRE寻求帮助。

SRE拿到这个问题之后,也感觉很棘手。这种超时问题,我们一般分为三段:

首先是服务提供者,它的处理时间变长,直接导致超时,这个问题中第三方已经确认他们并没有超时。

其次是中间的网络传输,这个问题中我们又跨越3段网络:我们的内网,互联网和服务提供商的网络。任何一段出问题,都会导致问题超时,并且这里面有很多是我们很难拿到数据去诊断的。

再次是服务客户端,我们的代码里面偶尔也会出现使程序变慢的地方,但这也是我们最不容易去怀疑的地方,因为它是我们自己写的代码。

鉴于每天出现的数量和网络的不确定性,SRE决定先排除我们这端代码的问题。这个应用有几十台服务器分布在三个数据中心,每个数据中心的服务器都出现过这种超时问题。平时这个业务都是在5秒左右完成,但发生超时的时候等待30秒都无法完成。

SRE先是找到一个具体的错误日志,然后观察了那台服务器的各种监控指标,发现那台服务器的GC开销在出错的时间点左右有明显增高,初步怀疑是GC导致的变慢。

继而查看当时的verbose GC日志,确认那个时间点确实有Full GC发生,并且Full GC时间超过30秒。不过发生的时间点上堆内存和永久代内存都有足够空闲,于是怀疑是System.gc()导致的问题

又查看其它几个出错的例子,发现一样的问题。查看更长时间的verbose GC 日志,发现这种Full GC对于每一台机器都是每隔24小时出现一次。与服务启动成功时间对比,发现第一次发生的时间点正是服务刚启动之后的时间点,之后每天这个时间点再来一次。

开发人员搜索并确认了他们的代码中并没有明确的System.gc()调用,所以只能怀疑某个依赖库中存在这个调用。虽然确认的过程稍显复杂,但是在JVM启动参数中添加-XX:+DisableExplicitGC后终于彻底解决了这个问题。

02

案例二:

某日,监控平台上突然跳出一个新的报警,一个应用的CPU使用率突然达到了60%以上。SRE查看这个应用的历史记录,发现之前它的CPU使用率基本在5%以下。智能的云监控平台已经检测到这个问题,并且已经尝试通过替换新机器的方式帮它去修复了。

SRE并没有发现这个应用最近有什么新的代码部署,也没有发现最近有新的请求URL进入。联系开发人员,他们说可能上游最近有变动,发过来的请求内部有不同的参数,导致可能走不同的代码路径。

查看这个应用的监控指标数据,发现这个应用的GC开销明显提高,是GC导致JVM CPU开销增加。于是SRE查看了它的verbose GC日志,具体如图1所示:

图1(点击可查看大图)

我们看到堆空间有大量空闲,却频繁地在做Full GC。从图2的原始日志可以看到,永久代也有大量空闲内存。

图2(点击可查看大图)

于是我们通过 jstat 命令查看了做Full GC的原因:

图3(点击可查看大图)

原来也是System.gc()方法导致的。也就是说新的代码路径里面有System.gc()的调用。和上面的问题一样,加上-XX:+DisableExplicitGC参数后就修复了这个问题。

03

如何排查及修复

上面两个案例都是有人在代码中明确调用System.gc()导致的问题,并且都通过添加JVM启动参数-XX:+DisableExplicitGC得以解决。那么如果真的想要从代码层面修复这个问题,怎么才能找到这段代码呢?
通常,如果这个调用发生在我们可控的源代码里,基本通过全文搜索或者借助IDE里面的方法调用查询,都能找到。
如果这个System.gc()调用在某个依赖包里面,如何才能找出来呢,这经常是比较麻烦的一步。这里介绍两个方法:

1. 如果这个应用可以本地调试,只要开启调试(debug)模式,然后在System.gc()方法上设置断点,那么一旦运行到这一步,调试视图就会立马告诉你。

2. 使用FindBugs工具,它能分析工程里面的源代码和依赖包,通过DM_GC这个规则就能查找出调用点。具体见图4:

图4(点击可查看大图)

04

System.gc()存在的必要性

System.gc()方法一旦被调用并被执行,它将是一次Full GC。Full GC对于绝大多数Hotspot JVM实现里面已有的GC算法而言,将是一次相对比较长的全局停顿(stop-the-world)

在一些对时延要求比较高的服务上,这将造成一定程度的不能满足SLA。甚至可能在瞬间因为客户端的超时,带来更多不必要的重试请求。正常情况下,JVM都有自适应算法去判断什么时候需要做一次GC,并且尽力避免Full GC,所以大多数情况下,不需要编程人员调用System.gc()方法。

这并非说这个方法没有用处,在以下场景,这个方法能带来一些有益的效果:

1. 服务启动并初始化完成,在没有提供服务之前调用System.gc()。这样可以回收掉启动过程中一些未来没必要存在的对象,大幅提高可用堆的数量,并且把一些对象从年轻代直接移到了老年代,不再需要经过多次在Survival空间来回移动才最终移到老年代。

2. 在做heap dump之前。这样回收掉一些已经没有被引用的对象,减少heap中没必要分析的对象。

3. 微观测试(microbenchmark)之前。减小由于测试当中可能出现GC过程引起的测试结果不正确。

05

总结

System.gc()作为Java提供的一个方法,在如今JVM已经很智能的情况下,大多数时候已经不再需要我们明确去调用它。一旦发生了延迟较长的情况,可以把这个方法的调用作为一个怀疑的对象。通过一些具体的方法能够找到调用的点并且修复这个问题。
下集预告:
亿级用户电商平台监控系统上突现黄色告警!
某数据中心业务请求猛然增加!
日志延迟竟达80毫秒
真正的元凶
是谁?
明日11:15,敬请关注:
SRE重案调查组 第二集 | 挖掘应用处理变慢的“真相”
不见不散!


eBay校园招聘现已正式启动!

↓点击阅读原文开启你的“亿”倍可能!

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存