震惊!Spring Boot 内存又泄露,排查太难了!
作者 | 纪兵
来源:美团技术团队 | http://suo.im/5MABXL
背景
为了更好地实现对项目的管理,我们将组内一个项目迁移到MDP框架(基于Spring Boot),随后我们就发现系统会频繁报出Swap区域使用量过高的异常。笔者被叫去帮忙查看原因,发现配置了4G堆内内存,但是实际使用的物理内存竟然高达7G,确实不正常。
-XX:ReservedCodeCacheSize=128m
实际使用的物理内存如下图所示:
排查过程
1.使用Java层面的工具定位内存区域(堆内内存、Code区域或者使用unsafe.allocateMemory和DirectByteBuffer申请的堆外内存)
笔者在项目中添加 -XX:NativeMemoryTracking=detail
JVM参数重启项目,使用命令 jcmd pid VM.native_memory detail
查看到的内存分布如下:
为了防止误判,笔者使用了pmap查看内存分布,发现大量的64M的地址;而这些地址空间不在jcmd命令所给出的地址空间里面,基本上就断定就是这些64M的内存所导致。
pmap显示的内存情况
2. 使用系统层面的工具定位堆外内存
因为笔者已经基本上确定是Native Code所引起,而Java层面的工具不便于排查此类问题,只能使用系统层面的工具去定位问题。
首先,使用了gperftools去定位问题
gperftools的使用方法可以参考gperftools,gperftools的监控如下:
从上图可以看出:使用malloc申请的的内存最高到3G之后就释放了,之后始终维持在700M-800M。笔者第一反应是:难道Native Code中没有使用malloc申请,直接使用mmap/brk申请的?(gperftools原理就使用动态链接的方式替换了操作系统默认的内存分配器(glibc)。)
然后,使用strace去追踪系统调用
因为使用gperftools没有追踪到这些内存,于是直接使用命令“strace -f -e”brk,mmap,munmap” -p pid”追踪向OS申请内存请求,但是并没有发现有可疑内存申请。strace监控如下图所示:
strace监控
接着,使用GDB去dump可疑内存
gdp-pid pid
进入GDB之后,然后使用命令 dumpmemory mem.bin startAddress endAddress
dump内存,其中startAddress和endAddress可以从/proc/pid/smaps中查找。然后使用 strings mem.bin
查看dump的内容,如下:再次,项目启动时使用strace去追踪系统调用
项目启动使用strace追踪系统调用,发现确实申请了很多64M的内存空间,截图如下:
strace监控
使用该mmap申请的地址空间在pmap对应如下:
strace申请内容对应的pmap地址空间
最后,使用jstack去查看对应的线程
jstack pid
去查看线程栈,找到对应的线程栈(注意10进制和16进制转换)如下:strace申请空间的线程栈
btrace追踪栈
然后查看使用MCC的地方,发现没有配置扫包路径,默认是扫描所有的包。于是修改代码,配置扫包路径,发布上线后内存问题解决。
3. 为什么堆外内存没有释放掉呢?
到此,基本上可以确定是内存分配器在捣鬼;搜索了一下glibc 64M,发现glibc从2.11开始对每个线程引入内存池(64位机器大小就是64M内存),原文如下:
glib内存池说明
gcc zjbmalloc.c-fPIC-shared-o zjbmalloc.so
生成动态库,然后使用 exportLD_PRELOAD=zjbmalloc.so
替换掉glibc的内存分配器。其中代码Demo如下:#include<sys/mman.h>
#include<stdlib.h>
#include<string.h>
#include<stdio.h>
//作者使用的64位机器,sizeof(size_t)也就是sizeof(long)
void* malloc ( size_t size )
{
long* ptr = mmap( 0, size + sizeof(long), PROT_READ | PROT_WRITE, MAP_PRIVATE | MAP_ANONYMOUS, 0, 0);
if(ptr == MAP_FAILED) {
return NULL;
}
*ptr = size; // First 8 bytes contain length.
return(void*)(&ptr[1]); // Memory that is after length variable
}
void*calloc(size_t n, size_t size) {
void* ptr = malloc(n * size);
if(ptr == NULL) {
return NULL;
}
memset(ptr, 0, n * size);
return ptr;
}
void*realloc(void*ptr, size_t size)
{
if(size == 0) {
free(ptr);
return NULL;
}
if(ptr == NULL) {
return malloc(size);
}
long*plen = (long*)ptr;
plen--; // Reach top of memory
long len = *plen;
if(size <= len) {
return ptr;
}
void* rptr = malloc(size);
if(rptr == NULL) {
free(ptr);
return NULL;
}
rptr = memcpy(rptr, ptr, len);
free(ptr);
return rptr;
}
void free (void* ptr )
{
if(ptr == NULL) {
return;
}
long*plen = (long*)ptr;
plen--; // Reach top of memory
long len = *plen; // Read length
munmap((void*)plen, len + sizeof(long));
}
通过在自定义分配器当中埋点可以发现其实程序启动之后应用实际申请的堆外内存始终在700M-800M之间,gperftools监控显示内存使用量也是在700M-800M左右。但是从操作系统角度来看进程占用的内存差别很大(这里只是监控堆外内存)。
笔者做了一下测试,使用不同分配器进行不同程度的扫包,占用的内存如下:
为什么自定义的malloc申请800M,最终占用的物理内存在1.7G呢?
总结
流程图
整个内存分配的流程如上图所示。MCC扫包的默认配置是扫描所有的JAR包。在扫描包的时候,Spring Boot不会主动去释放堆外内存,导致在扫描阶段,堆外内存占用量一直持续飙升。当发生GC的时候,Spring Boot依赖于finalize机制去释放了堆外内存;但是glibc为了性能考虑,并没有真正把内存归返到操作系统,而是留下来放入内存池了,导致应用层以为发生了“内存泄漏”。所以修改MCC的配置路径为特定的JAR包,问题解决。笔者在发表这篇文章时,发现Spring Boot的最新版本(2.0.5.RELEASE)已经做了修改,在ZipInflaterInputStream主动释放了堆外内存不再依赖GC;所以Spring Boot升级到最新版本,这个问题也可以得到解决。
1、GitHub 标星 3.2w!史上最全技术人员面试手册!FackBoo发起和总结
5、37岁程序员被裁,120天没找到工作,无奈去小公司,结果懵了...