你真的理解内存分配吗?
The following article is from Linux内核那些事 Author songsong001
内存是计算机中必不可少的资源,因为 CPU 只能直接读取内存中的数据,所以当 CPU 需要读取外部设备(如硬盘)的数据时,必须先把数据加载到内存中。
我们来看看可爱的内存长什么样子的吧,如图1所示:
一、内存申请
通常使用高级语言(如Go、Java 或 Python 等)都不需要自己管理内存(因为有垃圾回收机制),但 C/C++ 程序员就经常要与内存打交道。
当我们使用 C/C++ 编写程序时,如果需要使用内存,就必须先调用 malloc
函数来申请一块内存。但是,malloc
真的是申请了内存吗?
我们通过下面例子来观察 malloc
到底是不是真的申请了内存:
1#include <stdlib.h>
2
3int main(int argc, char const *argv[])
4{
5 void *ptr;
6
7 ptr = malloc(1024 * 1024 * 1024); // 申请 1GB 内存
8
9 sleep(3600); // 睡眠3600秒, 方便调试
10
11 return 0;
12}
上面的程序主要通过调用 malloc
函数来申请了 1GB 的内存,然后睡眠 3600 秒,方便我们查看其内存使用情况。
现在,我们编译上面的程序并且运行,如下:
1$ gcc malloc.c -o malloc
2$ ./malloc
并且我们打开一个新的终端,然后查看其内存使用情况,如图 2 所示:
图2 中的 VmRSS
表示进程使用的物理内存大小,但我们明明申请了 1GB 的内存,为什么只显示使用 404KB 的内存呢?这里就涉及到 虚拟内存
和 物理内存
的概念了。
二、物理内存与虚拟内存
下面先来介绍一下 物理内存
与 虚拟内存
的概念:
物理内存
:也就是安装在计算机中的内存条,比如安装了 2GB 大小的内存条,那么物理内存地址的范围就是 0 ~ 2GB。虚拟内存
:虚拟的内存地址。由于 CPU 只能使用物理内存地址,所以需要将虚拟内存地址转换为物理内存地址才能被 CPU 使用,这个转换过程由MMU(Memory Management Unit,内存管理单元)
来完成。虚拟内存
大小不受物理内存
大小的限制,在 32 位的操作系统中,每个进程的虚拟内存空间大小为 0 ~ 4GB。
程序中使用的内存地址都是虚拟内存地址,也就是说,我们通过 malloc
函数申请的内存都是虚拟内存。实际上,内核会为每个进程管理其虚拟内存空间,并且会把虚拟内存空间划分为多个区域,如 图3 所示:
我们来分析一下这些区域的作用:
代码段
:用于存放程序的可执行代码。数据段
:用于存放程序的全局变量和静态变量。堆空间
:用于存放由malloc
申请的内存。栈空间
:用于存放函数的参数和局部变量。内核空间
:存放 Linux 内核代码和数据。
三、brk指针
由此可知,通过 malloc
函数申请的内存地址是由 堆空间
分配的(其实还有可能从 mmap
区分配,这种情况暂时忽略)。在内核中,使用一个名为 brk
的指针来表示进程的 堆空间
的顶部,如 图4 所示:
所以,通过移动 brk
指针就可以达到申请(向上移动)和释放(向下移动)堆空间的内存。例如申请 1024 字节时,只需要把 brk
向上移动 1024 字节即可,如 图5 所示:
事实上,malloc
函数就是通过移动 brk
指针来实现申请和释放内存的,Linux 提供了一个名为 brk()
的系统调用来移动 brk
指针。
四、内存映射
现在我们知道,malloc
函数只是移动 brk
指针,但并没有申请物理内存。前面我们介绍虚拟内存和物理内存的时候介绍过,虚拟内存地址必须映射到物理内存地址才能被使用。如 图6 所示:
如果对没有进行映射的虚拟内存地址进行读写操作,那么将会发生 缺页异常
。Linux 内核会对 缺页异常
进行修复,修复过程如下:
获取触发
缺页异常
的虚拟内存地址(读写哪个虚拟内存地址导致的)。查看此虚拟内存地址是否被申请(是否在
brk
指针内),如果不在brk
指针内,将会导致 Segmention Fault 错误(也就是常见的coredump),进程将会异常退出。如果虚拟内存地址在
brk
指针内,那么将此虚拟内存地址映射到物理内存地址上,完成缺页异常
修复过程,并且返回到触发异常的地方进行运行。
从上面的过程可以看出,不对申请的虚拟内存地址进行读写操作是不会触发申请新的物理内存。所以,这就解释了为什么申请 1GB 的内存,但实际上只使用了 404 KB 的物理内存。
五、总结
本文主要解释了内存申请的原理,并且了解到 malloc
申请的只是虚拟内存,而且物理内存的申请延迟到对虚拟内存进行读写的时候,这样做可以减轻进程对物理内存使用的压力。
我们介绍了 malloc
申请内存的原理,但其在内核怎么实现的呢?所以,本文主要分析在 Linux 内核中对堆内存分配的实现过程。
本文使用 Linux 2.6.32 版本代码
六、内存分区对象
在前文中介绍过,Linux 会把进程虚拟内存空间划分为多个分区,在 Linux 内核中使用 vm_area_struct
对象来表示,其定义如下:
1struct vm_area_struct {
2 struct mm_struct *vm_mm; // 分区所属的内存管理对象
3
4 unsigned long vm_start; // 分区的开始地址
5 unsigned long vm_end; // 分区的结束地址
6
7 struct vm_area_struct *vm_next; // 通过这个指针把进程所有的内存分区连接成一个链表
8 ...
9 struct rb_node vm_rb; // 红黑树的节点, 用于保存到内存分区红黑树中
10 ...
11};
我们对 vm_area_struct 对象进行了简化,只保留了本文需要的字段。
内核就是使用 vm_area_struct
对象来记录一个内存分区(如 代码段
、数据段
和 堆空间
等),下面介绍一下 vm_area_struct
对象各个字段的作用:
vm_mm
:指定了当前内存分区所属的内存管理对象。vm_start
:内存分区的开始地址。vm_end
:内存分区的结束地址。vm_next
:通过这个指针把进程中所有的内存分区连接成一个链表。vm_rb
:另外,为了快速查找内存分区,内核还把进程的所有内存分区保存到一棵红黑树中。vm_rb
就是红黑树的节点,用于把内存分区保存到红黑树中。
假如进程 A 现在有 4 个内存分区,它们的范围如下:
代码段
:00400000 ~ 00401000数据段
:00600000 ~ 00601000堆空间
:00983000 ~ 009a4000栈空间
:7f37ce866000 ~ 7f3fce867000
那么这 4 个内存分区在内核中的结构如 图1 所示:
在 图1 中,我们可以看到有个 mm_struct
的对象,此对象每个进程都持有一个,是进程虚拟内存空间和物理内存空间的管理对象。我们简单介绍一下这个对象,其定义如下:
1struct mm_struct {
2 struct vm_area_struct *mmap; // 指向由进程内存分区连接成的链表
3 struct rb_root mm_rb; // 内核使用红黑树保存进程的所有内存分区, 这个是红黑树的根节点
4 unsigned long start_brk, brk; // 堆空间的开始地址和结束地址
5 ...
6};
我们来介绍下 mm_struct
对象各个字段的作用:
mmap
:指向由进程所有内存分区连接成的链表。mm_rb
:内核为了加快查找内存分区的速度,使用了红黑树保存所有内存分区,这个就是红黑树的根节点。start_brk
:堆空间的开始内存地址。brk
:堆空间的顶部内存地址。
我们来回顾一下进程虚拟内存空间的布局图,如 图2 所示:
start_brk
和 brk
字段用来记录堆空间的范围, 如 图2 所示。一般来说,start_brk
是不会变的,而 brk
会随着分配内存和释放内存而变化。
七、虚拟内存分配
在前文中说过,调用 malloc
申请内存时,最终会调用 brk
系统调用来从堆空间中分配内存。我们来分析一下 brk
系统调用的实现:
1unsigned long sys_brk(unsigned long brk)
2{
3 unsigned long rlim, retval;
4 unsigned long newbrk, oldbrk;
5 struct mm_struct *mm = current->mm;
6 ...
7 down_write(&mm->mmap_sem); // 对内存管理对象进行上锁
8 ...
9 // 判断堆空间的大小是否超出限制, 如果超出限制, 就不进行处理
10 rlim = current->signal->rlim[RLIMIT_DATA].rlim_cur;
11 if (rlim < RLIM_INFINITY
12 && (brk - mm->start_brk) + (mm->end_data - mm->start_data) > rlim)
13 goto out;
14
15 newbrk = PAGE_ALIGN(brk); // 新的brk值
16 oldbrk = PAGE_ALIGN(mm->brk); // 旧的brk值
17 if (oldbrk == newbrk) // 如果新旧的位置都一样, 就不需要进行处理
18 goto set_brk;
19 ...
20 // 调用 do_brk 函数进行下一步处理
21 if (do_brk(oldbrk, newbrk-oldbrk) != oldbrk)
22 goto out;
23
24set_brk:
25 mm->brk = brk; // 设置堆空间的顶部位置(brk指针)
26out:
27 retval = mm->brk;
28 up_write(&mm->mmap_sem);
29 return retval;
30}
总结上面的代码,主要有以下几个步骤:
1、判断堆空间的大小是否超出限制,如果超出限制,就不作任何处理,直接返回旧的
brk
值。2、如果新的
brk
值跟旧的brk
值一致,那么也不用作任何处理。3、如果新的
brk
值发生变化,那么就调用do_brk
函数进行下一步处理。4、设置进程的
brk
指针(堆空间顶部)为新的brk
的值。
我们看到第 3 步调用了 do_brk
函数来处理,do_brk
函数的实现有点小复杂,所以这里介绍一下大概处理流程:
通过堆空间的起始地址
start_brk
从进程内存分区红黑树中找到其对应的内存分区对象(也就是vm_area_struct
)。把堆空间的内存分区对象的
vm_end
字段设置为新的brk
值。
至此,brk
系统调用的工作就完成了(上面没有分析释放内存的情况),总结来说,brk
系统调用的工作主要有两部分:
把进程的
brk
指针设置为新的brk
值。把堆空间的内存分区对象的
vm_end
字段设置为新的brk
值。
八、物理内存分配
从上面的分析知道,brk
系统调用申请的是 虚拟内存
,但存储数据只能使用 物理内存
。所以,虚拟内存必须映射到物理内存才能被使用。
那么什么时候才进行内存映射呢?
在前面介绍过,当对没有映射的虚拟内存地址进行读写操作时,CPU 将会触发 缺页异常
。内核接收到 缺页异常
后, 会调用 do_page_fault
函数进行修复。
我们来分析一下 do_page_fault
函数的实现(精简后):
1void do_page_fault(struct pt_regs *regs, unsigned long error_code)
2{
3 struct vm_area_struct *vma;
4 struct task_struct *tsk;
5 unsigned long address;
6 struct mm_struct *mm;
7 int write;
8 int fault;
9
10 tsk = current;
11 mm = tsk->mm;
12
13 address = read_cr2(); // 获取导致页缺失异常的虚拟内存地址
14 ...
15 vma = find_vma(mm, address); // 通过虚拟内存地址从进程内存分区中查找对应的内存分区对象
16 ...
17 if (likely(vma->vm_start <= address)) // 如果找到内存分区对象
18 goto good_area;
19 ...
20
21good_area:
22 write = error_code & PF_WRITE;
23 ...
24 // 调用 handle_mm_fault 函数对虚拟内存地址进行映射操作
25 fault = handle_mm_fault(mm, vma, address, write ? FAULT_FLAG_WRITE : 0);
26 ...
27}
do_page_fault
函数主要完成以下操作:
获取导致页缺失异常的虚拟内存地址,保存到
address
变量中。调用
find_vma
函数从进程内存分区中查找异常的虚拟内存地址对应的内存分区对象。如果找到内存分区对象,那么调用
handle_mm_fault
函数对虚拟内存地址进行映射操作。
从上面的分析可知,对虚拟内存进行映射操作是通过 handle_mm_fault
函数完成的,而 handle_mm_fault
函数的主要工作就是完成对进程 页表
的填充。
我们通过 图3 来理解内存映射的原理:
下面我们来分析一下 handle_mm_fault
的实现,代码如下:
1int handle_mm_fault(struct mm_struct *mm, struct vm_area_struct *vma,
2 unsigned long address, unsigned int flags)
3{
4 pgd_t *pgd; // 页全局目录项
5 pud_t *pud; // 页上级目录项
6 pmd_t *pmd; // 页中间目录项
7 pte_t *pte; // 页表项
8 ...
9 pgd = pgd_offset(mm, address); // 获取虚拟内存地址对应的页全局目录项
10 pud = pud_alloc(mm, pgd, address); // 获取虚拟内存地址对应的页上级目录项
11 ...
12 pmd = pmd_alloc(mm, pud, address); // 获取虚拟内存地址对应的页中间目录项
13 ...
14 pte = pte_alloc_map(mm, pmd, address); // 获取虚拟内存地址对应的页表项
15 ...
16 // 对页表项进行映射
17 return handle_pte_fault(mm, vma, address, pte, pmd, flags);
18}
handle_mm_fault
函数主要对每一级的页表进行映射(对照 图3 就容易理解),最终调用 handle_pte_fault
函数对 页表项
进行映射。
我们继续来分析 handle_pte_fault
函数的实现,代码如下:
1static inline int
2handle_pte_fault(struct mm_struct *mm, struct vm_area_struct *vma,
3 unsigned long address, pte_t *pte, pmd_t *pmd,
4 unsigned int flags)
5{
6 pte_t entry;
7
8 entry = *pte;
9
10 if (!pte_present(entry)) { // 还没有映射到物理内存
11 if (pte_none(entry)) {
12 ...
13 // 调用 do_anonymous_page 函数进行匿名页映射(堆空间就是使用匿名页)
14 return do_anonymous_page(mm, vma, address, pte, pmd, flags);
15 }
16 ...
17 }
18 ...
19}
上面代码简化了很多与本文无关的逻辑。从上面代码可以看出,handle_pte_fault
函数最终会调用 do_anonymous_page
来完成内存映射操作,我们接着来分析下 do_anonymous_page
函数的实现:
1static int
2do_anonymous_page(struct mm_struct *mm, struct vm_area_struct *vma,
3 unsigned long address, pte_t *page_table, pmd_t *pmd,
4 unsigned int flags)
5{
6 struct page *page;
7 spinlock_t *ptl;
8 pte_t entry;
9
10 if (!(flags & FAULT_FLAG_WRITE)) { // 如果是读操作导致的异常
11 // 使用 `零页` 进行映射
12 entry = pte_mkspecial(pfn_pte(my_zero_pfn(address), vma->vm_page_prot));
13 ...
14 goto setpte;
15 }
16 ...
17 // 如果是写操作导致的异常
18 // 申请一块新的物理内存页
19 page = alloc_zeroed_user_highpage_movable(vma, address);
20 ...
21 // 根据物理内存页的地址生成映射关系
22 entry = mk_pte(page, vma->vm_page_prot);
23 if (vma->vm_flags & VM_WRITE)
24 entry = pte_mkwrite(pte_mkdirty(entry));
25 ...
26setpte:
27 set_pte_at(mm, address, page_table, entry); // 设置页表项为新的映射关系
28 ...
29 return 0;
30}
do_anonymous_page
函数的实现比较有趣,它会根据 缺页异常
是由读操作还是写操作导致的,分为两个不同的处理逻辑,如下:
如果是读操作导致的,那么将会使用
零页
进行映射(零页
是 Linux 内核中一个比较特殊的内存页,所有读操作引起的缺页异常
都会指向此页,从而可以减少物理内存的消耗),并且设置其为只读(因为零页
是不能进行写操作)。如果下次对此页进行写操作,将会触发写操作的缺页异常
,从而进入下面步骤。如果是写操作导致的,就申请一块新的物理内存页,然后根据物理内存页的地址生成映射关系,再对页表项进行填充(映射)。
- EOF -
看完本文有收获?请分享给更多人
推荐关注「Linux 爱好者」,提升Linux技能
点赞和在看就是最大的支持❤️