「Linux」- 内存管理

  CREATED BY JENKINSBOT

物理内存也称为主存,大多数计算机用的主存都是动态随机访问内存(DRAM)。只有内核才可以直接访问物理内存。

进程如何访问内存

物理内存 与 虚拟内存

Linux 内核给每个进程都提供了一个独立的虚拟地址空间,并且这个地址空间是连续的。这样,进程就可以很方便地访问内存,更确切地说是访问虚拟内存。

并不是所有的虚拟内存都会分配物理内存,只有那些实际使用的虚拟内存才分配物理内存,并且分配后的物理内存,是通过内存映射来管理的。

内存映射

内存映射,其实就是将虚拟内存地址映射到物理内存地址。为了完成内存映射,内核为每个进程都维护了一张页表,记录虚拟地址与物理地址的映射关系。

虚拟内存 =>(虚拟地址)=> 页面表(MMU) => (物理地址)=> 物理内存

对普通进程来说,能看到的其实是内核提供的虚拟内存,这些虚拟内存还需要通过页表,由系统映射为物理内存。

内存管理单元(MMU)

页表实际上存储在处理器的内存管理单元(MMU)中。而当进程访问的虚拟地址在页表中查不到时,系统会产生一个缺页异常,进入内核空间分配物理内存、更新进程页表,最后再返回用户空间,恢复进程的运行。

MMU 以“页”来管理内存,通常是 4 KB 大小,每一次内存映射,都需要关联 4 KB 或者 4KB 整数倍的内存空间。

页的大小只有 4 KB ,导致的另一个问题就是,整个页表会变得非常大。比方说,仅 32 位系统就需要 100 多万个页表项(4GB/4KB),才可以实现整个地址空间的映射。为了解决页表项过多的问题,Linux 提供了两种机制,也就是多级页表和大页(HugePage)。

多级页表就是把内存分成区块来管理,将原来的映射关系改成区块索引和区块内的偏移。由于虚拟内存空间通常只用了很少一部分,那么,多级页表就只保存这些使用中的区块,这样就可以大大地减少页表的项数。Linux 用的正是四级页表来管理内存页,如下图所示,虚拟地址被分为 5 个部分,前 4 个表项用于选择页,而最后一个索引表示页内偏移。

大页(HugePage),顾名思义,就是比普通页更大的内存块,常见的大小有 2MB 和 1GB。大页通常用在使用大量内存的进程上,比如 Oracle、DPDK 等

TLB(Translation Lookaside Buffer,转译后备缓冲器)会影响 CPU 的内存访问性能的原因:
TLB 其实就是 MMU 中页表的高速缓存。由于进程的虚拟地址空间是独立的,而 TLB 的访问速度又比 MMU 快得多,所以,通过减少进程的上下文切换,减少 TLB 的刷新次数,就可以提高 TLB 缓存的使用率,进而提高 CPU 的内存访问性能。

虚拟地址空间:内核空间 与 用户空间

虚拟地址空间的内部又被分为内核空间用户空间两部分,不同字长(也就是单个 CPU 指令可以处理数据的最大长度)的处理器,地址空间的范围也不同:

32-bit

1)32-bit,内核空间占用 1G,位于最高处,剩下的 3G 是用户空间:
用户空间,3G,0x00000000 – 0xC0000000;
内核空间,1G,0xC0000000 – 0xFFFFFFFF;

64-bit

2)64-bit,64 位系统的内核空间和用户空间都是 128T,分别占据整个内存空间的最高和最低处,剩下的中间部分是未定义的
用户空间,128T,0x0 – 0x00007ffffffff000;
未定义,0x00007ffffffff000 – 0xffff800000000000;
内核空间,128T,0xffff800000000000 – 0xffffffffffffffff;

进程在用户态时,只能访问用户空间内存;只有进入内核态后,才可以访问内核空间内存。虽然每个进程的地址空间都包含了内核空间,但这些内核空间,其实关联的都是相同的物理内存。这样,进程切换到内核态后,就可以很方便地访问内核空间内存。

虚拟内存空间分布(32-bit)

以 32-bit 系统为例(其实 64 位系统的内存分布也类似,只不过内存空间要大得多),如下图来表示它们的关系

用户空间,内存从低到高分别是五种不同的内存段:
1)只读段,包括代码和常量等。
2)数据段,包括全局变量等。
3)堆,包括动态分配的内存,从低地址开始向上增长。
4)文件映射段,包括动态库、共享内存等,从高地址开始向下增长。
5)栈,包括局部变量和函数调用的上下文等。栈的大小是固定的,一般是 8 MB。

在这五个内存段中,堆和文件映射段的内存是动态分配的。比如说,使用 C 标准库的 malloc() 或者 mmap() ,就可以分别在堆和文件映射段动态分配内存。

内存分配 与 内存回收

内存分配

malloc() 是 C 标准库提供的内存分配函数,对应到系统调用上,有两种实现方式,即 brk() 和 mmap():

1)对小块内存(小于 128K),C 标准库使用 brk() 来分配,也就是通过移动堆顶的位置来分配内存。这些内存释放后并不会立刻归还系统,而是被缓存起来,这样就可以重复使用。

优劣:brk() 方式的缓存,可以减少缺页异常的发生,提高内存访问效率。不过,由于这些内存没有归还系统,在内存工作繁忙时,频繁的内存分配和释放会造成内存碎片。

2)大块内存(大于 128K),则直接使用内存映射 mmap() 来分配,也就是在文件映射段找一块空闲内存分配出去。

优劣:mmap() 方式分配的内存,会在释放时直接归还系统,所以每次 mmap 都会发生缺页异常。在内存工作繁忙时,频繁的内存分配会导致大量的缺页异常,使内核的管理负担增大。这也是 malloc 只对大块内存使用 mmap 的原因。

这些内存(通过 malloc() 申请)都只在首次访问时才分配,也就是通过缺页异常进入内核中,再由内核来分配内存。整体来说 Linux 使用伙伴系统来管理内存分配。前面我们提到过,这些内存在 MMU 中以页为单位进行管理,伙伴系统也一样,以页为单位来管理内存,并且会通过相邻页的合并,减少内存碎片化(比如 brk() 造成的内存碎片)。

缺页异常又分为下面两种场景:
1)次缺页异常:可以直接从物理内存中分配时
2)主缺页异常:需要磁盘 I/O 介入(比如 Swap)时

遇到比页更小的对象,比如不到 1K 的时候,在用户空间,malloc 通过 brk() 分配的内存,在释放时并不立即归还系统,而是缓存起来重复利用。在内核空间,Linux 则通过 slab 分配器来管理小内存。你可以把 slab 看成构建在伙伴系统上的一个缓存,主要作用就是分配并释放内核中的小对象。只有在内核空间,内核调用kmalloc去分配内存的时候,才会涉及到 slab 。

内存回收

在程序中,通过代码回收内存:对内存来说,如果只分配而不释放就会造成内存泄漏,甚至会耗尽系统内存。所以在应用程序用完内存后,需要调用 free() 或 unmap(),来释放不用的内存。

由操作系统进行内存回收:在发现内存紧张时,操作系统就会通过系列机制来回收内存,比如下面这三种方式:

1)回收缓存:使用 LRU(Least Recently Used)算法,回收最近使用最少的内存页面

比如 Buffer 和 Cache 就属于可回收内存。在内存管理中,它们通常被称为
文件页(File-backed Page)。大部分文件页都可以直接回收,以后需要时再从磁盘重新读取。

那些被应用程序修改过,并且暂时还没写入磁盘的数据
(脏页),需要先写入磁盘,然后才能进行内存释放。脏页可以通过两种方式写入磁盘:1)在应用程序中通过 fsync 系统调用;2)由内核线程 pdflush 负责这些脏页的刷新。

通过内存映射获取的
文件映射页,也是一种常见的文件页。它也可以被释放掉,下次再访问的时候,从文件重新读取。

2)交换分区:回收不常访问的内存,把不常用的内存通过交换分区直接写到磁盘中;

在内存管理中,
应用程序动态分配的堆内存,即
匿名页(Anonymous Page),也可以回收,把这些不常访问的内存先写到磁盘中,然后释放这些内存,给其他更需要的进程使用。再次访问这些内存时,重新从磁盘读入内存。这正是 Linux 的 Swap 机制,把一块磁盘空间当成内存来用,当进程访问这些内存时,再从磁盘读取这些数据到内存中。

通常只在内存不足时,才会发生 Swap 交换。并且由于磁盘读写的速度远比内存慢,Swap 会导致严重的内存性能问题。

3)OOM(Out of Memory):在内存紧张时,操作系统还会通过 OOM 机制结束占用大量内存的进程,释放这些内存,再分配给其他更需要的进程;

OOM(Out of Memory),其实是内核的一种保护机制。它监控进程的内存使用情况,并且使用 oom_score 为每个进程的内存使用情况进行评分:

1)一个进程消耗的内存越大,oom_score 就越大,越容易被 OOM 杀死;(可以通过 /proc 文件系统,手动设置进程的 oom_adj(echo -16 > /proc/$(pidof sshd)/oom_adj),从而调整进程的 oom_score)。oom_adj 的范围是 [-17, 15],数值越大,表示进程越容易被 OOM 杀死;数值越小,表示进程越不容易被 OOM 杀死,其中 -17 表示禁止 OOM

2)一个进程运行占用的 CPU 越多,oom_score 就越小;

LRU – Least Recently Used

LRU 回收算法,实际上维护着 active 和 inactive 两个双向链表,其中:active 记录活跃的内存页;inactive 记录非活跃的内存页。越接近链表尾部,就表示内存页越不常访问。这样在回收内存时,系统就可以根据活跃程度,优先回收不活跃的内存。

活跃和非活跃的内存页,按照类型的不同,又分别分为文件页和匿名页,对应着 缓存回收Swap 回收。可以从 /proc/meminfo 中,查询它们的大小:

# cat /proc/meminfo | grep -i active
Active:         12266848 kB
Inactive:        2437720 kB
Active(anon):   11506584 kB
Inactive(anon):  1863448 kB
Active(file):     760264 kB
Inactive(file):   574272 kB

OOM – Out of Memory

在内存不足时,操作系统会尝试直接内存回收。如果内存还是不足,将出发 OOM 进行回收。

在 dmesg 中,将看到 Out of memory 信息,显示被杀死的进程:

# cat /proc/meminfo | grep -i active
Active:         12266848 kB
Inactive:        2437720 kB
Active(anon):   11506584 kB
Inactive(anon):  1863448 kB
Active(file):     760264 kB
Inactive(file):   574272 kB

OOM 触发的时机基于虚拟内存。换句话说,进程在申请内存时,如果申请的虚拟内存加上服务器实际已用的内存之和,比总的物理内存还大,就会触发 OOM。

如何查看内存使用情况

总体使用情况:free

# free // 以字节为单位
              total        used        free      shared  buff/cache   available
Mem:       16108680    13563160      301692      731132     2243828     1478772
Swap:      31457276    16751336    14705940

// 1)total,总内存大小;
// 2)used,已使用内存的大小,包含了共享内存;
// 3)free,未使用内存的大小;
// 4)shared,共享内存的大小;
// 5)buff/cache,缓存和缓冲区的大小;
// 6)available,新进程可用内存的大小;包含未使用内存,还包括了可回收的缓存,会比未使用内存更大。但并不是所有缓存都可以回收,因为有些缓存可能正在使用。

进程使用情况:top、ps

# top
top - 11:35:02 up 28 days, 14:45, 14 users,  load average: 1.60, 1.76, 1.67
Tasks: 469 total,   1 running, 464 sleeping,   0 stopped,   4 zombie
%Cpu0  : 20.8 us,  5.1 sy,  0.0 ni, 73.7 id,  0.3 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu1  : 20.8 us,  6.1 sy,  0.0 ni, 72.2 id,  0.3 wa,  0.0 hi,  0.6 si,  0.0 st
%Cpu2  : 23.4 us,  5.2 sy,  0.0 ni, 71.1 id,  0.0 wa,  0.0 hi,  0.3 si,  0.0 st
%Cpu3  : 18.6 us,  7.4 sy,  0.0 ni, 74.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
MiB Mem :  15731.1 total,    210.4 free,  13512.2 used,   2008.5 buff/cache
MiB Swap:  30720.0 total,  14605.5 free,  16114.5 used.   1157.3 avail Mem

  PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     TIME+ COMMAND
 1607 libvirt+  20   0 6913088   3.9g   3008 S  59.5  25.2  25755:25 /usr/bin/qemu-system
18393 k4nz      20   0 3851580 324704  54840 S   8.0   2.0 729:02.03 /usr/bin/gnome-shell
12996 k4nz      20   0   82.2g 990.7m  67328 S   7.0   6.3 256:58.14 /usr/lib/chromium/ch
14608 k4nz      20   0 4701876  55488  22692 S   3.0   0.3 137:33.08 /opt/google/chrome/c

// 输出界面的顶端,也显示了系统整体的内存使用情况,这些数据跟 free 类似

// VIRT,进程虚拟内存的大小,只要是进程申请过的内存,即便还没有真正分配物理内存,也会计算在内
// RES, 常驻内存的大小,也就是进程实际使用的物理内存大小,但不包括 Swap 和共享内存
// SHR, 共享内存的大小,比如与其他进程共同使用的共享内存、加载的动态链接库以及程序的代码段等
// %MEM,进程使用物理内存占系统总内存的百分比

// 注意事项:
// 虚拟内存通常并不会全部分配物理内存。从上面的输出,你可以发现每个进程的虚拟内存都比常驻内存大得多
// 共享内存 SHR 并不一定是共享的,比如程序的代码段、非共享的动态链接库,也都算在 SHR 里。当然 SHR 也包括了进程间真正共享的内存。所以在计算多个进程的内存使用时,不能把这些进程的 SHR 直接相加

计算内存使用情况

使用 /proc/<pid>/smaps 的 PSS 字段可以计算内存用量:

// 使用grep查找Pss指标后,再用awk计算累加值
# grep Pss /proc/[1-9]*/smaps | awk '{total+=$2}; END {printf "%d kB\n", total}'
391266 kB

关键在于,PSS 是进程的共享内存被平分之后的数值,所以不会出现重复累加的问题。

参考文献

15 | 基础篇:Linux内存是怎么工作的?
22 | 答疑(三):文件系统与磁盘的区别是什么?