查看原文
其他

败家玩意儿!Redis 竟然浪费了这么多内存!

The following article is from IT界农民工 Author 莱乌

点击上方“Python编程时光”,选择“加为星标
第一时间关注Python技术干货!


作者|莱乌



作为内存数据库,内存空间大小对于 Redis 来说是至关重要的。内存越多,意味着存储的数据也会越多。但是不知道你有没有遇到过这样的情况,明明空间很大,但是内存的使用却不是很理想。


为什么会出现这样的情况呢?这期我们就来看看这个"诡异"的事件。


坐好了,准备发车!


- 思维导图 -




查看内存使用情况


首先想要知道 Redis 内存的使用情况,我们就需要获取相关的信息。


Redis 中查看内存相关信息是很简单的,只需要在命令行输入『info memory』就可以看到各种相关数据。在这里我罗列了一些较为重要的参数:


  • used_memory已经使用了的内存大小。

  • used_memory_rssredis 物理内存的大小。

  • mem_fragmentation_ratio:内存碎片率。


这里有一个内存碎片率的名词需要关注下,它可以用来表示当前的内存使用情况。


具体计算方式: 


对于内存碎片率,一般保持在 1~1.5 之间是最合理的。




什么是内存碎片


了解了内存碎片率,那什么是内存碎片呢?


定义是这样的:由于一块连续空闲的空间比所要申请的空间小,导致这块空间不可用,对于内存整体来说就是内存碎片。


举个例子:


假设有一块 100MB 的连续空闲内存空间,你每次都会从中申请一块 30MB 的内存。那么当你申请了 3 次后,这块内存就只剩下了 10MB 的空间,第 4 次申请的时候就会失败。如果没有其它的空间释放并且每次申请的空间都比 10MB 大,那么剩下的空间对于整块内存来说就是内存碎片。





内存碎片导致的原因


Redis 中,最常用的是写入、修改、删除数据。这些操作在执行后都会产生 一定程度的内存碎片。


写入数据


Redis 中分配内存是根据固定的大小来划分内存空间的。为了减少分配次数,Redis 会根据申请的内存最接近的固定值分配相应大小的空间。


什么意思呢,假如 Redis 按照 8 字节、16 字节、32 字节、48 字节等来分配内存。当你想要存储一个 18 字节的数据时,此时 Redis 就会分配 32 字节(因为 32 是与 18 最接近的固定值)。如果这时候,再写入的数据需要的内存空间在 14 个字节内,那 Redis 就无需再进行分配了。


这就像你有不同的箱子,为了装东西,你需要找一个体积最接近的箱子来装。但是装进去后,你发现还有空间可以放一些小东西,就无需再找箱子了。


但是,这种分配空间的方式会带来一定程度的内存碎片。我们可以把固定大小的划分空间看成不同体积的箱子,每种箱子里的空间不同程度上都会有剩余。这些剩余的空间就是内存碎片。


修改数据


键值对进行修改时,可能会变大也会变小,相应的就会占用额外空间或者释放不用的空间。



如图中所示,当前 A、B、C 分别占用了 3、2、4 个字节,将 A 从 3 字节修改为 2 字节时,此时就会有 1 个字节的空间空了出来,这时就会出现 1 个字节的碎片。



那如果我将数据 A 从 3 字节修改为 4 字节呢?此时为了保持数据 A 的空间连续性,操作系统会把 B 拷贝到别的空间。此时又会出现 1 个字节的碎片。


删除数据


理解了修改数据,删除数据就很容易明白了。还是上边的例子,此时删除了数据 B,那么就释放了 2 个字节的空间。这样对于整个内存空间来说就产生了 2 个字节的碎片。





如何解决内存碎片


你可能会有疑问,内存碎片会有什么危害呢?


我们还是以上边的箱子来表示。你想想,如果你要把这些箱子都装上车运走,每个箱子里都有空出来的空间(内存碎片),那么运行一次的效率及性价比是不是会很低。同样,在 Redis 中,由于大量的碎片存在,会导致实际利用率变低。



那么我们有没有办法来解决内存碎片呢?


推倒重来


第一种方式很简单,直接推倒重来。也就是把 Redis 直接重启完事儿,内存一断电全世界就清净。但是这种暴力省事的方式却有很多隐患。


生产环境中你这么搞的话得提前烧烧香,保佑不会出什么问题。如果你没进行过持久化,那么就别烧了,烧了也没用。如果有持久化的话,那么恢复时长还得取决你持久化文件的大小,在这个阶段还无法提供服务。糟心不?


空间置换


那么有没有不这么刺激的方式。


有的,高版本的 Redis 提供了内存碎片清理的方式。一言以蔽之,就是空间置换。


怎么个置换法?我们的目的是为了消除内存碎片,那么我们把已使用的内存数据重新整理到一起不就行了吗?让不连续的空间变成连续的,剩下的空间,继续来分配。


画个图理解下:



但是,说说还是挺容易的,理论到实践中间还隔着性能损耗。


在进行多次数据拷贝过程中,单线程的 Redis 只能干等着,无法响应客户端的请求。这时候只能干瞪眼,性能太受影响。


凉,那该咋整?!别急,有缓解的策略,你接着往下看。


Redis 中有专门的参数设置用来进行自动清理内存碎片:activedefrag yes

这个命令是启动清理功能的,这还不够,Redis 中还需要其他的条件限制才能够进行清理。


下面参数都是满足任一条件后就可以进行清理:


  • active-defrag-ignore-bytes 100mb

    碎片达到100MB时,开启清理。

  • active-defrag-threshold-lower 10

    当碎片超过 10% 时,开启清理。

  • active-defrag-threshold-upper 100

    内存碎片超过 100%,尽最大清理。


在处理的过程中,为了避免对正常请求的影响,同时又能保证性能。Redis 同时还提供了监控 CPU 占用比例的参数,在满足以下条件时才会保证清理正常开展:


  • active-defrag-cycle-min 5

清理内存碎片占用 CPU 时间的比例不低于此,保证清理能正常开展。

  • active-defrag-cycle-max 75

清理内存碎片占用 CPU 时间的比例不高于此值。一旦超过则停止清理,从而避免在清理时,大量的内存拷贝阻塞 Redis,导致其它请求延迟。




总结


查看内存使用情况


  • 在命令行执行 info memory 即可查看 Redis 内存相关信息。根据内存碎片率可以在一定时机内进行清理碎片清理。


内存碎片导致原因


  • 写入数据时,Redis 为了减少分配次数在分配内存是根据固定的大小来划分内存空间的。修改数据时会释放或占用额外的内存空间,删除数据时会释放空间。这样就会产生不同程度的内存碎片。


如何解决内存碎片


  • 通过重启 Redis 的方式进行处理,如果没有持久化可能会导致事故。在持久化情况下,恢复速度需要取决于文件的大小。

  • 通过空间置换方式,也就是将已使用的内存数据重新整理到一起。




- EOF -


推荐阅读  点击标题可跳转

真神器!不用手写一行代码就能做网站~

原来,我一直都不会用Windows

Python3.10 最新特性值得关注

硬核!15张图解Redis为什么这么快

Python 炫技操作:五种 Python 转义表示法

用 Hypothesis 快速测试你的 Python 代码

6 个例子教你重构 Python 代码

0.052秒打开100GB数据,这个Python库火爆了




得本文对你有帮助?请分享给更多人


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存