评论

收藏

[Linux] Redis 如何处理大 Key

服务系统 服务系统 发布于:2022-08-26 13:49 | 阅读数:321 | 评论:0

导读释放内存只是第一步,为了更加高效地管理内存空间,在应用程序释放内存时,操作系统需要把释放掉的内存块插入一个空闲内存块的链表,以便后续进行管理和再分配。这个过程本身需要一定时间,而且会阻塞当前释放内存的应用程序。今天来聊聊,关于 Redis 大 key 的四个问题。

  • 什么是 Redis 大 key?
  • 大 key 会造成什么问题?
  • 如何找到大 key ?
  • 如何删除大 key?什么是 Redis 大 key?
    大 key 并不是指 key 的值很大,而是 key 对应的 value 很大。
    一般而言,下面这两种情况被称为大 key:
    String 类型的值大于 10 KB;
    Hash、List、Set、ZSet 类型的元素的个数超过 5000个;
    大 key 会造成什么问题?
    大 key 会带来以下四种影响:
    客户端超时阻塞。由于 Redis 执行是单线程处理,然后在操作大 key 时会比较耗时,那么就会阻塞 Redis,从客户端这一视角看,就是很久很久都没有响应。
    引发网络阻塞。每次获取大 key 产生的网络流量较大,如果一个 key 的大小是 1 MB,每秒访问量为 1000,那么每秒会产生 1000MB 的流量,这对于普通千兆网卡的服务器来说是灾难性的。
    阻塞工作线程。如果使用 del 删除大 key 时,会阻塞工作线程,这样就没办法处理后续的。
    内存分布不均。集群模型在 slot 分片均匀情况下,会出现数据和查询倾斜情况,部分有大 key 的 Redis 节点占用内存多,QPS 也会比较大。
    如何找到大 key ?
    redis-cli --bigkeys 查找大key
    可以通过 redis-cli --bigkeys 命令查找大 key:
    redis-cli -h 127.0.0.1 -p6379 -a "password" -- bigkeys
    使用的时候注意事项:
  • 最好选择在从节点上执行该命令。因为主节点上执行时,会阻塞主节点;
  • 如果没有从节点,那么可以选择在 Redis 实例业务压力的低峰阶段进行扫描查询,以免影响到实例的正常运行;或者可以使用 -i 参数控制扫描间隔,避免长时间扫描降低 Redis 实例的性能。该方式的不足之处:
  • 这个方法只能返回每种类型中最大的那个 bigkey,无法得到大小排在前 N 位的 bigkey;
  • 对于集合类型来说,这个方法只统计集合元素个数的多少,而不是实际占用的内存量。但是,一个集合中的元素个数多,并不一定占用的内存就多。因为,有可能每个元素占用的内存很小,这样的话,即使元素个数有很多,总内存开销也不大;使用 SCAN 命令查找大 key
    使用 SCAN 命令对数据库扫描,然后用 TYPE 命令获取返回的每一个 key 的类型。
    对于 String 类型,可以直接使用 STRLEN 命令获取字符串的长度,也就是占用的内存空间字节数。
    对于集合类型来说,有两种方法可以获得它占用的内存大小:
  • 如果能够预先从业务层知道集合元素的平均大小,那么,可以使用下面的命令获取集合元素的个数,然后乘以集合元素的平均大小,这样就能获得集合占用的内存大小了。List 类型:LLEN 命令;Hash 类型:HLEN 命令;Set 类型:SCARD 命令;Sorted Set 类型:ZCARD 命令;
  • 如果不能提前知道写入集合的元素大小,可以使用MEMORY USAGE 命令(需要 Redis 4.0 及以上版本),查询一个键值对占用的内存空间。使用 RdbTools 工具查找大 key
    使用 RdbTools 第三方开源工具,可以用来解析 Redis 快照(RDB)文件,找到其中的大 key。
    比如,下面这条命令,将大于 10 kb 的 key 输出到一个表格文件。
    rdb dump.rdb -c memory --bytes 10240 -f redis.csv
    如何删除大 key?
    删除操作的本质是要释放键值对占用的内存空间,不要小瞧内存的释放过程。
    释放内存只是第一步,为了更加高效地管理内存空间,在应用程序释放内存时,操作系统需要把释放掉的内存块插入一个空闲内存块的链表,以便后续进行管理和再分配。这个过程本身需要一定时间,而且会阻塞当前释放内存的应用程序。
    所以,如果一下子释放了大量内存,空闲内存块链表操作时间就会增加,相应地就会造成 Redis 主线程的阻塞,如果主线程发生了阻塞,其他所有请求可能都会超时,超时越来越多,会造成 Redis 连接耗尽,产生各种异常。
    因此,删除大 key 这一个动作,我们要小心。具体要怎么做呢?这里给出两种方法:
  • 分批次删除
  • 异步删除(Redis 4.0版本以上)分批次删除
    对于删除大 Hash,使用 hscan 命令,每次获取 100 个字段,再用 hdel 命令,每次删除 1 个字段。
    Python代码:
    def del_large_hash():
      r = redis.StrictRedis(host='redis-host1', port=6379)
      large_hash_key ="xxx" #要删除的大hash键名
      cursor = '0'
      while cursor != 0:
        # 使用 hscan 命令,每次获取 100 个字段
        cursor, data = r.hscan(large_hash_key, cursor=cursor, count=100)
        for item in data.items():
            # 再用 hdel 命令,每次删除1个字段
            r.hdel(large_hash_key, item[0])
    对于删除大 List,通过 ltrim 命令,每次删除少量元素。
    Python代码:
    def del_large_list():
      r = redis.StrictRedis(host='redis-host1', port=6379)
      large_list_key = 'xxx'  #要删除的大list的键名
      while r.llen(large_list_key)>0:
        #每次只删除最右100个元素
        r.ltrim(large_list_key, 0, -101)
    对于删除大 Set,使用 sscan 命令,每次扫描集合中 100 个元素,再用 srem 命令每次删除一个键。
    Python代码:
    def del_large_set():
      r = redis.StrictRedis(host='redis-host1', port=6379)
      large_set_key = 'xxx'   # 要删除的大set的键名
      cursor = '0'
      while cursor != 0:
      # 使用 sscan 命令,每次扫描集合中 100 个元素
      cursor, data = r.sscan(large_set_key, cursor=cursor, count=100)
      for item in data:
        # 再用 srem 命令每次删除一个键
        r.srem(large_size_key, item)
    对于删除大 ZSet,使用 zremrangebyrank 命令,每次删除 top 100个元素。
    Python代码:
    def del_large_sortedset():
      r = redis.StrictRedis(host='large_sortedset_key', port=6379)
      large_sortedset_key='xxx'
      while r.zcard(large_sortedset_key)>0:
      # 使用 zremrangebyrank 命令,每次删除 top 100个元素
      r.zremrangebyrank(large_sortedset_key,0,99)
    异步删除
    从 Redis 4.0 版本开始,可以采用异步删除法,用 unlink 命令代替 del 来删除。
    这样 Redis 会将这个 key 放入到一个异步线程中进行删除,这样不会阻塞主线程。
    原文来自: