UP | HOME

字典

Table of Contents

字典 dictionary , 又名 映射 map关联数组 associative array , 是一种抽象数据结构, 由一组 键值对 key-value pairs 组成, 各个键值对的键各不相同, 程序可以 添加 新的键值对到字典中, 或者基于键进行 查找更新删除 等操作

接下来先对字典在 Redis 中的应用进行介绍

接着讲解字典的具体实现方式, 以及这个字典实现要解决的问题

最后, 以对字典迭代器的介绍作为结束

应用

字典在 Redis 中的应用广泛, 使用频率可以说和 SDS 以及双端链表不相上下, 基本上各个功能模块都有用到字典的地方。其中, 字典的主要用途有以下两个:

  • 实现 数据库键空间 key space
  • 用作 Hash 类型键 的底层实现之一

实现数据库键空间

Redis 是一个键值对数据库, 数据库中的 键值对字典 保存: 每个数据库都有一个对应的字典, 这个字典被称之为 键空间 key space

  • 当用户添加一个键值对到数据库时(不论键值对是什么类型), 程序就将该键值对添加到键空间
  • 当用户从数据库中删除键值对时, 程序就会将这个键值对从键空间中删除

举个例子,执行 FLUSHDB 可以清空键空间里的所有键值对数据:

redis> FLUSHDB
OK

执行 DBSIZE 则返回键空间里现有的键值对:

redis> DBSIZE
(integer) 0
后面章节会对键空间以及数据库的实现作详细的介绍

大部分针对数据库的命令, 比如 DBSIZE 、 FLUSHDB 、 RANDOMKEY , 等等, 都是构建于对字典的操作之上的

而那些创建、更新、删除和查找键值对的命令, 也无一例外地需要在键空间上进行操作

Hash 类型键的底层实现之一

Redis 的 Hash 类型键使用以下两种数据结构作为底层实现:

  • 字典
  • 压缩列表

    因为压缩列表比字典更节省内存, 所以程序在创建新 Hash 键时, 默认使用压缩列表作为底层实现
    
    当有需要时, 程序才会将底层实现从压缩列表转换到字典
    

当用户操作一个 Hash 键时, 键值在底层就可能是一个哈希表:

redis> HSET book name "The design and implementation of Redis"
(integer) 1

redis> HSET book type "source code analysis"
(integer) 1

redis> HSET book release-date "2013.3.8"
(integer) 1

redis> HGETALL book
1) "name"
2) "The design and implementation of Redis"
3) "type"
4) "source code analysis"
5) "release-date"
6) "2013.3.8"
以后《哈希表》章节给出了关于哈希类型键的更多信息, 并介绍了压缩列表和字典之间的转换条件

实现

实现字典的方法有很多种:

  • 最简单的就是使用 链表数组 ,但是这种方式只适用于 元素个数不多 的情况下:
  • 兼顾高效和简单性 ,可以使用 哈希表
  • 如果追求更为稳定的性能特征,并希望 高效地实现排序 操作的话,则可使用更为复杂的 平衡树
在众多可能的实现中, Redis 选择了高效、实现简单的哈希表,作为字典的底层实现

dict.h/dict 给出了这个字典的定义:

/*
 * 字典
 *
 * 每个字典使用两个哈希表,用于实现渐进式 rehash
 */
typedef struct dict {
    dictType *type; // 特定于类型的处理函数
    void *privdata; // 类型处理函数的私有数据
    dictht ht[2]; // 哈希表(2 个)
    int rehashidx; // 记录 rehash 进度的标志,值为 -1 表示 rehash 未进行
    int iterators; // 当前正在运作的安全迭代器数量
} dict;

以下是用于处理 dict 类型的 API , 它们的作用及相应的算法复杂度:

Table 1: dict API
操作 函数 算法复杂度
创建一个新字典 dictCreate \(O\)(1)
添加新键值对到字典 dictAdd \(O\)(1)
添加或更新给定键的值 dictReplace \(O\)(1)
在字典中查找给定键所在的节点 dictFind \(O\)(1)
在字典中查找给定键的值 dictFetchValue \(O\)(1)
从字典中随机返回一个节点 dictGetRandomKey \(O\)(1)
根据给定键,删除字典中的键值对 dictDelete \(O\)(1)
清空并释放字典 dictRelease \(O\)(N)
清空并重置(但不释放)字典 dictEmpty \(O\)(N)
缩小字典 dictResize \(O\)(N)
扩大字典 dictExpand \(O\)(N)
对字典进行给定步数的 rehash dictRehash \(O\)(N)
在给定毫秒内,对字典进行rehash dictRehashMilliseconds \(O\)(N)

注意 dict 类型使用了两个指针,分别指向两个 哈希表 。其中:

  • 0 号哈希表 ht[0] 是字典主要使用的哈希表
  • 1 号哈希表 ht[1] 则只有在程序对 0 号哈希表进行 rehash 时才使用。
接下来两个小节将对哈希表的实现,以及哈希表所使用的哈希算法进行介绍

哈希表实现

字典所使用的哈希表实现由 dict.h/dictht 类型定义:

/*
 * 哈希表
 */
typedef struct dictht {
    dictEntry **table; // 哈希表节点指针数组(俗称桶,bucket)
    unsigned long size; // 指针数组的大小
    unsigned long sizemask; // 指针数组的长度掩码,用于计算索引值
    unsigned long used; // 哈希表现有的节点数量
} dictht;

table 属性是个数组, 数组的每个元素都是个指向 dictEntry 结构指针 。每个 dictEntry 都保存着一个 键值对 , 以及一个指向 另一个 dictEntry 结构指针

/*
 * 哈希表节点
 */
typedef struct dictEntry {
    void *key; // 

    union {
        void *val;
        uint64_t u64;
        int64_t s64;
    } v; // 

    struct dictEntry *next; // 链往后继节点
} dictEntry;

next 属性指向另一个 dictEntry 结构, 多个 dictEntry 可以通过 next 指针串连成链表, 从这里可以看出, dictht 使用 链地址法 来处理键碰撞: 当多个不同的键拥有相同的哈希值时,哈希表用一个链表将这些键连接起来。下图展示了一个由 dictht 和数个 dictEntry 组成的哈希表例子:

graphviz-c720caba6b4d02c54fe310c148f0d56316ee80a2.svg

如果再加上之前列出的 dict 类型,那么整个字典结构可以表示如下:

graphviz-6989792733a041b23cdc0b8f126434590c50a4e4.svg

在上图的字典示例中, 字典虽然创建了两个哈希表, 但正在使用的只有 0 号哈希表, 这说明字典未进行 rehash 状态

哈希算法

Redis 目前使用两种不同的哈希算法:

  • MurmurHash2 32 bit 算法:这种算法的分布率和速度都非常好

    具体信息请参考 MurmurHash 的主页: http://code.google.com/p/smhasher/ 
    
  • 基于 djb 算法 实现的一个大小写无关散列算法

    具体信息请参考 http://www.cse.yorku.ca/~oz/hash.html 
    

使用哪种算法取决于具体应用所处理的数据:

  • 命令表以及 Lua 脚本缓存都用到了算法 2
  • 算法 1 的应用则更加广泛:数据库、集群、哈希键、阻塞操作等功能都用到了这个算法

创建新字典

dictCreate 函数创建并返回一个新字典:

dict *d = dictCreate(&hash_type, NULL);

d 的值可以用图片表示如下:

graphviz-ce90f2a0f396c0ab66b48c0eb83f18fa8f4754f0.svg

新创建的两个哈希表都没有为 table 属性 分配任何空间:

  • ht[0]->table 的空间分配将在 第一次 往字典 添加键值对 时进行
  • ht[1]->table 的空间分配将在 rehash 开始时进行

添加键值对到字典

根据字典所处的状态, 将给定的键值对添加到字典可能会引起一系列复杂的操作:

  • 如果字典为未初始化(即字典的 0 号哈希表的 table 属性为空),则程序需要对 0 号哈希表进行 初始化
  • 如果在插入时发生了键碰撞,则程序需要处理 碰撞
  • 如果插入新元素,使得字典满足了 rehash 条件,则需要启动相应的 rehash 程序

当程序处理完以上三种情况之后,新的键值对才会被真正地添加到字典上。整个添加流程可以用下图表示:

graphviz-68f4129c529e0c49d38cfe664cad48af4412770a.svg

接下来将分别看到,添加操作如何在以下三种情况中执行:

  1. 字典为空
  2. 添加新键值对时发生碰撞处理
  3. 添加新键值对时触发了 rehash 操作

添加新元素到空白字典

当第一次往空字典里添加键值对时, 程序会根据 dict.h/DICT_HT_INITIAL_SIZE 里指定的大小为 d->ht[0]->table 分配空间

在目前的版本中, DICT_HT_INITIAL_SIZE 的值为 4 

以下是字典空白时的样子:

graphviz-ce90f2a0f396c0ab66b48c0eb83f18fa8f4754f0.svg

以下是往空白字典添加了第一个键值对之后的样子:

graphviz-5db645431193228424095abdcf1a3270c9da385e.svg

添加新键值对时发生碰撞处理

在哈希表实现中, 当两个不同的键拥有相同的哈希值时, 称这两个键发生 碰撞 collision

哈希表实现必须想办法对碰撞进行处理

字典哈希表所使用的碰撞解决方法被称之为 链地址法 : 这种方法使用 链表 将多个哈希值相同的节点串连在一起, 从而解决冲突问题。假设现在有一个带有三个节点的哈希表,如下图:

graphviz-551247f8f670dc6b0eb2dbd6406aee607068249c.svg

对于一个新的键值对 key4value4 , 如果 key4 的哈希值和 key1 的哈希值相同, 那么它们将在哈希表的 0 号索引上发生碰撞。通过将 key4-value4key1-value1 两个键值对用链表连接起来, 就可以解决碰撞的问题:

graphviz-f351812afbaf4b7c29731b38d17dc4a24f902069.svg

添加新键值对时触发了 rehash 操作

对于使用链地址法来解决碰撞问题的哈希表 dictht 来说, 哈希表的性能取决于 大小 size属性保存节点数量 used属性 之间的 比率

  • 哈希表的大小与节点数量,比率在 1:1 时,哈希表的 性能最好
  • 如果 节点数量比哈希表的大小要大很多 的话,那么哈希表就会退化成 多个链表 ,哈希表本身的性能优势便不复存在;

举个例子, 下面这个哈希表, 平均每次失败查找只需要访问 1 个节点(非空节点访问 2 次,空节点访问 1 次):

graphviz-ff857f0c77749cd0213041b561bac0a6348f78e5.svg

而下面这个哈希表, 平均每次失败查找需要访问 5 个节点:

graphviz-cbec5e98bba611d3021b57f5417b93538328af42.svg

为了在字典的键值对不断增多的情况下保持良好的性能, 字典需要对所使用的哈希表(ht[0])进行 rehash 操作

在不修改任何键值对的情况下,对哈希表进行扩容, 尽量将比率维持在 1:1 左右

dictAdd 在每次向字典添加新键值对之前, 都会对哈希表 ht[0] 进行检查, 对于 ht[0] 的 size 和 used 属性, 如果它们之间的比率 \(ratio = used / size\) 满足以下任何一个条件的话, rehash 过程就会被 激活

  1. 自然 rehash : \(ratio >= 1 ,且变量 \text{dict_can_resize} 为真\)
  2. 强制 rehash : \(ratio 大于变量 \text{dict_force_resize_ratio}\)

    目前版本中, dict_force_resize_ratio 的值为 5 
    
什么时候 dict_can_resize 会为假?

当 Redis 使用子进程对数据库执行后台持久化任务时(比如执行 BGSAVE 或 BGREWRITEAOF 时)

为了最大化地利用系统的 copy on write 机制, 程序会暂时将 dict_can_resize 设为假

避免执行自然 rehash , 从而减少程序对内存的触碰。当持久化任务完成之后, dict_can_resize 会重新被设为真

另一方面, 当字典满足了强制 rehash 的条件时, 即使 dict_can_resize 不为真(有 BGSAVE 或 BGREWRITEAOF 正在执行), 这个字典一样会被 rehash 

Rehash 操作

字典的 rehash 操作实际上就是执行以下任务:

  1. 创建 一个比 ht[0]->table 更大的 ht[1]->table
  2. ht[0]->table 中的所有键值对 迁移ht[1]->table
  3. 将原有 ht[0] 的数据 清空 , 并将 ht[1] 替换 为新的 ht[0] ;

经过以上步骤之后, 程序就在不改变原有键值对数据的基础上, 增大了哈希表的大小

Rehash 过程

作为例子, 以下四个小节展示了一次对哈希表进行 rehash 的完整过程

开始 rehash

这个阶段有两个事情要做:

  1. 设置字典的 rehashidx 为 0 , 标识着 rehash 的开始
  2. ht[1]->table 分配空间 ,大小至少为 ht[0]->used 的两倍

graphviz-8af45a72833893e88a305ccd461561b9b00a8816.svg

Rehash 进行中

在这个阶段, ht[0]->table 的节点会被 逐渐迁移 到 ht[1]->table , 因为 rehash 是分多次进行的, 字典的 rehashidx 变量会 记录 rehash 进行到 ht[0] 的哪个索引位置 上。以下是 rehashidx 值为 2 时,字典的样子:

graphviz-8c861670330ef855a2e053e280506d6744e1e5d4.svg

注意:除了节点的移动外, 字典的 rehashidxht[0]->usedht[1]->used 三个属性也产生了变化

节点迁移完毕

到了这个阶段,所有的节点都已经从 ht[0] 迁移到 ht[1] 了:

graphviz-15aedc410b921c8a0fd3183c5141b7d1f1ed6eed.svg

Rehash 完毕

在 rehash 的最后阶段,程序会执行以下工作:

  1. 释放 ht[0] 的空间
  2. ht[1]代替 ht[0] ,使原来的 ht[1] 成为新的 ht[0]
  3. 创建 一个新的空哈希表,并将它 设置ht[1]
  4. 将字典的 rehashidx 属性 设置-1 ,标识 rehash 已停止

以下是字典 rehash 完毕之后的样子:

graphviz-6d5b0f4115d30fac37af21f3834b5554d8824923.svg

对比字典 rehash 前后, 新的 ht[0] 空间更大, 并且字典原有的键值对也没有被修改或者删除

渐进式Rehash

rehash 程序并不是在激活之后,就马上执行直到完成的, 而是分多次、渐进式地完成的

假设这样一个场景:在一个有很多键值对的字典里, 某个用户在添加新键值对时触发了 rehash 过程,

如果这个 rehash 过程必须将所有键值对迁移完毕之后才将结果返回给用户, 这样的处理方式将是非常不友好的

另一方面, 要求服务器必须阻塞直到 rehash 完成, 这对于 Redis 服务器本身也是不能接受的

为了解决这个问题, Redis 使用了 渐进式 incremental 的 rehash 方式: 通过将 rehash 分散到多个步骤中进行, 从而避免了集中式的计算。渐进式 rehash 主要由 _dictRehashStepdictRehashMilliseconds 两个函数进行:

  • __dictRehashStep_ 用于对 数据库字典 、以及 哈希键的字典 进行 被动 rehash
  • dictRehashMilliseconds 则由 Redis 服务器常规任务程序 server cron job 执行,用于对 数据库字典 进行 主动 rehash

_dictRehashStep

每次执行 _dictRehashStep_ht[0]->table 哈希表 第一个不为空的索引 上的 所有节点 就会 全部迁移ht[1]->table 。在 rehash 开始进行之后 rehashidx 不为 -1 , 每次执行一次 添加查找删除 操作, _dictRehashStep 都会被执行一次

graphviz-121adbc9859ad43720ccb8d4d91bf28062af3256.svg

因为字典会保持哈希表大小和节点数的比率在一个很小的范围内, 所以每个索引上的节点数量不会很多

从目前版本的 rehash 条件来看,平均只有一个,最多通常也不会超过五个

所以在执行操作的同时,对单个索引上的节点进行迁移, 几乎不会对响应时间造成影响

dictRehashMilliseconds

dictRehashMilliseconds 可以在指定的毫秒数内, 对字典进行 rehash

当 Redis 的服务器常规任务执行时, dictRehashMilliseconds 会被执行

在规定的时间内, 尽可能地对数据库字典中那些需要 rehash 的字典进行 rehash , 从而加速数据库字典的 rehash 进程(progress)

其他措施

在哈希表进行 rehash 时, 字典还会采取一些特别的措施, 确保 rehash 顺利、正确地进行:

  • 因为在 rehash 时,字典会同时使用两个哈希表,所以在这期间的所有 查找删除 等操作,除了在 ht[0] 上进行,还需要在 ht[1] 上进行
  • 在执行添加操作时,新的节点会 直接添加ht[1] 而不是 ht[0] ,这样保证 ht[0] 的节点数量在整个 rehash 过程中都只减不增

字典的收缩

上面描述了通过 rehash 对字典进行扩展(expand)的情况,

如果哈希表的可用节点数比已用节点数大很多的话, 那么也可以通过对哈希表进行 rehash 来收缩(shrink)字典

收缩 rehash 和上面展示的扩展 rehash 的操作几乎一样,执行以下步骤:

  1. 创建一个比 ht[0]->table 小的 ht[1]->table
  2. 将 ht[0]->table 中的所有键值对迁移到 ht[1]->table
  3. 将原有 ht[0] 的数据清空,并将 ht[1] 替换为新的 ht[0]

扩展 rehash 和收缩 rehash 执行完全相同的过程, 一个 rehash 是扩展还是收缩字典, 关键在于新分配的 ht[1]->table 的大小

  • 如果 rehash 是 扩展 操作,那么 ht[1]->table 比 ht[0]->table 要
  • 如果 rehash 是 收缩 操作,那么 ht[1]->table 比 ht[0]->table 要

字典的收缩规则由 redis.c/htNeedsResize 函数定义:

/*
 * 检查字典的使用率是否低于系统允许的最小比率
 *
 * 是的话返回 1 ,否则返回 0 。
 */
int htNeedsResize(dict *dict) {
    long long size, used;

    // 哈希表大小
    size = dictSlots(dict);

    // 哈希表已用节点数量
    used = dictSize(dict);

    // 当哈希表的大小大于 DICT_HT_INITIAL_SIZE
    // 并且字典的填充率低于 REDIS_HT_MINFILL 时
    // 返回 1
    return (size && used && size > DICT_HT_INITIAL_SIZE &&
        (used*100/size < REDIS_HT_MINFILL));
}

在默认情况下, REDIS_HT_MINFILL 的值为 10 , 也即是说, 当字典的 填充率低于 10% 时, 程序就可以对这个字典进行 收缩 操作了

字典收缩和字典扩展的一个区别是:

  • 字典的扩展操作是 自动 触发的(不管是自动扩展还是强制扩展)
  • 而字典的收缩操作则是由程序 手动 执行

因此, 使用字典的程序可以决定何时对字典进行收缩:

  • 当字典用于实现哈希键的时候, 每次从字典中 删除 一个键值对, 程序就会执行一次 htNeedsResize 函数, 如果字典达到了收缩的标准, 程序将立即对字典进行收缩
  • 当字典用于实现数据库键空间 key space 的时候, 收缩的时机由 redis.c/tryResizeHashTables 函数决定

其他操作

除了 添加 操作和 伸展/收缩 操作之外, 字典还定义了一些其他操作, 比如常见的查找、删除和更新。

因为链地址法哈希表实现的相关信息可以从任何一本数据结构或算法书上找到, 这里不再对字典的其他操作进行介绍

不过前面对创建字典、添加键值对、收缩和扩展 rehash 的讨论已经涵盖了字典模块的核心内容

迭代

字典带有自己的 迭代器 实现。对字典进行迭代实际上就是对字典所使用的哈希表进行迭代:

  • 迭代器首先迭代字典的第一个哈希表,然后,如果 rehash 正在进行的话,就继续对第二个哈希表进行迭代
    • 当迭代哈希表时,找到第一个不为空的索引,然后迭代这个索引上的所有节点
    • 当这个索引迭代完了,继续查找下一个不为空的索引,如此反覆,直到整个哈希表都迭代完为止

整个迭代过程可以用伪代码表示如下:

def iter_dict(dict):
    iter_table(ht[0]->table) # 迭代 0 号哈希表
    if dict.is_rehashing(): iter_table(ht[1]->table) # 如果正在执行 rehash ,那么也迭代 1 号哈希表


def iter_table(table):
    for index in table: # 遍历哈希表上的所有索引
        if table[index].empty(): # 跳过空索引
            continue
        for node in table[index]: # 遍历索引上的所有节点
            do_something_with(node) # 处理节点

字典的迭代器有两种:

  1. 安全迭代器:在迭代进行过程中,可以对字典进行修改
  2. 不安全迭代器:在迭代进行过程中,不对字典进行修改

以下是迭代器的数据结构定义:

/*
 * 字典迭代器
 */
typedef struct dictIterator {
    dict *d;                // 正在迭代的字典

    int table,              // 正在迭代的哈希表的号码(0 或者 1)
        index,              // 正在迭代的哈希表数组的索引
        safe;               // 是否安全?

    dictEntry *entry,       // 当前哈希节点
        *nextEntry;   // 当前哈希节点的后继节点

} dictIterator;

以下函数是这个迭代器的 API ,API 的作用及相关算法复杂度:

Table 2: dict iterator
操作 函数 算法复杂度
创建一个不安全迭代器 dictGetIterator \(O\)(1)
创建一个安全迭代器 dictGetSafeIterator \(O\)(1)
返回迭代器指向的当前节点,如果迭代完毕,返回 NULL dictNext \(O\)(1)
释放迭代器 dictReleaseIterator \(O\)(1)

总结

  • 字典是由键值对构成的抽象数据结构
  • Redis 中的数据库和哈希键都基于字典来实现
  • Redis 字典的底层实现为哈希表,每个字典使用两个哈希表,一般情况下只使用 0 号哈希表,只有在 rehash 进行时,才会同时使用 0 号和 1 号哈希表
  • 哈希表使用链地址法来解决键冲突的问题
  • Rehash 可以用于扩展或收缩哈希表
  • 对哈希表的 rehash 是分多次、渐进式地进行的

Next:跳跃表 Previous:双端列表 Home: 内部数据结构