字典
字典,即键值对的抽象数据结构。
由于 Redis 使用的 C 语言没有内置这种数据结构,因此 Redis 构建了自己的字典实现,和其它高级编程语言特性一样,字典中的每个键都是独一无二的。
字典在 Redis 中的应用相当广泛,比如 Redis 的数据库就是使用字典来作为底层实现的。
除此之外,字典还是哈希键的底层实现之一,当一个哈希键包含的键值对比较多,又或者键值对中的元素都比较长的字符串时,Redis 就会使用字典作为哈希键的底层实现。
字典的实现
Redis 的字典使用哈希表作为底层实现,一个哈希表里面可以有多个哈希表节点,而每个哈希表节点就保存了字典中的一个键值对。
哈希表
typedef struct dictht {
dictEntity **table;
unsigned long size;
unsigned long sizemask;
unsigned long used;
}
table
: 是一个数组,数组中的每个元素都是一个指向dictEntity
结构的指针,每个dictEntity
结构保存着一个键值对。size
: 记录了哈希表的大小,即table
数组的大小sizemask
: 哈希表大小掩码,用于计算索引值,总是等于size
- 1,这个属性和哈希值一起决定一个键应该被放到table
数组的哪个索引上面used
: 记录了哈希表目前已有节点(键值对)的数量
哈希表节点
typedef struct dictEntity {
void *key;
union {
void *val;
uint64_t u64;
int64_t s64;
} v;
struct dictEntity *next;
} dictEntity;
key
: 保存着键值对中的键v
: 保存着键值对中的值,其中键值对的值可以是一个指针,或者是一个uint64_t
整数,又或者是一个int64_t
属性next
: 指向另一个哈希表节点的指针,这个指针可以将多个哈希值相同的键值对连接在一起,以此来解决键冲突的问题
字典
typedef struct dict {
dictType *type;
void *privdata;
dictht ht[2];
int trehashidx;
} dict;
type
: 属性是一个指向dictType
结构的指针,每个dictType
结构保存了一簇用于操作特定类型键值对的函数,Redis 会为用途不同的字典设置不同的类型特定函数typedef struct dictType { // 计算哈希值的函数 unsigned int (*hashFunction) (const void *key); // 复制键的函数 void *(*keyDup) (void *privdata, const void *key); // 复制值的函数 void *(*valDup) (void *privdata, const void *obj); // 对比键的函数 int (*keyCompare) (void *privdata, const void *key1, const void *key2); // 销毁键的函数 void (*keyDestructor) (void *privdata, void *key); // 销毁值的函数 void (*valDestructor) (void *privdata, void *obj); } dictType;
privdata
: 保存了需要传给那些类型特定函数的可选参数h2
: 是一个包含两个项的数组,数组中的每个项都是一个哈希表,一般情况下,字典只使用ht[0]
哈希表,h[1]
哈希表只会在对h[0]
哈希表进行rehash
时使用trehashidx
: 记录了rehash
目前的进度,当 rehash 不在进行时,值为 -1
哈希算法
当要将一个新的键值对添加到字典里面时,程序需要先根据键值对的键计算出哈希值和索引值,然后再根据索引值,将包含新键值对的哈希表节点放到哈希数组的指定索引上面。
Redis 分别使用 hashFunction
来计算哈希值,使用哈希表的 sizemask
和哈希值, 来计算索引值。
当字典被用作数据库的底层实现,或者哈希键的底层实现时,Redis 使用 MurmurHash
算法来计算键的哈希值。
MurmurHash
算法的优点在于,即使输入的键是有规律的,算法仍能给出一个很好的随机分布性,并且算法的计算速度也非常快。
解决键冲突
当有两个或以上数量的键被分配到了哈希表数组的同一索引上面时,称为键发生了冲突。
Redis 的哈希表使用链地址法来解决键冲突,每个哈希表节点都有一个 next
指针,多个哈希表节点可以用 next
指针构成一个单向链表,被分配到同一个索引上的多个节点可以用这个单向链表连接起来,这就解决了键冲突的问题。
因为哈希表节点(dictEntity
)组成的链表没有指向链表表尾的指针,所以为了速度考虑,程序总是将新节点添加到链表的表头位置(时间复杂度为O(1))。
rehash
随着操作的不断执行,哈希表保存的键值对会逐渐地增多或者减少,为了让哈希表的负载因子(load factor)维持在一个合理的范围之内,当哈希表保存的键值对数量太多或者太少时,程序需要对哈希表的大小进行相应的扩展或者收缩。
扩展和收缩哈希表的工作可以通过执行 rehash
(重新散列)操作来完成,步骤如下:
为字典的
ht[1]
哈希表分配空间,这个哈希表的空间大小取决于要执行的操作,以及ht[0]
当前包含的键值对数量,即ht[0].used
属性的值。- 如果执行的是扩展操作,那么
ht[1]
的大小为第一个大于等于ht[0].used * 2
的 2n - 如果执行的是收缩操作,那么
ht[1]
的大小为第一个大于等于ht[0].used
的 2n
- 如果执行的是扩展操作,那么
- 将保存在
ht[0]
中的所有键值对rehash
到ht[1]
上面,具体操作是重新计算键的哈希值和索引值,然后将键值对放置到ht[1]
哈希表的指定位置上 - 当
ht[0]
包含的所有键值对都迁移到了ht[1]
之后(此时ht[0]
变为空表),释放ht[0]
,将ht[1]
设置为ht[0]
,并在ht[1]
新创建一个空白哈希表,为下一次rehash
做准备
rehash 的时机
当以下条件中的任意一个被满足时,程序会自动开始对哈希表进行扩展操作
- 服务器目前没有在执行
BGSAVE
命令或者BGREWRITEAOF
命令,并且哈希表的负载因子大于等于1 - 服务器目前正在执行
BGSAVE
命令或者BGREWRITEAOF
命令,并且哈希表的负载因子大于等于 5
当哈希表的负载因子小于 0.1 时,程序自动开始对哈希表执行收缩操作。
其中,哈希表的负载因子可以通过公式:
load_factor = ht[0].used / ht[0].size
即:负载因子 = 哈希表已保存节点数量 / 哈希表大小
根据BGSAVE
或BGREWRITEAOF
命令是否在执行,而采用不同的负载因子,这时因为在执行BGSAVE
或BGREWRITEAOF
命令的过程中,Redis 需要创建当前服务器进行的子进程,而大多数操作系统都采用写时复制技术来优化子进程的使用效率,所以在子进程存在期间,服务器会提高执行拓展操作所需的负载因子,从而尽可能地避免在子进程存在期间进行哈希表拓展操作,者可以避免不必要的内存写入,最大限度地节约内存。
渐进式 rehash
在进行 rehash
操作时,需要将 ht[0]
所有键值对 rehash
到 ht[1]
里面,如果 ht[0]
里面保存了特别多的键值对时,这个操作可能会导致服务器在一段时间内停止服务。
所以,为了解决这个问题,Redis 采用分多次、渐进式地完成 rehash
操作
以下是哈希表渐进式 rehash
的详细步骤:
- 为
ht[1]
分配空间,让字典同时持有ht[0]
和ht[1]
两个哈希表; - 在字典中维持一个索引计数器变量
rehashidx
,并将它的值设置为 0,表示rehash
工作正式开始; - 在
rehash
进行时,每次对字典进行添加、删除、查找或者更新操作时,程序除了执行指定的操作以外,还会顺带将ht[0]
哈希表在rehashidx
索引上的所有键值对rehash
到ht[1]
,当rehash
工作完成之后,程序将rehashidx
属性的值增一; - 随着字典操作的不断执行,最终在某个时间点上,
ht[0]
的所有键值对都会被rehash
到ht[1]
,这时程序将rehashidx
属性的值设为 -1,表示rehash
操作已完成。
渐进式 rehash 的好处在于它采取分而治之的方式,将 rehash
键值对所需的计算工作均摊到对字典的每个添加、删除、查找和更新操作上,从而避免了集中式 rehash
而带来的庞大计算量
同时,也会带来一个问题,如何确定要操作的值在 ht[0]
和 ht[1]
?
Redis 在删除、查找、更新等操作时,会先在 ht[0]
里面进行查找,如果没有找到,会再到 ht[1]
中进行查找;在新增操作时,一律被保存到 ht[1]
里面。这样是,即保证了 ht[0]
包含的键值对数量会只减不增,并随着 rehash
操作的执行而最终变成空表
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。