本文来自: Segmentfault
感谢作者: CodeKiller
在后端服务开发的过程中, 遇到了这样一个问题: 需要在 MySQL 前面部署 Redis 做一层缓存, 要求 Redis 是集群部署, 并且每台 Redis 节点只缓存总数据量的 1/N, N 为 Redis 的个数.
看到这里大家都能想到到一个方法是使用 hash(key)%N 来选取 Redis 进行 value 的存取, 这种方式当然可以很均匀的将数据分配到 N 个 Redis 服务上, 并且实现起来也非常的简单. 但是使用这种哈希取余的方式有一个很大的问题, 那就是当 Redis 集群扩容或者缩容, 或者发生宕机的时候, 也就是上述公式中的 N 发生变化的时候, 这个时候 hash(key)%N 的值保持不变的概率非常小, 换句话说, 缓存系统会在这种情况下整个失效, 这对于后端的 MySQL 来说瞬时压力会非常大, 很可能造成 MySQL 的奔溃, 进而造成整个服务的不可用.
所以必须想一种办法来应对上述的情况, 即当一台 Redis 服务挂掉的时候, 能不能做到只有 1/N 的缓存失效呢?
答案就是使用一致性哈希算法 CARP, 严格来讲 CARP 并不是一种算法, 而是一种协议, Cache Array Routing Protocol,Cache 群组路由协议. 下面来介绍些下它的工作原理:
首先假设有 N 个 Redis 服务, 分别是 redis1, redis2 .... redisN, key 是想要获取的数据在 Redis 中的键.
第一步, 计算所有的服务名与 key 的哈希值:
- hash_v1 = hash(redis1 + key)
- hash_v2 = hash(redis2 + key)
- ...
- hash_vN = hash(redisN + key)
第二步, 计算值最大的 hash_vX, 那么选中的便是 redisX:
hash_vX = max(hash_v1, hash_v2, ..., hash_vN)
为什么这么做就可以达到增加一台 Redis 服务的时候, 只有 1/(N+1) 的缓存失效呢?
- hash_vX1 = max(hash_v1, hash_v2, ..., hash_vN)
- hash_vX2 = max(hash_v1, hash_v2, ..., hash_vN, hash_vN+1)
看上面两个表达式, 如果要求 hash_vX2 大于 hash_vX1, 那么必须 hash_vN+1 大于前面 N 个哈希值, 那么你选取的 hash 函数足够散列的话, hash_vN+1 大于前面 N 个哈希值的概率为 1/(N+1). 你可以自行算一下减少一台 Redis 服务时, 缓存失效的概率.
最后, 附上 Golang 实现版本:
- package carp
- import (
- "crypto/md5"
- "errors"
- )
- var (
- ErrHaveNoRedis = errors.New("have no redis")
- )
- // 根据 carp 算法, 从 redisArr 的数组中选择合适的 Redis, 返回值为下标
- func GetTargetIndex(key string, redisArr []string) (idx int, err error) {
- if len(redisArr) < 1 {
- return -1, ErrHaveNoTarget
- } else if len(redisArr) == 1 {
- return 0, nil
- }
- hashArr := make([]string, len(redisArr))
- for k, v := range redisArr {
- hashArr[k] = hashString(v + key)
- }
- idx = minIdx(hashArr)
- return
- }
- // 返回 arr 数组中最小值的下标
- func minIdx(arr []string) (idx int) {
- if len(arr) < 1 {
- return -1
- }
- idx, min := 0, arr[0]
- for k, v := range arr {
- if v < min {
- idx = k
- min = v
- }
- }
- return
- }
- func hashString(str string) (hash string) {
- md5sum := md5.Sum([]byte(str))
- return string(md5sum[:])
- }
上面的代码中使用了 md5 的哈希算法, 如果你对性能有更高的要求可以使用 FNV 哈希算法.
来源: http://www.bubuko.com/infodetail-3386796.html