浅析一致性哈希算法

作者: 秋慕云 | 来源:发表于2018-12-31 11:11 被阅读1683次

    一、分布式算法

    在做服务器负载均衡时候可供选择的负载均衡的算法有很多,包括: 轮循算法(Round Robin)、哈希算法(HASH)、最少连接算法(Least Connection)、响应速度算法(Response Time)、加权法(Weighted )等。其中哈希算法是最为常用的算法。

    典型的应用场景:
    有N台服务器提供缓存服务,需要对服务器进行负载均衡,将请求平均分发到每台服务器上,每台机器负责1/N的服务。如下图所示:

    常用的算法是对hash结果取余数 (hash() mod N ):
    对机器编号从0到N-1,按照自定义的 hash()算法,对每个请求的hash()值按N取模,得到余数i,然后将请求分发到编号为i的机器。算法抽象如下:

    h = Hash(key) % N

    问题与缺陷:

    这个算法的问题在于 容错性扩展性 不好。

    1. 容错性是指当系统中某一个或几个服务器变得不可用时,整个系统是否可以正确高效运行
    2. 扩展性是指当加入新的服务器后,整个系统是否可以正确高效运行

    如果某一台机器宕机,那么应该落在该机器的请求就无法得到正确的处理,这时需要将当掉的服务器从算法从去除,此时候会有(N-1)/N的服务器的缓存数据需要重新进行计算;

    如果新增一台机器,会有N /(N+1)的服务器的缓存数据需要进行重新计算。对于系统而言,这通常是不可接受的颠簸(因为这意味着大量缓存的失效或者数据需要转移)。

    那么,如何设计一个负载均衡策略,使得受到影响的请求尽可能的少呢?

    一个设计良好的分布式哈希方案应该具有良好的单调性,即服务节点的增减不会造成大量哈希重定位。一致性哈希算法就是这样一种哈希方案。

    在Memcached、Key-Value Store 、Bittorrent DHT、LVS中都采用了Consistent Hashing算法,可以说Consistent Hashing 是分布式系统负载均衡的首选算法。

    Hash 算法的一个衡量指标是单调性( Monotonicity ),定义如下:单调性是指如果已经有一些内容通过哈希分派到了相应的缓冲中,又有新的缓冲加入到系统中。哈希的结果应能够保证原有已分配的内容可以被映射到新的缓冲中去,而不会被映射到旧的缓冲集合中的其他缓冲区。

    二、一致性哈希算法的理解

    1、算法简述

    一致性哈希算法(Consistent Hashing Algorithm)是一种分布式算法,最早在论文《Consistent Hashing and Random Trees: Distributed Caching Protocols for Relieving Hot Spots on the World Wide Web》中被提出,常用于负载均衡。

    Memcached client也选择这种算法,解决将key-value均匀分配到众多Memcached server上的问题。它可以取代传统的取模操作,解决了取模操作无法应对增删Memcached Server的问题(增删server会导致同一个key在get操作时分配不到数据真正存储的server,命中率会急剧下降)。

    简单来说,一致性哈希将整个哈希值空间组织成一个虚拟的圆环,如假设某哈希函数H的值空间为0 - (2^32)-1(即哈希值是一个32位无符号整形),整个哈希空间环如下:

    整个空间按顺时针方向组织。0和(2^32)-1在零点中方向重合。

    下一步将各个服务器使用H进行一个哈希,具体可以选择服务器的ip或主机名作为关键字进行哈希,这样每台机器就能确定其在哈希环上的位置,这里假设将上文中三台服务器使用ip地址哈希后在环空间的位置如下:

    接下来使用如下算法定位数据访问到相应服务器:将数据key使用相同的函数H计算出哈希值h,通根据h确定此数据在环上的位置,从此位置沿环顺时针“行走”,第一台遇到的服务器就是其应该定位到的服务器。

    例如我们有A、B、C、D四个数据对象,经过哈希计算后,在环空间上的位置如下:

    根据一致性哈希算法,数据A会被定为到Server 1上,D被定为到Server 3上,而B、C分别被定为到Server 2上。

    2、容错性与可扩展性分析

    下面分析一致性哈希算法的容错性和可扩展性。现假设Server 3宕机了:

    可以看到此时A、C、B不会受到影响,只有D节点被重定位到Server 2。

    一般的,在一致性哈希算法中,如果一台服务器不可用,则受影响的数据仅仅是此服务器到其环空间中前一台服务器(即顺着逆时针方向行走遇到的第一台服务器)之间数据,其它不会受到影响。这样就不会造成大量的哈希重定位,因为只是影响一部分的数据。

    下面考虑另外一种情况,如果我们在系统中增加一台服务器Memcached Server 4:

    此时A、D、C不受影响,只有B需要重定位到新的Server 4。

    一般的,在一致性哈希算法中,如果增加一台服务器,则受影响的数据仅仅是新服务器到其环空间中前一台服务器(即顺着逆时针方向行走遇到的第一台服务器)之间数据,其它不会受到影响。

    综上所述,一致性哈希算法对于节点的增减都只需重定位环空间中的一小部分数据,具有较好的容错性和可扩展性。

    3、一致性哈希算法的问题

    一致性哈希算法在服务节点太少时,容易因为节点分部不均匀而造成数据倾斜问题。例如我们的系统中有两台服务器,其环分布如下:

    此时必然造成大量数据集中到Server 1上,而只有极少量会定位到Server 2上。

    为了解决这种数据倾斜问题,一致性哈希算法引入了 虚拟节点 机制,即对每一个服务节点计算多个哈希,每个计算结果位置都放置一个此服务节点,称为虚拟节点。

    具体做法可以在服务器ip或主机名的后面增加编号来实现。例如上面的情况,我们决定为每台服务器计算三个虚拟节点,于是可以分别计算“Memcached Server 1#1”、“Memcached Server 1#2”、“Memcached Server 1#3”、“Memcached Server 2#1”、“Memcached Server 2#2”、“Memcached Server 2#3”的哈希值,于是形成六个虚拟节点:

    同时数据定位算法不变,只是多了一步虚拟节点到实际节点的映射,例如定位到“Memcached Server 1#1”、“Memcached Server 1#2”、“Memcached Server 1#3”三个虚拟节点的数据均定位到Server 1上。这样就解决了服务节点少时数据倾斜的问题。在实际应用中,通常将虚拟节点数设置为32甚至更大,因此即使很少的服务节点也能做到相对均匀的数据分布。

    4、JAVA实现

    import java.security.MessageDigest;
    import java.security.NoSuchAlgorithmException;
    import java.util.Collection;
    import java.util.SortedMap;
    import java.util.TreeMap; /**
     * 一致性Hash算法
     *
     * @param <T> 节点类型 */
    public class ConsistentHash<T> { /**
         * Hash计算对象,用于自定义hash算法 */ HashFunc hashFunc; /**
         * 复制的节点个数 */
        private final int numberOfReplicas; /**
         * 一致性Hash环 */
        private final SortedMap<Long, T> circle = new TreeMap<>(); /**
         * 构造,使用Java默认的Hash算法
         * @param numberOfReplicas 复制的节点个数,增加每个节点的复制节点有利于负载均衡
         * @param nodes            节点对象 */
        public ConsistentHash(int numberOfReplicas, Collection<T> nodes) { this.numberOfReplicas = numberOfReplicas; this.hashFunc = new HashFunc() {
    
                @Override public Long hash(Object key) { // return fnv1HashingAlg(key.toString());
                    return md5HashingAlg(key.toString());
                }
            }; //初始化节点
            for (T node : nodes) {
                add(node);
            }
        } /**
         * 构造
         * @param hashFunc         hash算法对象
         * @param numberOfReplicas 复制的节点个数,增加每个节点的复制节点有利于负载均衡
         * @param nodes            节点对象 */
        public ConsistentHash(HashFunc hashFunc, int numberOfReplicas, Collection<T> nodes) { this.numberOfReplicas = numberOfReplicas; this.hashFunc = hashFunc; //初始化节点
            for (T node : nodes) {
                add(node);
            }
        } /**
         * 增加节点<br>
         * 每增加一个节点,就会在闭环上增加给定复制节点数<br>
         * 例如复制节点数是2,则每调用此方法一次,增加两个虚拟节点,这两个节点指向同一Node
         * 由于hash算法会调用node的toString方法,故按照toString去重
         *
         * @param node 节点对象 */
        public void add(T node) { for (int i = 0; i < numberOfReplicas; i++) {
                circle.put(hashFunc.hash(node.toString() + i), node);
            }
        } /**
         * 移除节点的同时移除相应的虚拟节点
         *
         * @param node 节点对象 */
        public void remove(T node) { for (int i = 0; i < numberOfReplicas; i++) {
                circle.remove(hashFunc.hash(node.toString() + i));
            }
        } /**
         * 获得一个最近的顺时针节点
         *
         * @param key 为给定键取Hash,取得顺时针方向上最近的一个虚拟节点对应的实际节点
         * @return 节点对象 */
        public T get(Object key) { if (circle.isEmpty()) { return null;
            } long hash = hashFunc.hash(key); if (!circle.containsKey(hash)) {
                SortedMap<Long, T> tailMap = circle.tailMap(hash); //返回此映射的部分视图,其键大于等于 hash
                hash = tailMap.isEmpty() ? circle.firstKey() : tailMap.firstKey();
            } //正好命中
            return circle.get(hash);
        } /**
         * 使用MD5算法
         * @param key
         * @return */
        private static long md5HashingAlg(String key) {
            MessageDigest md5 = null; try {
                md5 = MessageDigest.getInstance("MD5");
                md5.reset();
                md5.update(key.getBytes()); byte[] bKey = md5.digest(); long res = ((long) (bKey[3] & 0xFF) << 24) | ((long) (bKey[2] & 0xFF) << 16) | ((long) (bKey[1] & 0xFF) << 8)| (long) (bKey[0] & 0xFF); return res;
            } catch (NoSuchAlgorithmException e) {
                e.printStackTrace();
            } return 0l;
        } /**
         * 使用FNV1hash算法
         * @param key
         * @return */
        private static long fnv1HashingAlg(String key) {
            final int p = 16777619; int hash = (int) 2166136261L; for (int i = 0; i < key.length(); i++)
                hash = (hash ^ key.charAt(i)) * p;
            hash += hash << 13;
            hash ^= hash >> 7;
            hash += hash << 3;
            hash ^= hash >> 17;
            hash += hash << 5; return hash;
        } /**
         * Hash算法对象,用于自定义hash算法 */
        public interface HashFunc { public Long hash(Object key);
        }
    }
    

    Consistent Hashing最大限度地抑制了hash键的重新分布。另外要取得比较好的负载均衡的效果,往往在服务器数量比较少的时候需要增加虚拟节点来保证服务器能均匀的分布在圆环上。因为使用一般的hash方法,服务器的映射地点的分布非常不均匀。使用虚拟节点的思想,为每个物理节点(服务器)在圆上分配100~200个点。这样就能抑制分布不均匀,最大限度地减小服务器增减时的缓存重新分布。用户数据映射在虚拟节点上,就表示用户数据真正存储位置是在该虚拟节点代表的实际物理服务器上。

    原文链接请参见:https://www.cnblogs.com/moonandstar08/p/5405991.html

    其它链接请参考:http://www.cnblogs.com/haippy/archive/2011/12/10/2282943.html

    其它链接请参考:https://my.oschina.net/xianggao/blog/394545?fromerr=Df6BNkP4

    相关文章

      网友评论

        本文标题:浅析一致性哈希算法

        本文链接:https://www.haomeiwen.com/subject/xoxplqtx.html