https://time.geekbang.org/column/article/67388
- hash = 哈希 > 散列
哈希算法
将任意长度的二进制值串映射为固定长度的二进制值串
特点:
- 从哈希值不能反向推导出原始数据;
- 对输入数据非常敏感,哪怕原始数据只修改了一个 Bit,最后得到到Hash值也不同;
- 冲突的概率要小
- 执行效率高,对长文本也能快速计算出哈希值
应用
安全加密
MD5,SHA
唯一标识
e.g. 海量图库中搜索一张图,可以给每个图片取一个唯一标识符(或者信息摘要),将图像二进制码的一部分通过哈希算法得到这个标识。根据标识找到图片后再和给定图片进行全量对比。
数据校验
e.g. 防止网络传输过程中数据被修改
散列函数
- 散列函数对散列冲突的要求较低,因为碰撞了也可以通过开放寻址或者链表法解决
- 散列函数对散列值能否反向解密也不关心,散列函数更关注散列值是否平均
负载均衡
通过哈希算法,对客户端 IP 或者会话 ID 计算哈希值然后和服务器数量进行取模,这样就可以把同一个IP的请求分给同一个服务器
数据分片
e.g. 1:统计“搜索关键词”出现的次数,n台机器并行处理,使用哈希分配数据到n台机器。再把关键词哈希到机器。这就是MapReduce的思想
e.g. 2:判断图像是否在图库
分布式存储
现在互联网面对的都是海量的数据、海量的用户。我们为了提高数据的读取、写入能力,一般都采用分布式的方式来存储数据,比如分布式缓存。我们有海量的数据需要缓存,所以一个缓存机器肯定是不够的。于是,我们就需要将数据分布在多台机器上。
该如何决定将哪个数据放到哪个机器上呢?我们可以借用前面数据分片的思想,即通过哈希算法对数据取哈希值,然后对机器个数取模,这个最终值就是应该存储的缓存机器编号。
但是,如果数据增多,原来的 10 个机器已经无法承受了,我们就需要扩容了,比如扩到 11 个机器,这时候麻烦就来了。因为,这里并不是简单地加个机器就可以了。
原来的数据是通过与 10 来取模的。比如 13 这个数据,存储在编号为 3 这台机器上。但是新加了一台机器中,我们对数据按照 11 取模,原来 13 这个数据就被分配到 2 号这台机器上了。
因此,所有的数据都要重新计算哈希值,然后重新搬移到正确的机器上。这样就相当于,缓存中的数据一下子就都失效了。所有的数据请求都会穿透缓存,直接去请求数据库。这样就可能发生雪崩效应,压垮数据库。
所以,我们需要一种方法,使得在新加入一个机器后,并不需要做大量的数据搬移。这时候,一致性哈希算法就要登场了。
假设我们有 k 个机器,数据的哈希值的范围是 [0, MAX]。我们将整个范围划分成 m 个小区间(m 远大于 k),每个机器负责 m/k 个小区间。当有新机器加入的时候,我们就将某几个小区间的数据,从原来的机器中搬移到新的机器中。这样,既不用全部重新哈希、搬移数据,也保持了各个机器上数据数量的均衡。
网友评论