美文网首页
【硅谷之路 74】什么是Cache

【硅谷之路 74】什么是Cache

作者: followyounger1 | 来源:发表于2017-07-07 10:58 被阅读70次

    Cache即缓存,我们在很多地方都会碰到。比如CPU里面的L1 Cache,L2 Cache;在内存中我们会说内存cache了某些数据;在分布式系统中为了提高速度,我们会做一些cache;浏览器里会将访问域名服务器dns后得到的数据cache起来,这样下次解析同一个域名时不需要再次查询dns。所有这些场景中都会用到cache。Cache是一个通用的概念,当我们看它时,首先不是看它本身,而是要了解它为什么会存在。

    Cache为什么存在?我们来看看计算机体系的存储架构。

    计算机就是为了计算出某种东西,所以它最终肯定是一个计算模块。于是在整个金字塔的塔尖,就是我们的计算单元,它往往是CPU中的计算电路。计算单元外部会存一些数据,就是L1 Cache,它存放的数据离CPU最近。再远一点是L2 Cache,再往后就是内存,硬盘,以及最远端的云。

    看到这个金字塔,大家可能会很好奇:为什么需要这么多层的存储结构呢?而且相邻存储之间的访问速度相差十倍甚至以上,尺寸上也相差十倍甚至更多。我们把计算机存储架构搞得这么复杂,似乎非常繁琐,而并没有见到什么好处。能不能在计算单元下面直接对应硬盘中的数据,将硬盘跟计算单元之间的三层直接省去?其实并不可以。如果计算过程中所有的数据都从硬盘中读取,你会发现运算速度变得非常非常慢。为什么呢?这就回到计算的本质。那么计算是什么呢?维基百科上将计算定义为一种将单一或多个输入值转换为单一或多个结果的过程。这个过程的运行时间可以这样表示

    **运行时间 ****= 计算时间 + 数据迁移时间****
    **
    其实绝大多数情况下,运行时间都主要花在数据迁移上。在算法设计中评估算法复杂度的Big O量级,就是程序运行过程中读取数据移动数据的量级。所以在整个计算过程中,数据迁移是很重要的。
    回到计算机体系存储结构的金字塔中可以发现,越往上,离计算单元越近。所以计算单元从L1 Cache中拿数据的路径比从L2 Cache要短。路径越短,速度越快。为了缩短运行时间,我们可以花更高的价格,做更快的存储单元,提供更高的速度。然而在计算单元身边能够放下的存储是有限的。因此离计算单元近的存储器就相当于精英,单价高,存储量少。与精英是普通人的子集相似,上图金字塔中每一层的数据也是下一层的子集。这时候我们可以引出Cache的概念了:

    Cache就是把我们需要的数据放到离我们近的地方
    **


    **
    从上图可以看出,L1是L2 的cache,L2是内存的Cache,内存是硬盘的Cache。另外,本地对远端dns查询结果的Cache,无非是将云端的某些数据存在硬盘上,下次查询可以在本地硬盘进行而不需要访问云端。所以只要是把数据放在近的地方,就是Cache。在数据库设计,分布式系统设计中都我们可以用到Cache这个概念,即把数据放在身边。
    那么通过哪些途径把数据放在身边呢?怎么选择这些数据呢?

    最优策略一定是能够选择那些你即将用到的数据。在数据被使用之前,将数据放在离你最近的地方,可以极大减少数据迁移时间。

    什么样的数据会放到身边呢?根据启发式算法我们知道,之前经常被用到的数据很可能再次被用到。所以如果数据之前被用过一次,就在身边缓存一份。

    还有什么样的数据呢?那些跟之前被使用的数据相邻的数据,也可能会被用到。比如说老师让小明帮忙拿一支笔过来,笔旁边放着黑板擦。小明不仅拿了笔,还把笔旁边的黑板擦也拿过来。为什么呢?因为黑板擦跟笔是相邻的,用笔的时候很可能要用黑板擦,用黑板擦的时候也很可能要用笔。因此将两个东西一块拿过来就更好好。再比如说操作系统中page的概念。内存从硬盘中拿数据,往往是拿一个page。为什么呢?因为如果只是拿需要的数据,那么下次读取数据可能就在附近,与其让硬盘再转一个圈,不如将相邻的一块都拿过来。如果下次访问相邻的数据时,直接从内存中读取。

    两种方式选择应该缓存起来的数据:一是之前用过的数据,二是跟之前用过的数据相邻的数据。
    讲到存储自然要提到替换,因为Cache的大小总是有限的,不可能存下所有的数据。那么Cache写满后该怎么替换呢?刚才提到,之前用过的数据可能再被使用。换句话说,那些最近没有被使用过的数据就可以被替换了,这就是LRU(Least Recently Used) 。有的人可能会问,有没有更好的方法呢?比如说看数据被使用的频率,一些论文中就有利用数据频率结合衰减因子的替换方法。虽然有很多复杂的算法,但是我们要意识到,判断什么数据被替换也是需要占用计算资源的。而采用复杂的算法进行替换往往会占用更多的时间来替换。实际上在80%以上的场景中,LRU算法就已经足够好了。所以绝大多数的替换算法都是LRU,它非常简单,非常可靠。
    最后总结一下什么是Cache
    · **Cache就是把数据放在身边
    **

    · **Cache的写入主要是备份和预取。
    **

    · Cache的替换策略主要是LRU
    转自:https://www.bittiger.io/blog/post/nhtsY2zPzcEvA4Nzv

    相关文章

      网友评论

          本文标题:【硅谷之路 74】什么是Cache

          本文链接:https://www.haomeiwen.com/subject/stelhxtx.html