美文网首页
如何正确的使用缓存

如何正确的使用缓存

作者: 糖豆_7986 | 来源:发表于2019-12-16 16:02 被阅读0次

    1. 常见概念

    在合理应用缓存前,需要了解缓存领域里相关的几个常用术语:

    1)缓存命中:表示数据能够从缓存中获取,不需要回源;

    2)Cache miss:表示没有命中缓存,如果缓存内存中还有内存空间的话,会将数据加入到缓存中;

    3)存储成本:当没有命中缓存时,回源获取后会将数据放置到存储中,整个将数据放置到存储空间所需要的时间以及空间称之为存储成本;

    4)缓存失效:当源数据发生变更后,意味着缓存中的数据失效;

    5)缓存污染:将不经常访问的数据放置到缓存存储空间中,以至于高频访问的数据无法放置到缓存中;

    6)替代策略:当数据放置到缓存空间时,由于空间不足时,就需要从缓存空间中去除已有的数据,选择去除哪些数据就是由替代策略决定的。常见的替代策略有如下这些:

    Least-Recently-Used(LRU)

    Least-Frequently-Used(LFU)

    SIZE

    First in First Out(FIFO)

    由于存储空间有限,替代策略要解决的核心问题是尽量保留高频访问的缓存数据,降低缓存污染以提升缓存命中率和整体的缓存效率,难点在于,需要基于数据历史访问情况,以一种合适的对未来访问情况的预估才能找到更佳的策略。

    2. 访问缓存场景分析

    使用缓存通常的操作是,请求先访问缓存数据,如果缓存中不存在的话,就会回源到数据库中然后将数据写入到缓存中;如果存在的话就直接返回数据。从整个过程来看,缓存层就处于数据访问的前置环节,分担数据库在高并发容易出现系统故障的风险,所以在使用过程中需要对缓存层很谨慎的进行分析。在访问缓存数据时,有常见的三大场景:缓存穿透、缓存击穿以及缓存雪崩。

    2.1 缓存穿透

    现象:每次请求直接穿透缓存层,直接回源到数据库,给数据库带来比较大的访问量,甚至宕机。

    原因:缓存中不存的的数据,直接查询数据库,数据库也不存在,也就是说请求的数据永远不会写入缓存,这就导致每次请求都会打到db,造成数据库压力过大。

    解决方法:

    方案一:保存空对象在缓存中,设置较短的过期时间;

    方案二:业务上过滤非法参数,防止非法请求击垮数据库;

    方案三:采用bloom filter保存缓存过的key,在访问请求到来时可以过滤掉不存在的key,防止这些请求到db层;(这个暂时没有用过)

    2.2 缓存击穿

    现象:热点key 失效时,大量的请求穿过缓存,直接访问db,对数据库造成很大的压力;

    原因:一般的缓存key都会有过期时间,当key 失效的时候,高并发情况下,热点key会有大量的请求直接打到db 上,对数据库造成非常大的压力;

    解决方法:

    方案一:使用互斥锁,当缓存失效时,保证只有一个请求能够访问db,进行更新缓存操作,其他请求等待重试;

    方案二:缓存"永不失效",异步更新缓存,更新时间设置在key 过期之前;

    2.3 缓存雪崩

    现象:同时间大量key同时失效,大量请求直接访问db,对数据库造成很大压力;

    原因:缓存key 的过期时间设置比较集中,同时失效,大量请求直接访问到db,最终导致数据库瞬时压力过大而崩溃、

    解决方案

    方案一:为redis key 设置失效时间的时候尽量分散,可以在固定超时时间浮动几分钟,保证不会出现大规模key 失效的情况;

    方案二:同缓存击穿,设置互斥锁

    2.4 总结

    缓存穿透、缓存击穿以及缓存雪崩这三个术语很容易弄混,也是读缓存中典型的三个场景问题,做一下简单的总结是很有必要的。

    缓存穿透 强调是获取本不存在的缓存数据,请求必然会越过缓存层直接到达到存储层,很明显这是利用业务规则的漏洞对系统发起攻击,解决方案的核心原则是过滤这些非法业务请求,与是否是热点数据、缓存失效时间等因素没有关系。

    缓存击穿 强调的是热点key的失效,导致某一时刻大量请求会直接到db层,解决方案的核心原则是规避数据库的并发操作。

    缓存雪崩 强调的多个key的集体失效,与key是否是热点数据并不是必然的因素,解决方案的核心原则则让key之间的失效时间分布更加均匀,避免集体失效的情况。

    3  数据更新场景分析

    引入缓存后数据会分别存放到缓存以及数据库两个地方,因此数据更新时,需要涉及到这两处地方得更新,并且更新时序的不同会有不同的结果。关于数据更新目前业界已经沉淀了Cache Aside Pattern,Read/Write through等多种方式。

    3.1 Cache Aside Pattern(缓存靠边站)

    这是很通用的更新策略,主要流程如下:

    读取 更新数据

    主要涉及一下几点:

    失效:应用程序从cache中读取数据,没有查询到,从db中查询到数据,然后更新缓;

    命中:应用程序从cache中查询到数据,直接返回;

    更新:应用程序将数据更新到数据库,成功后,更新缓存。

    Cache Aside Pattern 采用的是先更新数据库,再失效缓存的(删除key),为什么采取这种方式?

    1)为什么不是更新缓存,而是失效缓存(删除key)

    ❶ 并发写容易造成写覆盖,造成脏数据:

    当数据发生更新时,一般有两种方式处理缓存数据,一种是更新缓存,一种是失效数据,由下一次读请求更新缓存数据,假设是更新缓存的话,在并发情况下存在多线程写缓存造成脏数据的情况,如下图:

    并发更新数据

    如上图所示,假设A、B两个线程,A先更新数据库后 B再更新数据库,然后分别进行更新缓存,但是B先更新缓存成功,A后更新缓存成功,这样就导致数据库是最新的数据但是缓存中是旧的脏数据。而如果失效缓存数据的话,可以保证下一次读请求回源到数据库将最新的数据载入到缓存中,避免脏数据的问题。因此,针对数据更新缓存采用失效的方式进行处理,也可以参考这篇文章《Why does Facebook use delete to remove the key-value pair in Memcached instead of updating the Memcached during write request to the backend?》。包括Facebook的论文《Scaling Memcache at Facebook》也使用了这个策略。

    ❷ 双写不同数据源容易造成数据不一致:同时写数据库以及更新缓存,任何一个更新失败都会造成脏数据。如果事务都成功了,在并发情况下,双写也很难保证双写都成功,看一看一下下面的时序图:

    先更新缓存,再更新数据库 先更新数据库,再更新缓存

    ❸ 违背数据懒加载,避免不必要的计算消耗:如果有些缓存值是需要经过复杂的计算才能得出,所以如果每次更新数据的时候都更新缓存,但是后续在一段时间内并没有读取该缓存数据,这样就白白浪费了大量的计算性能,完全可以后续由读请求的时候,再去计算即可,这样更符合数据懒加载,降低计算开销。

    2)可能存在的更新时序

    在确定数据更新后缓存会失效来进行处理的话,针对数据库以及缓存更新时序就存在如下这几种:

    ❶ 先失效缓存再更新数据库

    先失效缓存

    这种情况的问题有哪些?

    如时序图所示,线程A先失效缓存数据的时候,B线程读请求发现缓存数据为空的话,就会从数据库中读取旧值放入到缓存中,这样就导致后续的读请求读到的都是缓存中的脏数据。针对这样的情况可以采用延时双删的策略来有效避免,伪代码 如下:

    cache.delKey(key);

    db.update(data);

    Thread.sleep(xxx);

    cache.delKey(key);

    主要是在写请求更新完数据库后进行休眠一段时间,然后删除可能由读请求带来的脏数据存入到缓存。另外,数据库如果采用的是主从分离的架构的话,读出来的数据也有可能是主从未同步完成造成的脏数据。这种通过延时双删的方式需要线程休眠,因此很显然会降低系统吞吐量,并不是一种优雅的解决方式,也可以采用异步删除的方式。当然可以设置过期时间,到期后缓存失效载入最新的数据,需要系统能够容忍一段时间的数据不一致。

    ❷ 先更新数据库再失效缓存 (推荐时序)

    先更新数据库

    这种方式也会存在数据不一致的情况

    假设缓存刚好到期失效时,读请求从db中读取数据,写请求更新完数据后再失效缓存后,读请求将旧数据存入到缓存中,这种情况也会导致脏数据的问题。实际上这种情况发生的概率很低,针对这种”逻辑失败“造成的数据不一致,可以采用上面所说的异步双删的策略以及过期失效的方式来避免。

    这个case理论上会出现,不过,实际上出现的概率可能非常低,因为这个条件需要发生在读缓存时缓存失效,而且并发着有一个写操作。而实际上数据库的写操作会比读操作慢得多,而且还要锁表,而读操作必需在写操作前进入数据库操作,而又要晚于写操作更新缓存,所有的这些条件都具备的概率基本并不大。

    3.2 Write/Read Through

    Cache Aside Pattern 对db 以及缓存的更新逻辑是由调用方去控制的,这种逻辑比较复杂。

    Write/Read Through对调用方而言,缓存是作为整个的数据存储,而不用关系缓存后面的db,数据库的更新则是由缓存统一进行管理,对调用方而言只需要和缓存进行交互,整体过程是透明的。

    1)Read Through:当数据发生更新时,查询缓存时更新缓存,然后由缓存层同步的更新数据库即可,对调用方而言只需要和缓存层交互即可;

    2)Write Through:Write Through 套路和Read Through相仿,不过是在更新数据时发生。当有数据更新的时候,如果没有命中缓存,直接更新数据库,然后返回。如果命中了缓存,则更新缓存,然后再由Cache自己同步更新数据库。如下图所示:

    read/write through

    3.3 write behind cache pattern

    这种如果数据更新,会直接更新缓存,然后起一个异步任务去更新数据库。这种异步方式请求响应会很快,系统的吞吐量会明显提升。但是,因为是异步更新数据库,数据一致性的保障就会变弱,如果更新数据库失败则会永远的造成系统脏数据,需要很精细设计系统重试的策略,另外如果异步服务宕机的话,还要考虑更新的数据如何持久化,服务重启后能够迅速恢复。在更新数据库时,由于并发多任务的存在,还需要考虑并发写是否会造成脏数据的问题,就需要追溯每次更新数据的时序。使用这种模式需要考虑的细节会有很多,设计出一套好的方案是件很不容易的事情。

    总结:这四种方式的更新策略都是很常用的,也是业界经过大规模业务总结出来的,而着几种方案主要的关注点:

    1、最新的数据应该放置在哪里?

    使用缓存是为了提高系统的性能,利用内存的IO读取的高速特性,来提升系统的性能,提高吞吐量;缓存的存在可以减少一部分请求打到db,减小db的压力,毕竟db最容易出现瓶颈。但是带来的问题就是,数据存在两个地方,当数据更新的时候需要思考如何让 正确的数据放到最可信的存储介质上,这个就需要结合业务的性质,在两种介质中做选择。

    Cache Aside Pattern选择先更新数据库,再失效缓存,这样可以保证最新最正确的数据一定会落在数据库中,这样可以保证核心的业务数据在数据库中一定是可信的,但是带来的问题是业务逻辑更复杂,系统处理更新逻辑耗时更长。

    如果是非核心数据的更新,可以选择write behind cache pattern的方式,只需要更新缓存即可,能够快速的响应。缺点是很容易造成数据不一致,数据库中的数据不一定的就是最可信的数据。

    所以,不同的更新策略实际上也是将最新的数据优先选择放在哪里更合适以及系统性能的一种权衡,需要结合业务场景做好trade-off。

    4、数据不一致

    4.1 数据不一致的原因

    由于引入了缓存,数据会分散在两处不同的数据源当数据更新的时候,是很难做到数据一致的,除非采用强制一致性方案。我们需要根据数据不一致的原因,找出合理的解决方案

    1)逻辑失败造成的数据不一致

    之前提到的四种数据更新策略,在并发情况下,无论了先山缓存还是更新数据库,还是更新数据库再删缓存,都会出现数据不一致的情况,主要是因为异步读写请求再并发情况下的操作时序的数据不一致,这种不一致情况叫做 逻辑失败。

    这种因为并发时序问题造成的问题,核心的解决思想是将异步的操作进行串行化。

    2)物理失败造成的数据不一致

    Cache Aside Pattern 中先更新数据库,再删除缓存以及异步双删策略等,如果删除缓存失败时就会出现不一致的情况。但是数据库更新和缓存更新没办法放到一个事务中,一般来说使用的缓存都是分布式缓存,如果缓存服务很耗时,那么将更新数据库和更新缓存放到一个事务中,会造成大量的数据库链接刮起,严重的影响系统性能,甚至会因为数据库链接数过多,导致系统崩溃。像这种因为缓存操作失败,导致的数据不一致情况称之为物理失败。

    大多数情况物理失败采用重试的方式进行解决。

    4.2 数据一致性的解决方案

    在绝大部分业务场景中,追求的是最终一致性,针对物理失败造成的数据不一致常用的方案有:消费消息异步删除缓存以及订阅Binlog的方式,针对逻辑失败造成的数据不一致常用的方案有:队列异步操作同步化。

    4.2.1消费消息异步删除缓存

    消费消息异步删除缓存

    4.2.2 订阅Binlog

    订阅binlog

    4.2.3 利用队列串行化

    在分析cache aside pattern发现在并发的情况下也会存在数据不一致的场景,只不过发生的概率很低,另外如果先删除缓存再更新数据库在并发读写的情况下也会存在数据不一致的情况。类似这种由于并发时序导致的数据不一致的情况,都是因为写请求还没有结束读请求读取的是旧数据,如果读请求在写请求之后处理,即请求的处理能够串行化的话,就能保证读请求读到的是写请求更新的最新的数据。

    将请求进行串行化,最常用的方式是采用队列的方式,一个队列只能对应一个工作线程,更新数据的写请求放置队列中,等待异步处理;读请求如果能从缓存中获取数据,则返回,如果缓存中没有数据,就将读请求放置到队列中,等待写请求数据更新完成。这种方案需要考虑的问题有:

    1)读请求长时间阻塞:如果队列中挤压了多个写请求,则读请求会存在长时间阻塞的情况,需要设置超时处理策略,一旦超过超时时间,则直接读取数据库返回,避免长时间不响应;另外,在业务中需要进行压测,考虑队列中在峰值情况下会积攒多少写请求,如果过多,需要考虑队列优化的方式和相应的解决方案;

    2)多个队列分散压力:可以根据数据项通过hash等路由方式,创建多个队列并行执行来提升系统吞吐量;

    3)操作复杂需要考虑全面:由于采用队列来进行串行化,那么要考虑队列的可用性,队列阻塞以及服务挂掉后的容灾恢复策略是否健壮等等,相对而言整体的方案需要考虑的点会有很多;

    这种方式可以做到数据强一致性,由于串行化系统的吞吐量会下降很多并且操作复杂,毕竟任何方案都会有利弊权衡的过程,需要根据业务场景选择合适的技术方案。针对数据强一致性很有很多方案,但基本上操作设计都很复杂,在大多数业务场景满足数据最终一致性即可。

    当然除了以上这三种通用的方法外,为缓存设置过期时间以及定时全量同步,也是接近最终一致性的最简单以及有效的方式。

    5、常见的几个场景问题

    在分析数据更新的策略后发现正确使用缓存是一件很不容易的事情,在实际使用缓存时,还会有很多有意思的场景(”坑“),在这里进行一下总结:

    1)过期还是不过期缓存数据:针对缓存数据是否需要设置过期时间也需要结合场景来进行分析,一些产品信息,大多数数据在业务中都是读场景更多,并且缓存空间很大的话,就可以考虑不过期数据。那是否就意味着这就是一份静态数据了?当缓存空间已满时,数据会根据淘汰策略移除缓存,另外数据更新时也可以通过Binlog等其他方式进行异步失效缓存。

    如果系统通过消息异步更新操作成本过高或者依赖于外部系统无法进行订阅binlog异步更新的话,就需要来采用过期缓存数据来保障数据最终一致性。

    2)维度化缓存与增量更新:如果一个实体包含多个属性,在实体发生变更时,如果将所有的属性全部更新一遍,这个成本就很高,况且只是其中的几个属性发生变化。因此,将多个属性进行各个维度化进行拆解,按照多维度进行缓存,更新时只需要增强更新对应维度即可;

    3)大value:大value的问题要时刻警惕,可以考虑将value进行压缩,以及缓存时进行拆解,然后在业务服务中进行数据聚合来避免大value的问题;

    4)热点缓存问题:针对热点数据如果每次都从远程缓存去获取,会给缓存系统带来过多的负载,会导致获取缓存数据响应过慢,可以使用缓存集群,挂载更多的从缓存,读取数据从从缓存中获取。针对热点数据可以使用应用本地缓存来减少对远程缓存的请求负载;

    5)数据预热:可以预先将数据加载到缓存中,方式缓存数据为空,大量的请求回源到db。如果容量很高可以考虑全量预热,如果容量优先,就只能选择高频热点数据进行数据预热,还需要关注是否有批量操作以及慢sql带来的性能问题,在整个数据预热过程中需要有可靠的监控机制来保障;

    6)非预期热点数据:针对业务预估不足的热点数据,需要有热点发现系统来统计热点key,实时监控非预期的热点数据,可以将这些key推到本地缓存中,防止预估不足的热点key拖垮远程缓存服务。

    7)缓存实例故障快速恢复:当某一个缓存实例故障后,缓存一般是采用分片实例存储,假设缓存key路由策略采用的取模机制的话,会导致当前实例的流量迅速到达db层,这种情况可以采用主从机制,当一个实例故障后其他实例可以使用,但是这种方式的问题在于水平扩展不够,如果分片实例上增加一个节点的话,会导致缓存命中率迅速下降。

    如果key路由策略采用的一致性哈希的话,某一个实例节点故障,只会导致哈希环上的部分缓存不命中不会导致大量请求到达db,但是针对热点数据的话,可能会导致该节点负载过高成为系统瓶颈。

    针对实例故障恢复的方式有:

    1. 主从机制,对数据进行备份,尽可能保障有可用数据;

    2. 服务降低,新增缓存实例然后异步线程预热数据;

    3. 可以先采用一致性哈希路由策略,当出现热点数据时到达某个阈值时降级为取模的策略。

    6. 几个影响因素

    影响缓存整体的性能会有很多大大小小的影响因素,比如语言本身的特性的影响,例如Java需要考虑GC的影响。还需要尽可能的提升缓存命中率等等多个方面,总结下来,核心的几个影响因素如下:

    1)提升缓存命中率:影响缓存命中率的几个因素:

    ❶ 业务时效性要求:缓存适合"读多写少"的业务场景,并且业务性质决定了时效性要求,不同的时效性要求决定了缓存的更新策略以及过期时间,对时效性也低的业务越适合使用缓存,并且缓存命中率越高;

    ❷ 缓存粒度设计:通常而言,缓存对象粒度越小就越适合使用缓存,不会导致频繁更新导致缓存命中率下降;

    ❸ 缓存淘汰策略:如果缓存空间有限,不同的缓存淘汰策略也会影响缓存命中率,如果淘汰的缓存数据后续被大量使用,无疑就会降低缓存命中率;

    ❹ 缓存部署方式:在使用分布式缓存时,要做好容量规划以及容灾策略,以免缓存实例故障后造成大规模缓存失效;

    ❺ Key路由策略:不同路由策略会在节点实例故障后带来不同的影响,如果采用取模的方式水平扩展时则会降低缓存命中率。通过这些分析,提高缓存命中率没有放之四海而皆准的统一规则,需要从这些角度去思考,尽可能的在高频访问且时效性不是很高的业务数据上使用缓存。

    2)序列化方式:使用远程缓存服务免不了需要经过序列化后在网络中进行数据传输,那么选择不同的序列化方式对缓存性能会有影响。选择序列化方式时需要考虑序列化耗时、序列化后在网络传输中包大小以及序列化的计算开销。

    3)GC影响:采用多级缓存以及大value时会采用应用本地缓存,对于java应用,就需要考虑大对象带来的GC影响。

    4)缓存协议:了解不同的缓存协议的优缺点比如Redis以及Memcached协议,根据业务场景进行选择。

    5)缓存连接池:为提升访问性能,需要合理的设置缓存连接池。

    6)完善的监控平台:需要考虑是否有一套缓存的监控平台,能够追踪缓存使用情况、缓存服务整体的性能以及一些非预期热点数据的发现策略等等,这样才能综合整体的保障缓存服务的可用以及性能。

    7. 多级缓存设计案例

    从用户发出请求到到最底层的数据库实际上会经历很多节点,因此在整个链路上都可以设置缓存,并且按照缓存最近原则将缓存放置在里用户最近的地方提升系统响应的效果最为明显,相应的提升系统吞吐量的效果就越为显著,通过能够大大降低对后端的压力。在整个链路流程里可以添加缓存的地方有:发起请求-->浏览器/客户端缓存-->边缘缓存/CDN-->反向代理(Nginx)缓存-->远程缓存-->进程内缓存-->数据库缓存。服务端多级缓存设计通用的技术方案如下:

    多级缓存

    主要流程为:

    1)请求先达到Nginx,先读取Nginx本地缓存,如果命中缓存则返回缓存数据。这里的负载均衡路由策略,采用轮询的方式相对而言访问压力分布的更加均衡,一致性哈希方式能够提升缓存命中率,但是同时也会存在单点压力过大的问题,可以考虑使用一致性哈希策略时流量达到一定阈值的时候切换成轮询的方式;

    2)如果没有命中Nginx缓存,则读取分布式缓存,为了高可用以及提升系统吞吐量,一般远程分布式缓存会采用主从结构,这里读取的就是从缓存服务集群数据,如果命中缓存则返回数据;

    3)如果从缓存没有命中缓存,则读取应用本地缓存(堆内/堆外缓存),这里的路由策略同样可以采用轮询或者一致性哈希。如果命中,则返回数据,并回写到Nginx缓存中;为避免由于从缓存服务出现问题,造成过大的流量冲垮数据库,这里可以尝试读取主缓存服务;

    4)如果所有缓存没有命中,则查询数据库并返回数据,并异步回写到主缓存以及应用本地缓存中。主缓存通过主从同步机制同步到从缓存服务集群中。这里会写到主缓存的时候需要考虑多个应用实例在异步写,需要考虑数据是否会乱序的问题。

    另外,对于一些非预期热点数据比如微博中”某某明星结婚“等等热门话题带来的访问流量瞬间冲击到后端,针对以上多级缓存设计,可以通过引入热点发现系统来发现非预期的热点数据,利用flume订阅Nginx日志,然后通过消息进行消费,最后通过storm等实时计算框架进行热点数据的统计,当监控发现到热点数据,将其推送到各个缓存节点上,整体的缓存设计如下:

    非预期热点数据监控

    8. 总结

    为了追求高性能,每个开发者最先使用的就是缓存,也在潜意识里将缓存作为了系统性能瓶颈的一剂良药,经过系统化的总结和分析缓存后,就可以发现缓存如果使用不当真的就会事与愿违,成为毒药,并不会系统迭代出那个局部最优解。如果贸然的使用缓存,需要考虑的地方真的很多稍有不注意,反而会让系统投入更多的维护成本,陡增更高的复杂度。那是不是就不使用缓存呢?也不是,缓存在高并发的情况下通过IO高速的缓存获取数据能使得每个请求能够快速响应,并且能够大大提升系统吞吐量以及支撑更高的并发用户数,在现有的高并发大流量的互联网应用中应用缓存的例子太多了,也足以证明缓存在优化系统整体性能是一种行之有效的方案。

    作为开发者不是每个人都有机会和机遇去挑战高并发的互联网架构以及高量级的访问流量和应用规模的,那是不是就意味着这些通用的技术方案就不用深刻分析呢?很显然不是,单从缓存使用中就会发现在高并发下读写带来的数据不一致性分析下来就会有很多并发场景,单线程下都是正常的,但在并发下就会出现很多意想不到的case,而这些分析的思路是最核心的,也是开发者逐渐形成自己的方法论的有效训练途径。在系统化学习每一种技术组件时,业界的通用解决方案都是经过历史经验慢慢沉淀下来的智慧,如同品酒,是需要静下心来好好去品的。

    技术最终是服务于业务价值,而业务规模扩张会反哺技术的创新,要设计出一套适应于业务的合理的技术方案,需要很深的内功,需要既懂技术又要对业务理解十分深刻才行,懂业务而不懂技术,很难知道每种技术方案的局限性,也就是经常所说的PPT架构师,PPT很炫酷,一顿操作猛如虎但是并不是最适合业务的那个解,反而就像是跳梁小丑一样自嗨或者带着功利心去急于变现,只有业务与技术结合能够得到最大价值的那个解就是最合适的方案,需要在优与劣的trade-off上做出权衡。如果很懂技术,但是不懂业务,同样的就是废铜烂铁没办法发挥出功力。在不同的职业生涯阶段,每个人的精力有限,投入技术以及业务的精力分配也是不同的,专注的点会有所不同,就像业务与技术一样,在人生的赛道中在不同阶段也需要迭代出那个最合适的局部最优解,至于什么最合适,答案在每个人心中!

    大家可以参考《深入分布式缓存》 这本资料。

    相关文章

      网友评论

          本文标题:如何正确的使用缓存

          本文链接:https://www.haomeiwen.com/subject/ehysictx.html