美文网首页
3.CPU缓存和内存屏障

3.CPU缓存和内存屏障

作者: 强某某 | 来源:发表于2020-03-03 15:01 被阅读0次

    cpu性能优化手段

    1. 缓存
      为了提高程序运行的性能,现代CPU在很多方面对程序进行了优化。
      例如:CPU高速缓存,尽可能地避免处理器访问主内存的时间开销,处理器大多会利用缓存提高性能


      1.png
    1. 多级缓存
    • L1 Cache(一级缓存)是CPU第一层高速缓存,分为数据缓存和指令缓存。一般服务器CPU的L1缓存的容量通常在32-4096KB
    • L2由于L1级高速缓存容量的限制,为了再次提高CPU的运算速度,在CPU外部放置一高速存储器,即二级缓存。
    • L3现在都是内置的。而它的实际作用即是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及短消息和处理器队列长度。一般是多核共享一个L3缓存。
    1. 缓存同步协议
      多CPU读取同样的数据进行缓存,进行不同运算之后,最终写入主内存以哪个CPU为准?
      在这种高速缓存回写的场景下,有一个缓存一致性协议多数CPU厂商对它进行了实现。
      MESI协议(针对单核单线程操作保证一致性),它规定每条缓存有个状态位,同时定义了下面四个状态:
    • 修改态(Modified)- 此cache行已被修改过(脏行),内容已不同于主存,为此cache专有;
    • 专有态(Exclusive)- 此cache行内容同于主存,但不出现于其他cache中;
    • 共享态(Shared)- 此cache行内容同于主存,但也出现于其他cache中;
    • 无效态(Invalid)- 此cache行内容无效(空行);

    多处理器时,单个cpu对缓存中数据进行了改动,需要通知给其他cpu。
    也就意味着,cpu处理器要控制自己的读写操作,还要监听其他cpu发送的通知,从而保证最终一致性。

    1. 运行时指令重排


      2.png

    指令重排的场景:当CPU写缓存时发现缓存区块正被其他CPU占用,为了提高CPU处理性能,可能将后面的读缓存命令优先执行。例如:三级缓存是多核CPU共用,则当一个CPU写时候,其他CPU可以动态的进行指令重排,先执行读操作,所以指令重排是运行态的。

    并非随便重排,需要遵守as-if-serial语义
    as-if-serial语义的意思指:不管怎么排序(编译器和处理器为了提高并行度),(单线程)程序的执行结果不能改变。编译器,runtime和处理器都必须遵循as-if-serial语义。
    也就是说:处理器和编译器不会对存在数据依赖关系的操作做重排序。

    两个问题

    1. cpu高速缓存下有一个问题:
      缓存中的数据与主内存的数据并不是实时同步的,各CPU(或CPU核心)间缓存的数据也不是实时同步。在同一个时间点,各CPU所看到的同一内存地址的数据的值可能是不一致的。

    2. CPU执行指令重排序优化下有一个问题:
      虽然遵守了as-if-serial语义,单仅在单CPU自己执行的情况下能保证结果正确。
      多核多线程中,指令逻辑无法分辨因果关联,可能出现乱序执行,导致程序运行结果错误。

    内存屏障

    为了解决上面两个问题,CPU厂商提供了两个内存屏障指令,(针对多核多线程操作保证一致性)

    • 写内存屏障:在指令后插入Store Barrier(写屏障),能让写入缓存中的最新的数据更新写入主内存,让其他线程可见。强制写入主内存,这种显示调用,CPU就不会因为性能考虑而去对指令重排。
    • 读内存屏障:在指令前插入Load Barrier(读屏障),可以让高速缓存中的数据失效,强制重新从主内存加载数据。
      强制读取主内存内容,让CPU缓存与主内存保持一致,避免了缓存导致的一致性问题

    相关文章

      网友评论

          本文标题:3.CPU缓存和内存屏障

          本文链接:https://www.haomeiwen.com/subject/llqhlhtx.html