美文网首页并发编程学习之路
2019-05-07 - 并发编程领域理论知识点 - 开篇

2019-05-07 - 并发编程领域理论知识点 - 开篇

作者: 想做算法很好的架构师 | 来源:发表于2019-05-09 17:48 被阅读0次

    前言:
    其实写这篇文章迟久没有下笔的原因在于,第一个为什么要注意有并发问题,或者说什么情况下我们的程序会出现并发的问题,我相信有即使工作1 2年的coder 也未必能彻底搞清楚这个问题,甚至有些时候代码中出现了bug 也没有考虑过是否是并发导致的bug源头,虽然现在写下这篇的我也没有多少年的并发编程的经验,但是,听了极客时间的王宝令老师的课堂之后,有很大的感触,比如理论派和实践派的纠结,很多人更倾向于实践中积累理论的方式,也是源于我们伟大的毛主席说的实践是检验真理的唯一方式,是没有错,所以很多人一来就开始捣鼓各种并发工具包,比如java 的current 包里面的各种lock 或者 说是线程池等待,但是忽略一个问题在实践前自己肚子里的真理有多少?也就是说,毛主席说的话中除了实践的关键字以外,检验才是这句话的动词,那么检验的对象是自己的真理,所以我不在纠结自己是否有多少年的编程经验或者能实践到什么程度,而是先把自己的真理体系尽可能的搭建完整,这样实践的检验就像是一个一个命中缓存的模式,真理在缓存中越多,检验的命中率就越高,从而自己就能写出一番漂亮的并发编程的代码出来。

    正文:
    也是王老师的启发,关于并发编程是需要跳出来看全景,和走进去挖本质的,全景是指的全部的工作流水线,比如从代码层次的线程worker 到 os kernel 的调度线程和硬件之间的合理工作,到cpu 计算整个工程流水线的每一环,本质指的则是,每一环都有自己独特的或是优化或是规则的工作机制,比如cpu执行的是指令原语,注意不是线程中的一句代码,os kernel 调度的基本上是LWP, 线程是一个进程下的fork 的东东,线程之间通信怎么说?可以说就是共享一个内存下的同一个数据,也可以说其实根本不存在通信一说,因为本来就是操作一个进程映射的内存,那进程之间的通信怎么说?不同进程虚拟内存映射的物理内存就不在同一片区域了,那大的方向就是通过os kernel 操作一个共享内存的方式,大家把通信以某种信号的方式在这个共享内存中实现,类似于七八十年代的BB机的呼叫等等,扯的有点多了,但是我觉得知识本来就是应该要融会贯通的,不能单点,所以我的文章中很有可能有一个点慢慢牵扯到了很多个点啥的hhhh

    ok, 那么什么时候需要立马有并发思考的必要呢?先从浅显的,并发肯定指的是得有多个worker 一起干活的意思对吧,对应到代码层面就是你的程序或多或少在某一个模块中出现了需要有多个线程去执行任务的地方,注意包括三方包,以前的我天真的认为自己代码中没有用到java util current package 里面的玩意儿应该就不需要考虑并发问题吧,唉真是天真,jdbc 难道没有连接池吗?不就有是有多个woker了吗?其实只要不是那种很 eazy 的单机程序,大部分都是会有多个woker 的,其次是有多个worker 还不足以说一定是会有并发的bug ,因为如果是架在单核上,只有一个cpu 对应了一个cpu 缓存,那也就变成了串行的方式,理解一个很基本的概念,线程worker 是至少一个任务组的操作步骤,真正能计算执行的只有cpu 能做到这个,软件的运行本质是硬件的支持,这个时候可以在脑袋里联想一下全景图的雏形了,如果还没有办法很好的构造一个这样的全景图的话,那就说明你的“真理”程度还不够好,建议找本操作系统的书看一下啥的,所以现在基本上是多核,可能是多cpu,也可能是一个cpu有多个计算晶体,抽象一点就是拥有多个真正计算能力的玩意儿,硬件工程师知道这玩意儿的计算速率和读写内存的速率不是一个等级啊,好优化一下,内存比较大,我就弄个小点但是高速的缓存平衡一下,注意此缓存和我们在软件领域中用到的缓存不是一个东东,此缓存是指高速缓冲存储器(cache),而比如redis 的缓存原理是说把数据放到内存中去,比较的对象是关系型数据库中的把数据放入到硬盘中,详见https://blog.csdn.net/qq_34567703/article/details/76736564
    然而这样的缓存优化如果不加控制的话就会带来一个并发的bug,那就是可见性的问题,本来多个线程操作同一个数据,但是由于cpu的缓存导致数据一个数据本来改变了,但是放入缓存而不是内存中的,所以另外一个线程看不到前面一个线程的计算的结果,那前面的worker 不就白做了吗?
    所以以上是硬件资源角度上增加一个高速缓存的“物体”给cpu 虽然可以平衡一些cpu 和 读写内存的速度差异,但是却会带来可见性问题的隐式bug。。。
    除此之外,linux os kernel 通过分时复用cpu 的这项技术达到一个巅峰,这项技术可以让cpu在等待io 操作的时候,比如硬盘资源或者网络io资源的时候,不让他闲下来,让他干已经准备好的其他的进程的事情,完全可以达到cpu的高利用率,同时硬盘资源也能够很好的利用,这就是分时复用,分时复用能达到很好的效果其实就是时间片大小的设置,这就是linux os 的精妙算法的一部分,时间片很小的时候,对于人的感知就相当于是两件事情在同时做一样,但其实是一个单核在操作,但是,分时复用cpu 意味着线程切换,线程切换的好,诶,我(cpu)刚好在此线程io操作将要踏入等待,从执行队列中切换到到新的线程接着干,但是切换的不好,比如在我们看来原语count ++ 上cpu指令, count值从内存加载到寄存器 , 1到寄存器 , 执行count+1,要是从中间某个步骤停下,换另外一个线程接着干,并且还是针对同一个数据资源,那就有bug了,因为最终的值的确定就是最终哪个线程结束对这个资源的使用,也就是必然导致会有一个worker 干了没有用的事情,这就是线程切换带来的问题。
    所以上面是linux os kernel 为了优化cpu计算不间断执行问题而进行的分时复用的操作,但是如果多线程访问一个资源的操作不是原子性的,那么就会有bug的产生
    还有一个层面便是到了高级语言的部分,也就是编译器他也会做优化的,这部分做的优化是关于指令重排的优化,这项技术想解决一个高级语言编译成二进制文件的原语的优化,有些比如典型的双层检测静态初始化的方式,就会出现如果指令重排,那么很有可能拿到的instance 在某个时刻是空的,所以这也是出现并发bug的原因之一

    上面总结一下主要谈到了三个层次分别对于cpu 和 内存之间的优化,cpu 和 io 之间的优化,以及编译优化的技术又分别会对应带来的如果是多线程情况访问同一个资源可能带来的可见性,原子性,和有序性不满足带来的bug,而这三点又是并发编程需要达到的一个不出现意外bug 的源头。

    下一篇会是java 内存模型对于上面两点可见行和有序性问题的探讨。。。

    相关文章

      网友评论

        本文标题:2019-05-07 - 并发编程领域理论知识点 - 开篇

        本文链接:https://www.haomeiwen.com/subject/vrdsoqtx.html