美文网首页
锁的分析

锁的分析

作者: 北京_小海 | 来源:发表于2020-11-16 15:44 被阅读0次

    本文主要介绍常见的锁,以及synchronized、NSLock、递归锁、条件锁的底层分析 

    先看一张大家都非常熟悉的图

    可以看出,图中锁的性能从高到底依次是:OSSpinLock(自旋锁) -> dispatch_semaphone(信号量) -> pthread_mutex(互斥锁) -> NSLock(互斥锁) -> NSCondition(条件锁) -> pthread_mutex(recursive 互斥递归锁) -> NSRecursiveLock(递归锁) -> NSConditionLock(条件锁) -> synchronized(互斥锁)

    图中锁大致分为以下几类:

    【1、自旋锁】:在自旋锁中,线程会反复检查变量是否可用。由于线程这个过程中一致保持执行,所以是一种忙等待。 一旦获取了自旋锁,线程就会一直保持该锁,直到显式释放自旋锁。自旋锁避免了进程上下文的调度开销,因此对于线程只会阻塞很短时间的场合是有效的。对于iOS属性的修饰符atomic,自带一把自旋锁

    OSSpinLock

    atomic

    【2、互斥锁】:互斥锁是一种用于多线程编程中,防止两条线程同时对同一公共资源(例如全局变量)进行读写的机制,该目的是通过将代码切成一个个临界区而达成

    @synchronized

    NSLock

    pthread_mutex

    【3、条件锁】:条件锁就是条件变量,当进程的某些资源要求不满足时就进入休眠,即锁住了,当资源被分配到了,条件锁打开了,进程继续运行

    NSCondition

    NSConditionLock

    【4、递归锁】:递归锁就是同一个线程可以加锁N次而不会引发死锁。递归锁是特殊的互斥锁,即是带有递归性质的互斥锁

    pthread_mutex(recursive)

    NSRecursiveLock

    【5、信号量】:信号量是一种更高级的同步机制,互斥锁可以说是semaphore在仅取值0/1时的特例,信号量可以有更多的取值空间,用来实现更加复杂的同步,而不单单是线程间互斥

    dispatch_semaphore

    【6、读写锁】:读写锁实际是一种特殊的自旋锁。将对共享资源的访问分成读者和写者,读者只对共享资源进行读访问,写者则需要对共享资源进行写操作。这种锁相对于自旋锁而言,能提高并发性

    一个读写锁同时只能有一个写者或者多个读者,但不能既有读者又有写者,在读写锁保持期间也是抢占失效的

    如果读写锁当前没有读者,也没有写者,那么写者可以立刻获得读写锁,否则它必须自旋在那里, 直到没有任何写者或读者。如果读写锁没有写者,那么读者可以立

    其实基本的锁就包括三类:自旋锁、互斥锁、读写锁,其他的比如条件锁、递归锁、信号量都是上层的封装和实现。

    1、OSSpinLock(自旋锁)

    自从OSSpinLock出现安全问题,在iOS10之后就被废弃了。自旋锁之所以不安全,是因为获取锁后,线程会一直处于忙等待,造成了任务的优先级反转。

    其中的忙等待机制可能会造成高优先级任务一直running等待,占用时间片,而低优先级的任务无法抢占时间片,会造成一直不能完成,锁未释放的情况

    在OSSpinLock被弃用后,其替代方案是内部封装了os_unfair_lock,而os_unfair_lock在加锁时会处于休眠状态,而不是自旋锁的忙等状态

    2、atomic(原子锁)

    atomic适用于OC中属性的修饰符,其自带一把自旋锁,但是这个一般基本不使用,都是使用的nonatomic

    在前面的文章中,我们提及setter方法会根据修饰符调用不同方法,其中最后会统一调用reallySetProperty方法,其中就有atomic和非atomic的操作

    从源码中可以看出,对于atomic修饰的属性,进行了spinlock_t加锁处理,但是在前文中提到OSSpinLock已经废弃了,这里的spinlock_t在底层是通过os_unfair_lock替代了OSSpinLock实现的加锁。同时为了防止哈希冲突,还是用了加盐操作

    getter方法中对atomic的处理,同setter是大致相同的

    3、synchronized(互斥递归锁)

    开启汇编调试,发现@synchronized在执行过程中,会走底层的objc_sync_enter 和 objc_sync_exit方法

    也可以通过clang,查看底层编译代码

    通过对objc_sync_enter方法符号断点,查看底层所在的源码库,通过断点发现在objc源码中,即libobjc.A.dylib

    objc_sync_enter & objc_sync_exit 分析

    进入objc_sync_enter源码实现

    如果obj存在,则通过id2data方法获取相应的SyncData,对threadCount、lockCount进行递增操作

    如果obj不存在,则调用objc_sync_nil,通过符号断点得知,这个方法里面什么都没做,直接return了

    进入objc_sync_exit源码实现

    如果obj存在,则调用id2data方法获取对应的SyncData,对threadCount、lockCount进行递减操作

    如果obj为nil,什么也不做

    通过上面两个实现逻辑的对比,发现它们有一个共同点,在obj存在时,都会通过id2data方法,获取SyncData

    进入SyncData的定义,是一个结构体,主要用来表示一个线程data,类似于链表结构,有next指向,且封装了recursive_mutex_t属性,可以确认@synchronized确实是一个递归互斥锁

    进入SyncCache的定义,也是一个结构体,用于存储线程,其中list[0]表示当前线程的链表data,主要用于存储SyncData和lockCount

    id2data 分析

    进入id2data源码,从上面的分析,可以看出,这个方法是加锁和解锁都复用的方法

    代码很长 慢慢看 别急~~

    【第一步】首先在tls即线程缓存中查找。

    在tls_get_direct方法中以线程为key,通过KVC的方式获取与之绑定的SyncData,即线程data。其中的tls(),表示本地局部的线程缓存,

    判断获取的data是否存在,以及判断data中是否能找到对应的object

    如果都找到了,在tls_get_direct方法中以KVC的方式获取lockCount,用来记录对象被锁了几次(即锁的嵌套次数)

    如果data中的threadCount小于等于0,或者lockCount小于等于0时,则直接崩溃

    通过传入的why,判断是操作类型

    如果是ACQUIRE,表示加锁,则进行lockCount++,并保存到tls缓存

    如果是RELEASE,表示释放,则进行lockCount--,并保存到tls缓存。如果lockCount等于0,从tls中移除线程data

    如果是CHECK,则什么也不做

    【第二步】如果tls中没有,则在cache缓存中查找

    通过fetch_cache方法查找cache缓存中是否有线程

    如果有,则遍历cache总表,读取出线程对应的SyncCacheItem

    从SyncCacheItem中取出data,然后后续步骤与tls的匹配是一致的

    【第三步】如果cache中也没有,即第一次进来,则创建SyncData,并存储到相应缓存中

    如果在cache中找到线程,且与object相等,则进行赋值、以及threadCount++

    如果在cache中没有找到,则threadCount等于1

    所以在id2data方法中,主要分为三种情况

    【第一次进来,没有锁】:

    threadCount = 1

    lockCount = 1

    存储到tls

    【不是第一次进来,且是同一个线程】

    tls中有数据,则lockCount++

    存储到tls

    【不是第一次进来,且是不同线程】

    全局线程空间进行查找线程

    threadCount++

    lockCount++

    存储到cache

    tls和cache表结构

    针对tls和cache缓存,底层的表结构如下所示

    哈希表结构中通过SyncList结构来组装多线程的情况

    SyncData通过链表的形式组装当前可重入的情况

    下层通过tls线程缓存、cache缓存来进行处理

    底层主要有两个东西:lockCount、threadCount,解决了递归互斥锁,解决了嵌套可重入

    @synchronized 坑点

    下面代码这样写,会有什么问题?

    运行之后果然崩溃

    崩溃的主要原因是testArray在某一瞬间变成了nil,block内部不停的retain、release,会在某一瞬间上一个还未release,下一个已经准备release,这样会导致野指针的产生

    那么我们用@synchronized加锁呢

    还是会崩

    从@synchronized底层流程知道,如果加锁的对象成了nil,是锁不住的,相当于下面这种情况,block内部不停的retain、release,会在某一瞬间上一个还未release,下一个已经准备release,这样会导致野指针的产生

    可以根据上面的代码,打开edit scheme -> run -> Diagnostics中勾选Zombie Objects ,来查看是否是僵尸对象,结果如下所示

    我们一般使用@synchronized (self),主要是因为_testArray的持有者是self

    注意:野指针 vs 过渡释放

    野指针:是指由于过渡释放产生的指针还在进行操作

    过渡释放:每次都会retain 和 release

    总结

    @synchronized在底层封装的是一把递归锁,所以这个锁是递归互斥锁

    @synchronized的可重入,即可嵌套,主要是由于lockCount和threadCount的搭配

    @synchronized使用链表的原因是链表方便下一个data的插入,

    但是由于底层中链表查询、缓存的查找以及递归,是非常耗内存以及性能的,导致性能低,所以在前文中,该锁的排名在最后

    但是目前该锁的使用频率仍然很高,主要是因为方便简单,且不用解锁

    不能使用非OC对象作为加锁对象,因为其object的参数为id

    @synchronized (self)这种适用于嵌套次数较少的场景。这里锁住的对象也并不永远是self,这里需要读者注意

    如果锁嵌套次数较多,即锁self过多,会导致底层的查找非常麻烦,因为其底层是链表进行查找,所以会相对比较麻烦,所以此时可以使用NSLock、信号量等

    4、NSLock

    NSLock是对下层pthread_mutex的封装,使用如下

    直接进入NSLock定义查看,其遵循了NSLocking协议,下面来探索NSLock的底层实现

    NSLock 底层分析

    通过加符号断点lock分析,发现其源码在Foundation框架中,

    由于OC的Foundation框架不开源,所以这里借助Swift的开源框架Foundation来 分析NSLock的底层实现,其原理与OC是大致相同的

    通过源码实现可以看出,底层是通过pthread_mutex互斥锁实现的。并且在init方法中,还做了一些其他操作,所以在使用NSLock时需要使用init初始化

    回到前文的性能图中,可以看出NSLock的性能仅次于 pthread_mutex(互斥锁),非常接近

    使用弊端

    请问下面block嵌套block的代码中,会有什么问题?

    在未加锁之前,其中的current=9、10有很多条,导致数据混乱,主要原因是多线程导致的


    如果像下面这样加锁,会有什么问题?

    运行结果为如下:

    会出现一直等待的情况,主要是因为嵌套使用的递归,使用NSLock(简单的互斥锁,如果没有回来,会一直睡觉等待),即会存在一直加lock,等不到unlock 的堵塞情况

    所以,针对这种情况,可以使用以下方式解决

    使用@synchronized

    使用递归锁NSRecursiveLock

    5、pthread_mutex

    pthread_mutex就是互斥锁本身,当锁被占用,其他线程申请锁时,不会一直忙等待,而是阻塞线程并睡眠

    使用

    // 导入头文件#import<pthread.h>

    // 全局声明互斥锁pthread_mutex_t _lock;

    // 初始化互斥锁pthread_mutex_init(&_lock,NULL);

    // 加锁pthread_mutex_lock(&_lock);

    // 这里做需要线程安全操作

    // 解锁 pthread_mutex_unlock(&_lock);

    // 释放锁pthread_mutex_destroy(&_lock);

    6、NSRecursiveLock

    NSRecursiveLock在底层也是对pthread_mutex的封装,可以通过swift的Foundation源码查看

    对比NSLock和NSRecursiveLock,其底层实现几乎一模一样,区别在于init时,NSRecursiveLock有一个标识PTHREAD_MUTEX_RECURSIVE,而NSLock是默认的

    递归锁主要是用于解决一种嵌套形式,其中循环嵌套居多

    7、NSCondition

    NSCondition是一个条件锁,在日常开发中使用较少,与信号量有点相似:线程1需要满足条件1才会往下走,否则会堵塞等待,知道条件满足。经典模型是生产消费者模型

    NSCondition的对象实际上作为一个锁和 一个线程检查器

    锁主要 为了当检测条件时保护数据源,执行条件引发的任务

    线程检查器主要是根据条件决定是否继续运行线程,即线程是否被阻塞

    使用

    //初始化

    NSCondition*condition=[[NSConditionalloc]init]

    //一般用于多线程同时访问、修改同一个数据源,保证在同一 时间内数据源只被访问、修改一次,其他线程的命令需要在lock 外等待,只到 unlock ,才可访问

    [conditionlock];

    //与lock 同时使用

    [condition unlock];

    //让当前线程处于等待状态

    [condition wait];

    //CPU发信号告诉线程不用在等待,可以继续执行

    [condition signal];

    底层分析

    通过swift的Foundation源码查看NSCondition的底层实现

    其底层也是对下层pthread_mutex的封装

    NSCondition是对mutex和cond的一种封装(cond就是用于访问和操作特定类型数据的指针)

    wait操作会阻塞线程,使其进入休眠状态,直至超时

    signal操作是唤醒一个正在休眠等待的线程

    broadcast会唤醒所有正在等待的线程

    8、NSConditionLock

    NSConditionLock是条件锁,一旦一个线程获得锁,其他线程一定等待

    相比NSConditionLock而言,NSCondition使用比较麻烦,所以推荐使用NSConditionLock,

    其使用如下

    //初始化:NSConditionLock*conditionLock=[[NSConditionLockalloc]initWithCondition:2];

    //表示 conditionLock 期待获得锁,如果没有其他线程获得锁(不需要判断内部的 condition) 那它能执行此行以下代码,如果已经有其他线程获得锁(可能是条件锁,或者无条件 锁),则等待,直至其他线程解锁[conditionLock lock];

    //表示如果没有其他线程获得该锁,但是该锁内部的 condition不等于A条件,它依然不能获得锁,仍然等待。如果内部的condition等于A条件,并且 没有其他线程获得该锁,则进入代码区,同时设置它获得该锁,其他任何线程都将等待它代码的 完成,直至它解锁。[conditionLock lockWhenCondition:A条件];

    //表示释放锁,同时把内部的condition设置为A条件[conditionLock unlockWithCondition:A条件];

    // 表示如果被锁定(没获得 锁),并超过该时间则不再阻塞线程。但是注意:返回的值是NO,它没有改变锁的状态,这个函 数的目的在于可以实现两种状态下的处理

    return=[conditionLock lockWhenCondition:A条件 beforeDate:A时间];

    //其中所谓的condition就是整数,内部通过整数比较条件

    NSConditionLock,其本质就是NSCondition + Lock,以下是其swift的底层实现,

    通过源码可以看出

    NSConditionLock是NSCondition的封装

    NSConditionLock可以设置锁条件,即condition值,而NSCondition只是信号的通知

    调试验证

    以下面代码为例,调试NSConditionLock底层流程


    分析:

    有三个并行队列+异步函数,分别处理三个任务,三个任务的执行顺序无序。

    (并行队列+异步线程是的执行顺序是不固定的,取决于任务资源大小和cpu的调度)

    我们init时,将condition设置为2。

    任务1: 必须当前线程没被锁,且condition为1时,我才加锁并执行后面代码。

    任务2: 必须当前线程没被锁,且condition为2时,我才加锁并执行后面代码。

    任务3: 必须当前线程没被锁,我可以加锁并执行后面代码。

    所以任务3的执行时期并不确定,只要当前线程没被锁,随时都可以。任务1一定在任务2的后面:

    因为condition初始值为2,只有任务2满足条件,任务2执行完后,将condition设置为1,并broadcast广播给所有等待的线程。

    此时正在等待的任务1的线程收到广播,检查任务1,满足条件,任务1执行完后,将condition设置为0,并broadcast广播给所有等待的线程。


    demo分析汇总

    线程 1调用[NSConditionLock lockWhenCondition:],此时此刻因为不满足当前条件,所以会进入 waiting 状态,当前进入到 waiting 时,会释放当前的互斥锁。

    此时当前的线程 3 调用[NSConditionLock lock:],本质上是调用 [NSConditionLock lockBeforeDate:],这里不需要比对条件值,所以线程 3 会打印

    接下来线程 2 执行[NSConditionLock lockWhenCondition:],因为满足条件值,所以线程2 会打印,打印完成后会调用[NSConditionLock unlockWithCondition:],这个时候将value 设置为 1,并发送 boradcast, 此时线程 1 接收到当前的信号,唤醒执行并打印。

    自此当前打印为线程 3->线程 2 -> 线程 1

    [NSConditionLock lockWhenCondition:];这里会根据传入的condition 值和 Value 值进行对比,如果不相等,这里就会阻塞,进入线程池,否则的话就继续代码执行[NSConditionLock unlockWithCondition:]: 这里会先更改当前的 value 值,然后进行广播,唤醒当前的线程

    性能总结

    OSSpinLock自旋锁由于安全性问题,在iOS10之后已经被废弃,其底层的实现用os_unfair_lock替代

    使用OSSpinLock及所示,会处于忙等待状态

    而os_unfair_lock是处于休眠状态

    atomic原子锁自带一把自旋锁,只能保证setter、getter时的线程安全,在日常开发中使用更多的还是nonatomic修饰属性

    atomic:当属性在调用setter、getter方法时,会加上自旋锁osspinlock,用于保证同一时刻只能有一个线程调用属性的读或写,避免了属性读写不同步的问题。由于是底层编译器自动生成的互斥锁代码,会导致效率相对较低

    nonatomic:当属性在调用setter、getter方法时,不会加上自旋锁,即线程不安全。由于编译器不会自动生成互斥锁代码,可以提高效率

    @synchronized在底层维护了一个哈希表进行线程data的存储,通过链表表示可重入(即嵌套)的特性,虽然性能较低,但由于简单好用,使用频率很高

    NSLock、NSRecursiveLock底层是对pthread_mutex的封装

    NSCondition和NSConditionLock是条件锁,底层都是对pthread_mutex的封装,当满足某一个条件时才能进行操作,和信号量dispatch_semaphore类似

    锁的使用场景

    如果只是简单的使用,例如涉及线程安全,使用NSLock即可

    如果是循环嵌套,推荐使用@synchronized,主要是因为使用递归锁的 性能 不如 使用@synchronized的性能(因为在synchronized中无论怎么重入,都没有关系,而NSRecursiveLock可能会出现崩溃现象)

    在循环嵌套中,如果对递归锁掌握的很好,则建议使用递归锁,因为性能好

    如果是循环嵌套,并且还有多线程影响时,例如有等待、死锁现象时,建议使用@synchronized

    相关文章

      网友评论

          本文标题:锁的分析

          本文链接:https://www.haomeiwen.com/subject/jwlebktx.html