023*:定时器和锁原理 ( Dispatch_source_t NSTimer CADisplayLink) @synchronized(SyncList SyncData threadCount lockCount )(NSLock当前线程一把锁)(NSRecursiveLock当前线程递归锁相当多把锁)(NSCondition线程+锁)(NSConditionLock线程、条件和锁)
自旋锁和互斥锁:区别
1:而Spin lock(自旋锁)则不然,它属于busy-waiting类型的锁,如果线程A是使用pthread_spin_lock操作去请求锁,那么线程A就会一直在Core0上进行忙等待并不停的进行锁请求,直到得到这个锁为止。
自旋锁(Spin lock)
自旋锁与互斥锁有点类似,只是自旋锁不会引起调用者睡眠,如果自旋锁已经被别的执行单元保持,调用者就一直循环在那里看是否该自旋锁的保持者已经释放了锁,“自旋锁”的作用是为了解决某项资源的互斥使用。因为自旋锁不会引起调用者睡眠,所以自旋锁的效率远高于互斥锁。
自旋锁的不足之处:
1:自旋锁一直占用着CPU,他在未获得锁的情况下,一直运行(自旋),所以占用着CPU,如果不能在很短的时间内获得锁,这无疑会使CPU效率降低。
2:在用自旋锁时有可能造成死锁,当递归调用时有可能造成死锁。
1:定时器
Dispatch_source_t
的计时器与NSTimer
、CADisplayLink
比较?
1. NSTimer
存在延迟
,与RunLoop
和RunLoop Mode
有关
(如果Runloop
正在执行一个连续性运算,timer
会被延时触发
)- 需要手动
加入RunLoop
,且Model需要设置为forMode:NSCommonRunLoopMode
(NSDefaultRunLoopMode模式
,触摸事件会
让计时器暂停
)
NSTimer *timer = [NSTimer timerWithTimeInterval:5 target:self selector:@selector(timerAction) userInfo:nil repeats:YES]; [[NSRunLoop mainRunLoop] addTimer:timer forMode:NSCommonRunLoopMode];
2. CADisplayLink
-
屏幕刷新时
调用CADisplayLink
,以和屏幕刷新频率
同步的频率将特定内容
画在屏幕上
的定时器类。CADisplayLink
以特定模式
注册到runloop
后,每当屏幕显示内容刷新结束
的时候,runloop
就会向CADisplayLink
指定的target
发送一次指定的selector
消息,CADisplayLink
类对应的selector
就会被调用一次
。所以通常情况下,按照iOS设备屏幕
的刷新率60次/秒
-
CADisplayLink
在正常情况下会在每次刷新结束
都被调用
,精确度
相当高
。
但如果调用的方法
比较耗时
,超过
了屏幕刷新周期
,就会
导致跳过
若干次回调调用机会
。
如果CPU
过于繁忙
,无法保证
屏幕60次/秒
的刷新率
,就会导致跳过
若干次调用回调方法
的机会,跳过
次数取决CPU
的忙碌程度
。
3. dispatch_source_t 计时器
时间准确
,可以使用子线程
,解决
跑在主线程
上卡UI
的问题- 不依赖
runloop
,基于系统内核
进行处理,准确性
非常高
区别
NSTimer
会受到主线程
的任务的影响
,CADisplayLink
会受到CPU负载
的影响,产生延迟。dispatch_source_t
可以使用子线程
,而且可以使用leeway
参数指定
可以接受的误差
来降低
资源消耗
2:各种类型锁
的耗时比较
:
OSSpinLock(自旋锁) -> dispatch_semaphone(信号量) -> pthread_mutex(互斥锁) -> NSLock(互斥锁) -> NSCondition(条件锁) -> pthread_mutex(recursive 互斥递归锁) -> NSRecursiveLock(递归锁) -> NSConditionLock(条件锁) -> synchronized(互斥锁)
1:互斥锁
互斥锁
:互斥锁
是一种用于多线程编程
中,防止两条线程同时对同一公共资源(例如全局变量)进行读写的机制
,该目的是通过将代码切成一个个临界区
而达成
@synchronized(递归互斥锁)
NSLock
pthread_mutex
2:条件锁:条件锁
就是条件变量
,当进程的某些资源要求不满足
时就进入休眠
,即锁住了,当资源被分配到
了,条件锁打开
了,进程继续运行
NSCondition
NSConditionLock
3:递归锁:(递归互斥锁)递归锁就是同一个线程可以加锁N次而不会引发死锁
。递归锁是特殊的互斥锁
,即是带有递归性质的互斥锁
pthread_mutex(recursive)
NSRecursiveLock
4:信号量(互斥锁):信号量是一种更高级的同步机制
,互斥锁
可以说是semaphore在仅取值0/1时的特例
,信号量可以有更多的取值空间,用来实现更加复杂的同步
,而不单单是线程间互斥
dispatch_semaphore
一、@synchronized
开启汇编调试,发现@synchronized
在执行过程中,会走底层的objc_sync_enter
和 objc_sync_exit
方法
1:objc_sync_enter 分析
int objc_sync_enter(id obj) { int result = OBJC_SYNC_SUCCESS; if (obj) {//传入不为nil SyncData* data = id2data(obj, ACQUIRE);//重点 ASSERT(data); data->mutex.lock();//加锁 } else {//传入nil // @synchronized(nil) does nothing if (DebugNilSync) { _objc_inform("NIL SYNC DEBUG: @synchronized(nil); set a breakpoint on objc_sync_nil to debug"); } objc_sync_nil(); } return result; }
objc_sync_enter
源码实现
- 如果obj存在,则通过
id2data
方法获取相应的SyncData
,对threadCount、lockCount
进行递增
操作 - 如果obj不存在,则调用
objc_sync_nil
,通过符号断点得知,这个方法里面什么都没做,直接return了
2:objc_sync_exit 分析
进入objc_sync_exit
源码实现// End synchronizing on 'obj'. 结束对“ obj”的同步 // Returns OBJC_SYNC_SUCCESS or OBJC_SYNC_NOT_OWNING_THREAD_ERROR int objc_sync_exit(id obj) { int result = OBJC_SYNC_SUCCESS; if (obj) {//obj不为nil SyncData* data = id2data(obj, RELEASE); if (!data) { result = OBJC_SYNC_NOT_OWNING_THREAD_ERROR; } else { bool okay = data->mutex.tryUnlock();//解锁 if (!okay) { result = OBJC_SYNC_NOT_OWNING_THREAD_ERROR; } } } else {//obj为nil时,什么也不做 // @synchronized(nil) does nothing } return result; }
- 如果obj存在,则调用
id2data
方法获取对应的SyncData,对threadCount、lockCount
进行递减
操作 - 如果obj为
nil
,什么也不做
3:SyncData
typedef struct alignas(CacheLineSize) SyncData { struct SyncData* nextData;//类似链表结构 DisguisedPtr<objc_object> object; int32_t threadCount; // number of THREADS using this block recursive_mutex_t mutex;//递归锁 } SyncData;
SyncData
的定义,是一个结构体
,主要用来表示一个线程data
,类似于链表结构
,有next指向,且封装了recursive_mutex_t
属性,可以确认@synchronized
确实是一个递归互斥锁
进入SyncCache
的定义,也是一个结构体,用于存储线程,其中list[0]
表示当前线程的链表data
,主要用于存储SyncData
和lockCount
typedef struct { SyncData *data; unsigned int lockCount; // number of times THIS THREAD locked this block } SyncCacheItem; typedef struct SyncCache { unsigned int allocated; unsigned int used; SyncCacheItem list[0]; } SyncCache;
4:id2data 分析
static SyncData* id2data(id object, enum usage why) { spinlock_t *lockp = &LOCK_FOR_OBJ(object); SyncData **listp = &LIST_FOR_OBJ(object); SyncData* result = NULL; #if SUPPORT_DIRECT_THREAD_KEYS //tls(Thread Local Storage,本地局部的线程缓存) // Check per-thread single-entry fast cache for matching object bool fastCacheOccupied = NO; //通过KVC方式对线程进行获取 线程绑定的data SyncData *data = (SyncData *)tls_get_direct(SYNC_DATA_DIRECT_KEY); //如果线程缓存中有data,执行if流程 if (data) { fastCacheOccupied = YES; //如果在线程空间找到了data if (data->object == object) { // Found a match in fast cache. uintptr_t lockCount; result = data; //通过KVC获取lockCount,lockCount用来记录 被锁了几次,即 该锁可嵌套 lockCount = (uintptr_t)tls_get_direct(SYNC_COUNT_DIRECT_KEY); if (result->threadCount <= 0 || lockCount <= 0) { _objc_fatal("id2data fastcache is buggy"); } switch(why) { case ACQUIRE: { //objc_sync_enter走这里,传入的是ACQUIRE -- 获取 lockCount++;//通过lockCount判断被锁了几次,即表示 可重入(递归锁如果可重入,会死锁) tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)lockCount);//设置 break; } case RELEASE: //objc_sync_exit走这里,传入的why是RELEASE -- 释放 lockCount--; tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)lockCount); if (lockCount == 0) { // remove from fast cache tls_set_direct(SYNC_DATA_DIRECT_KEY, NULL); // atomic because may collide with concurrent ACQUIRE OSAtomicDecrement32Barrier(&result->threadCount); } break; case CHECK: // do nothing break; } return result; } } #endif // Check per-thread cache of already-owned locks for matching object SyncCache *cache = fetch_cache(NO);//判断缓存中是否有该线程 //如果cache中有,方式与线程缓存一致 if (cache) { unsigned int i; for (i = 0; i < cache->used; i++) {//遍历总表 SyncCacheItem *item = &cache->list[i]; if (item->data->object != object) continue; // Found a match. result = item->data; if (result->threadCount <= 0 || item->lockCount <= 0) { _objc_fatal("id2data cache is buggy"); } switch(why) { case ACQUIRE://加锁 item->lockCount++; break; case RELEASE://解锁 item->lockCount--; if (item->lockCount == 0) { // remove from per-thread cache 从cache中清除使用标记 cache->list[i] = cache->list[--cache->used]; // atomic because may collide with concurrent ACQUIRE OSAtomicDecrement32Barrier(&result->threadCount); } break; case CHECK: // do nothing break; } return result; } } // Thread cache didn't find anything. // Walk in-use list looking for matching object // Spinlock prevents multiple threads from creating multiple // locks for the same new object. // We could keep the nodes in some hash table if we find that there are // more than 20 or so distinct locks active, but we don't do that now. //第一次进来,所有缓存都找不到 lockp->lock(); { SyncData* p; SyncData* firstUnused = NULL; for (p = *listp; p != NULL; p = p->nextData) {//cache中已经找到 if ( p->object == object ) {//如果不等于空,且与object相似 result = p;//赋值 // atomic because may collide with concurrent RELEASE OSAtomicIncrement32Barrier(&result->threadCount);//对threadCount进行++ goto done; } if ( (firstUnused == NULL) && (p->threadCount == 0) ) firstUnused = p; } // no SyncData currently associated with object 没有与当前对象关联的SyncData if ( (why == RELEASE) || (why == CHECK) ) goto done; // an unused one was found, use it 第一次进来,没有找到 if ( firstUnused != NULL ) { result = firstUnused; result->object = (objc_object *)object; result->threadCount = 1; goto done; } } // Allocate a new SyncData and add to list. // XXX allocating memory with a global lock held is bad practice, // might be worth releasing the lock, allocating, and searching again. // But since we never free these guys we won't be stuck in allocation very often. posix_memalign((void **)&result, alignof(SyncData), sizeof(SyncData));//创建赋值 result->object = (objc_object *)object; result->threadCount = 1; new (&result->mutex) recursive_mutex_t(fork_unsafe_lock); result->nextData = *listp; *listp = result; done: lockp->unlock(); if (result) { // Only new ACQUIRE should get here. // All RELEASE and CHECK and recursive ACQUIRE are // handled by the per-thread caches above. if (why == RELEASE) { // Probably some thread is incorrectly exiting // while the object is held by another thread. return nil; } if (why != ACQUIRE) _objc_fatal("id2data is buggy"); if (result->object != object) _objc_fatal("id2data is buggy"); #if SUPPORT_DIRECT_THREAD_KEYS if (!fastCacheOccupied) { //判断是否支持栈存缓存,支持则通过KVC形式赋值 存入tls // Save in fast thread cache tls_set_direct(SYNC_DATA_DIRECT_KEY, result); tls_set_direct(SYNC_COUNT_DIRECT_KEY, (void*)1);//lockCount = 1 } else #endif { // Save in thread cache 缓存中存一份 if (!cache) cache = fetch_cache(YES);//第一次存储时,对线程进行了绑定 cache->list[cache->used].data = result; cache->list[cache->used].lockCount = 1; cache->used++; } } return result; }
- 第一步】首先在
tls
即线程缓存
中查找。-
在
tls_get_direct
方法中以线程为key
,通过KVC
的方式获取与之绑定的SyncData
,即线程data。其中的tls
(),表示本地局部的线程缓存
, -
判断获取的data是否存在,以及判断data中是否能找到对应的
object
-
如果都找到了,在
tls_get_direct
方法中以KVC的方式获取lockCount
,用来记录对象被锁了几次
(即锁的嵌套次数) -
如果data中的
threadCount
小于等于0,或者lockCount
小于等于0时,则直接崩溃 -
通过传入的
why
,判断是操作类型-
如果是
ACQUIRE
,表示加锁,则进行lockCount++
,并保存到tls缓存 -
如果是
RELEASE
,表示释放,则进行lockCount--
,并保存到tls缓存。如果lockCount
等于0
,从tls中移除
线程data -
如果是
CHECK
,则什么也不做
-
-
-
【第二步】如果tls中没有,则在
cache缓存
中查找-
通过
fetch_cache
方法查找cache缓存中是否有线程 -
如果有,则遍历
cache总表
,读取出线程对应的SyncCacheItem
-
从
SyncCacheItem
中取出data
,然后后续步骤与tls的匹配是一致的
-
-
【第三步】如果cache中也没有,即
第一次进来
,则创建SyncData
,并存储到相应缓存中- 如果在cache中找到线程,且与object相等,则进行
赋值
、以及threadCount++
- 如果在cache中没有找到,则
threadCount
等于1
- 如果在cache中找到线程,且与object相等,则进行
所以在id2data
方法中,主要分为三种情况
- 【第一次进来,没有锁】:
-
threadCount = 1
-
lockCount = 1
-
存储到
tls
-
- 【不是第一次进来,且是同一个线程】
-
tls中有数据,则
lockCount++
-
存储到
tls
-
- 【不是第一次进来,且是不同线程】
-
全局线程空间
进行查找线程 -
threadCount++
-
lockCount++
-
存储到
cache
-
总结:
哈希表
结构中通过SyncList
结构来组装多线程
的情况
SyncData
通过链表
的形式组装当前可重入
的情况锁:即可嵌套
- 下层通过
tls线程缓存、cache缓存
来进行处理
- 底层主要有两个东西:
lockCount、threadCount
,解决了递归互斥锁,解决了嵌套可重入
2:NSLock、NSRecursiveLock、@synchronized三者的区别
- (void)demo{ for (int i= 0; i<10; i++) { dispatch_async(dispatch_get_global_queue(0, 0), ^{ static void (^testMethod)(int);// 1. 声明 testMethod = ^(int value){ // 2. 实现Block块 if (value > 0) { NSLog(@"current value = %d",value); testMethod(value - 1); // 4. 嵌套调用block } }; testMethod(10); // 3.调用block }); } }
1:NSLock
锁,只锁了当前线程
,当我们使用异步多线程
操作时,可能出现线程
间相互等待
,死锁
的情况
所以如果使用NSLock锁
,必须在声明前加锁
和调用后解锁
,才能解决数据
的读写安全
问题。
但由于它具备递归特性
,我们在block内部
的递归前
加锁
,当前线程
也打印正常
,但是其他
线程堵塞
。
2:使用NSRecursiveLock
但由于它具备递归特性
,我们在block内部
的递归前
加锁
,当前线程
也打印正常
,但是其他
线程堵塞
。
当我们去掉for循环
,仅保持一个异步线程
,在block内部
的递归前后
分别加锁
和解锁
,
3:@synchronized
@synchronized
最简单,直接将block
内部代码包裹
起来,就可以实现数据读写安全
了
@synchronized
能对记录被锁对象
的所有线程
,每个线程
内部都是递归
持有任务
的。所以在异步多线程
中,它既不用担心递归
造成的锁释放
问题,也不需要关心线程间
的通信
问题。
NSLock、NSRecursiveLock、@synchronized三者的区别
NSLock
:
- 需要
手动创建
和释放
,需要在准确的时机
进行相应操作
。- 仅锁住
当前线程
的当前任务
,无法
自动实现线程间
的通讯
和递归
问题。
(上述NSLock
代码实际上没解决递归问题
,只是野蛮的
在代码最外层
上了一把大锁
,无视
递归内部层级
)
NSRecursiveLock
:
- 需要
手动创建
和释放
,需要在准确的时机
进行相应操作
。- 仅锁住
当前线程
的所有任务
,无法
自动实现线程间
的通讯
,但可以解决递归
问题。
(与NSLock
不同,NSRecursiveLock
是在递归时
,每层加锁
和解锁
。对锁的控制
更为精确
)
@synchronized
:
- 只需将
需要锁
的代码
都放在作用域内
,确定被锁对象
(被锁对象决定了锁的生命周期),@synchronized
就可以做到自动创建
和释放
。
锁
住被锁对象
的所有线程
的所有任务
,可
自动实现线程间
的通讯
,可以解决递归问题
。
(内部逻辑为:被锁对象
可持有多个线程
,每个线程
可递归
持有多个任务
)
所以我们日常使用
时,尽管@synchronized耗时较大
,但是它使用
非常简单
,根本不需要处理
各种异常情况
,也不需要
手动释放
。便捷性
和安全性
都非常好
。
3:NSCondition 多线程中用
NSCondition
的对象实际上是作为一个锁
和一个线程检查器
:
- 锁: 当检查
条件成立
时,保护数据源
- 线程检查器:
根据条件
判断是否
继续运行线程
(线程是否阻塞
方法:
[condition lock]:
加锁
(一般用于多线程
同时访问
、修改
同一个数据源
时,保证同一时间
内数据源只能被访问
、修改一次
,其他线程
的命令需要在lock外等待
,只有unlock后
,才可访问
)[condition unlock]:
解锁(与lock配对
使用)[condition wait]:
让当前线程
处于等待
状态[condition signal]:
CPU发信号
告诉所有线程
不用再等待,可以继续执行
。
- 测试案例:
有2个生产者
和2个消费者
,各自
生产和消费各50次
。当消费者购买
时,没货
就排队等待
,有货
就卖货
,一次
只能一个人买
, 每当生产者生产
出一个货物
时,都会广播
告诉所有等待
的消费者
,进行继续购买
。
这样保障
了货品
的数据安全
(有货才能卖,一次卖一个,没货就等待)
@interface ViewController () @property (nonatomic, assign) NSUInteger ticketCount; @property (nonatomic, strong) NSCondition *testCondition; @end @implementation ViewController - (void)viewDidLoad { [super viewDidLoad]; self.ticketCount = 0; [self demo]; } - (void)demo{ _testCondition = [[NSCondition alloc] init]; //创建生产-消费者 for (int i = 0; i < 50; i++) { dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_HIGH, 0), ^{ [self producer]; // 生产者 }); dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_HIGH, 0), ^{ [self consumer]; // 消费者 }); dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_HIGH, 0), ^{ [self consumer]; // 消费者 }); dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_HIGH, 0), ^{ [self producer]; // 生产者 }); } } - (void)producer{ [_testCondition lock]; // 操作的多线程影响 self.ticketCount = self.ticketCount + 1; NSLog(@"生产一个 现有 count %zd",self.ticketCount); [_testCondition signal]; // 发送信号 [_testCondition unlock]; } - (void)consumer{ [_testCondition lock]; // 操作的多线程影响 if (self.ticketCount == 0) { NSLog(@"等待 count %zd",self.ticketCount); [_testCondition wait]; // 线程等待 } //注意消费行为,要在等待条件判断之后 self.ticketCount -= 1; NSLog(@"消费一个 还剩 count %zd ",self.ticketCount); [_testCondition unlock]; } @end
打印结果:(生产消费数据是安全的)
但是NSCondition
使用非常麻烦
,需要在合适的地方
手动加锁
、等待
、发送信号
、释放
于是基于NSCondition
,出现了NSConditionLock
锁
4. NSConditionLock:
方法:
-
[xxx lock]:
加锁
- 如果
没有
其他线程
获得锁
(不需要判断内部的condition),那他能执行
后续代码
,同时设置当前线程
获得锁
。 - 如果已经
有
其他线程
获得锁
(可能是条件锁,或者无条件锁),则等待
,直到
其他线程解锁
- 如果
-
[xxx lockWhenCondition: A条件]:
- 在
[xxx lock]
的基础
上,没有
其他线程
获得锁
,且内部
的condition
条件满足A条件
时,才
会执行
后续代码
并让当前线程
获得锁
。否则
依旧是等待
- 在
-
[xxx unlockWithCondition: A条件]:
释放
锁- 把
内部的condition
设置为A条件
,并broadcast
广播告诉所有等待的线程
。
- 把
-
return = [xxx lockWhenCondition: A条件 beforeDate: A时间]:
没有
其他线程
获得锁
,且满足A条件
,且在A时间
之前,可以执行
后续代码
并让当前线程
获得锁
。- 返回值为
NO
,表示没有改变
锁的状态
-
condition
是整数
,内部通过整数比较条件
通过下面案例分析:
- (void)demo{ NSConditionLock *conditionLock = [[NSConditionLock alloc] initWithCondition:2]; dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_HIGH, 0), ^{ [conditionLock lockWhenCondition:1]; // conditoion = 1 内部 Condition 匹配 NSLog(@"线程 1"); [conditionLock unlockWithCondition:0]; // 解锁并把conditoion设置为0 }); dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_LOW, 0), ^{ [conditionLock lockWhenCondition:2]; // conditoion = 2 内部 Condition 匹配 sleep(0.1); NSLog(@"线程 2"); [conditionLock unlockWithCondition:1]; // 解锁并把conditoion设置为1 }); dispatch_async(dispatch_get_global_queue(0, 0), ^{ [conditionLock lock]; NSLog(@"线程 3"); [conditionLock unlock]; }); }
分析:
- 有三个
并行队列+异步函数
,分别处理三个任务
,三个任务
的执行顺序无序
。
(并行队列+异步线程
是的执行顺序
是不固定的,取决于任务资源大小
和cpu的调度
) - 我们init时,将condition设置为2。
- 任务1: 必须当前线程
没被锁
,且condition
为1
时,我才加锁
并执行后面代码
。 - 任务2: 必须当前线程
没被锁
,且condition
为2
时,我才加锁
并执行后面代码
。 - 任务3: 必须当前线程
没被锁
,我可以加锁
并执行后面代码
。
- 任务1: 必须当前线程
所以任务3
的执行时期
并不确定
,只要当前线程没被锁
,随时都可以。 任务1
一定在任务2
的后面
:
- 因为
condition
初始值为2
,只有任务2
满足条件,任务2执行完
后,将condition
设置为1
,并broadcast
广播给所有等待的线程
。 - 此时
正在等待
的任务1
的线程收到广播
,检查任务1
,满足条件
,任务1
执行完后,将condition
设置为0
,并broadcast
广播给所有等待的线程
。
Swift Foundation
源码中搜索NSConditionLock
,可以看到循环检查线程、条件
和上锁过程
: