[关闭]
@qidiandasheng 2022-08-14T17:45:49.000000Z 字数 26087 阅读 3818

iOS里的线程同步(锁机制)


iOS理论


前言

什么是线程安全问题

如果一段代码所在的进程中有多个线程在同时运行,那么这些线程就有可能会同时运行这段代码。假如多个线程每次运行结果和单线程运行的结果是一样的,而且其他的变量的值也和预期的是一样的,就是线程安全的。或者说:一个类或者程序所提供的接口对于线程来说是原子操作或者多个线程之间的切换不会导致该接口的执行结果存在二义性,也就是说我们不用考虑同步的问题。

由于可读写的全局变量及静态变量可以在不同线程修改,所以这两者也通常是引起线程安全问题的所在。在 Objective-C 中还包括属性和实例变量(实际上属性和实例变量本质上也可以看做类内的全局变量)。

所以就需要引入一种同步锁机制(lock)来防止多线程操作同一份代码而引发的安全问题。

相关概念

数据破坏

在理解如何保障临界代码的安全之前,我们需要了解数据为什么在多线程环境下被破坏。以简单的i++为例,这句代码将i自增一次,在编译成汇编代码后实际上会有三步操作:

  1. movl -0x24(%rbp), %r8d
  2. addl $0x1, %r8d
  3. movl %r8d, -0x24(%rbp)

完成一次i++总共分为三步:

假设线程A执行i++这句代码,在完成将计算后的数值存储回i的内存之前,线程B也开始执行这句代码,最终的结果是两次i++之后,值仍然为1,这时候数据就发生了破坏。
导出图片Mon Jun 29 2020 22_21_56 GMT+0800 (中国标准时间).png-500.8kB

这时候使用线程锁,那么B就会等待A完成存储数据后才能执行,加锁后,B在执行i++之前会检测指令是否被锁住。如果被锁住,则开始休眠,直到A完成操作后被唤醒继续执行代码。这时候i++在多线程环境下是安全的。
导出图片Mon Jun 29 2020 22_24_22 GMT+0800 (中国标准时间).png-594.3kB

原子性

nonatomic(非原子性):
非原子属性,线程不安全的,不会加锁效率高。在像iPhone这种内存较小的移动设备上,如果没有多线程间的通信,那么nonatomic就是一个非常好的选择。

atomic(原子性):
原子属性,读写安全,但线程并不安全的,内部加了自旋锁,消耗大量资源效率相对低,会给系统自动生成的getter/setter方法会进行加锁操作。

这里所说的原子性就是上面说的数据破坏中的加锁,单独的多个写操作是原子性的,也就是上面所说的写操作三步完成后才能进行另一次写操作,所以并不会造成数据破坏。

但读写安全并不代表线程安全,比如以下的例子:

如果线程 A 调了 getter,与此同时线程 B 、线程 C 都调了 setter——那最后线程 A get 到的值,有3种可能:可能是 B、C set 之前原始的值,也可能是 B set 的值,也可能是 C set 的值。同时,最终这个属性的值,可能是 B set 的值,也有可能是 C set 的值。所以atomic并不能保证对象的线程安全。

优先级反转

主要出现在自旋锁上面,等待锁的线程会处于忙等(busy-wait) 状态,一直占用着 CPU 资源。循环等待是一种很大的浪费,但浪费还不是循环等待的唯一问题,它还可能造成 CPU 调度的 优先级反转(倒挂)。

在 iOS 中,系统维护了 5 个不同的线程优先级/Qos:backgroundutilitydefaultuser-initiateduser-interactive。高优先级线程始终会在低优先级线程前执行,一个线程不会受到比它更低优先级线程的干扰。这种线程调度算法存在潜在的优先级反转的问题。

优先级反转就是高优先级的线程等待低优先级的线程。如果一个低优先级的线程获得锁并访问共享资源,这时一个高优先级的线程也尝试获得这个锁,它会处于忙等状态状态从而占用大量 CPU 片。此时低优先级线程无法与高优先级线程争夺 CPU 时间(抢不过),从而导致任务迟迟完不成,无法释放 lock。

比如两个线程A和B,A的优先级高于B,但这时候B线程先获得了锁,然后A线程会进入忙等状态。但由于A的优先级较高,所以获得了CPU资源,因此B无法获得CPU资源执行下面的任务。所以就变成了A等待B释放锁,B又等待着A释放CPU资源。最后形成了一个循环无法结束造成死锁。

读写者问题

有读者和写者两组并发线程,共享同一数据,当两个或以上的读线程同时访问共享数据时不会产生副作用,但若某个写线程和其他线程(读线程或写线程)同时访问共享数据时则可能导致数据不一致的错误。因此要求:

NSLock(效率不高的锁)

  1. //实现一个简单的cache
  2. - (void)setCache:(id)cacheObject forKey:(NSString *)key {
  3. if (key.length == 0) {
  4. return;
  5. }
  6. [_cacheLock lock];
  7. self.cacheDic[key] = cacheObject;
  8. ...
  9. [_cacheLock unlock];
  10. }
  11. - (id)cacheForKey:(NSString *key) {
  12. if (key.length == 0) {
  13. return nil;
  14. }
  15. [_cacheLock lock];
  16. id cacheObject = self.cacheDic[key];
  17. ...
  18. [_cacheLock unlock];
  19. return cacheObject;
  20. }

上述代码用互斥锁来实现多线程读写,做到了数据的安全读写,但是效率却并不是最高的,因为这种情况下,虽然写操作和其他操作之间是互斥的,但同时读操作之间却也是互斥的,这会浪费cpu资源。

那我们如果读操作不加锁呢?那读操作就不会互斥了啊,但其实这样读操作和写操作就并不互斥了,因为先写再读的话那没问题,读操作要等写操作解锁。然而先读操作的话,读的过程中容易被写操作侵占资源,造成线程不安全。

  1. //实现一个简单的cache
  2. - (void)setCache:(id)cacheObject forKey:(NSString *)key {
  3. if (key.length == 0) {
  4. return;
  5. }
  6. [_cacheLock lock];
  7. self.cacheDic[key] = cacheObject;
  8. ...
  9. [_cacheLock unlock];
  10. }
  11. - (id)cacheForKey:(NSString *key) {
  12. if (key.length == 0) {
  13. return nil;
  14. }
  15. id cacheObject = self.cacheDic[key];
  16. ...
  17. return cacheObject;
  18. }

pthread_rwlock_t(读者写者锁)

  1. // Initialization of lock, pthread_rwlock_t is a value type and must be declared as var in order to refer it later. Make sure not to copy it.
  2. var lock = pthread_rwlock_t()
  3. pthread_rwlock_init(&lock, nil)
  4. // Protecting read section:
  5. pthread_rwlock_rdlock(&lock)
  6. // Read shared resource
  7. pthread_rwlock_unlock(&lock)
  8. // Protecting write section:
  9. pthread_rwlock_wrlock(&lock)
  10. // Write shared resource
  11. pthread_rwlock_unlock(&lock)
  12. // Clean up
  13. pthread_rwlock_destroy(&lock)

接口简洁但是却不友好,需要注意pthread_rwlock_t是值类型,用=赋值会直接拷贝,不小心就会浪费内存,另外用完后还需要记得销毁,容易出错

GCD barrier(读者写者锁)

dispatch_barrier_async / dispatch_barrier_sync并不是专门用来解决读者写者问题的,barrier主要用于以下场景:当执行某一任务A时,需要该队列上之前添加的所有操作都执行完,而之后添加进来的任务,需要等待任务A执行完毕才可以执行,从而达到将任务A隔离的目的。

如果将barrier任务之前和之后的并发任务换为读操作,barrier任务本身换为写操作,就可以将dispatch_barrier_async / dispatch_barrier_sync当做读者写者锁来使用了。

  1. //实现一个简单的cache(使用读者写者锁)
  2. static dispatch_queue_t queue = dispatch_queue_create("com.gfzq.testQueue", DISPATCH_QUEUE_CONCURRENT);
  3. - (void)setCache:(id)cacheObject forKey:(NSString *)key {
  4. if (key.length == 0) {
  5. return;
  6. }
  7. dispatch_barrier_async(queue, ^{
  8. self.cacheDic[key] = cacheObject;
  9. ...
  10. });
  11. }
  12. - (id)cacheForKey:(NSString *key) {
  13. if (key.length == 0) {
  14. return nil;
  15. }
  16. __block id cacheObject = nil;
  17. dispatch_async(queue, ^{
  18. cacheObject = self.cacheDic[key];
  19. ...
  20. });
  21. return cacheObject;
  22. }

这样实现的cache就可以并发执行读操作,同时又有效地隔离了写操作,兼顾了安全和效率。

atomic手动实现setter和getter

我们上面说过atomic系统内部会自动生成settergetter方法,并在内部实现自旋锁:

  1. // getter
  2. id objc_getProperty(id self, SEL _cmd, ptrdiff_t offset, BOOL atomic)
  3. {
  4. // ...
  5. if (!atomic) return *slot;
  6. // Atomic retain release world
  7. spinlock_t& slotlock = PropertyLocks[slot];
  8. slotlock.lock();
  9. id value = objc_retain(*slot);
  10. slotlock.unlock();
  11. // ...
  12. }
  1. // setter
  2. static inline void reallySetProperty(id self, SEL _cmd, id newValue, ptrdiff_t offset, bool atomic, bool copy, bool mutableCopy)
  3. {
  4. // ...
  5. if (!atomic) {
  6. oldValue = *slot;
  7. *slot = newValue;
  8. } else {
  9. spinlock_t& slotlock = PropertyLocks[slot];
  10. slotlock.lock();
  11. oldValue = *slot;
  12. *slot = newValue;
  13. slotlock.unlock();
  14. }
  15. // ...
  16. }

但是当我们自己实现settergetter方法时就需要自己加锁了,这里我们用上面提到的GCD barrier来实现,这样在做到原子性的同时,getter之间还可以并发执行,比直接把settergetter都放到串行队列或者加普通锁要更高效。

  1. @property (atomic, copy) NSString *someString;
  2. - (NSString *)someString {
  3. __block NSString *tempString;
  4. dispatch_async(_syncQueue, ^{
  5. tempString = _someString;
  6. });
  7. return tempString;
  8. }
  9. - (void)setSomeString :(NSString *)someString {
  10. dispatch_barrier_async(_syncQueue, ^{
  11. _someString = someString
  12. ...
  13. }
  14. }

使用场景

并非所有的读写场景都要用读者写者锁,比如YYCache

  1. //读cache
  2. - (id)objectForKey:(id)key {
  3. if (!key) return nil;
  4. pthread_mutex_lock(&_lock);
  5. _YYLinkedMapNode *node = CFDictionaryGetValue(_lru->_dic, (__bridge const void *)(key));
  6. if (node) {
  7. node->_time = CACurrentMediaTime();
  8. [_lru bringNodeToHead:node];
  9. }
  10. pthread_mutex_unlock(&_lock);
  11. return node ? node->_value : nil;
  12. }
  1. //写cache
  2. - (void)setObject:(id)object forKey:(id)key withCost:(NSUInteger)cost {
  3. if (!key) return;
  4. if (!object) {
  5. [self removeObjectForKey:key];
  6. return;
  7. }
  8. pthread_mutex_lock(&_lock);
  9. _YYLinkedMapNode *node = CFDictionaryGetValue(_lru->_dic, (__bridge const void *)(key));
  10. NSTimeInterval now = CACurrentMediaTime();
  11. if (node) {
  12. _lru->_totalCost -= node->_cost;
  13. _lru->_totalCost += cost;
  14. node->_cost = cost;
  15. node->_time = now;
  16. node->_value = object;
  17. [_lru bringNodeToHead:node];
  18. } else {
  19. node = [_YYLinkedMapNode new];
  20. node->_cost = cost;
  21. node->_time = now;
  22. node->_key = key;
  23. node->_value = object;
  24. [_lru insertNodeAtHead:node];
  25. }
  26. if (_lru->_totalCost > _costLimit) {
  27. dispatch_async(_queue, ^{
  28. [self trimToCost:_costLimit];
  29. });
  30. }
  31. if (_lru->_totalCount > _countLimit) {
  32. _YYLinkedMapNode *node = [_lru removeTailNode];
  33. if (_lru->_releaseAsynchronously) {
  34. dispatch_queue_t queue = _lru->_releaseOnMainThread ? dispatch_get_main_queue() : YYMemoryCacheGetReleaseQueue();
  35. dispatch_async(queue, ^{
  36. [node class]; //hold and release in queue
  37. });
  38. } else if (_lru->_releaseOnMainThread && !pthread_main_np()) {
  39. dispatch_async(dispatch_get_main_queue(), ^{
  40. [node class]; //hold and release in queue
  41. });
  42. }
  43. }
  44. pthread_mutex_unlock(&_lock);
  45. }

这里的cache由于使用了LRU淘汰策略,每次在读cache的同时,会将本次的cache放到数据结构的最前面,从而延缓最近使用的cache被淘汰的时机,因为每次读操作的同时也会发生写操作,所以这里直接使用pthread_mutex互斥锁,而没有使用读者写者锁。

所以多线程读写锁场景要符合:
(1)存在单纯的读操作(即读任务里没有同时包含写操作);
(2)读者数量较多,而写者数量较少。

自旋锁和互斥锁

自旋锁和互斥锁:


补充

在iOS中使用自旋锁其实是会有安全问题的,主要就是在线程的高低优先级时产生的问题。
具体来说,如果一个低优先级的线程获得锁并访问共享资源,这时一个高优先级的线程也尝试获得这个锁,它会处于 spin lock 的忙等状态从而占用大量 CPU。此时低优先级线程无法与高优先级线程争夺 CPU 时间,从而导致任务迟迟完不成、无法释放 lock。

具体可以参考ibireme的这篇文章:不再安全的 OSSpinLock。

线程不安全例子

以下例子是线程不安全的:

  1. @property(nonatomic,assign)int ticketsCount;
  2. - (void)ticketTest{
  3. self.ticketsCount = 50;
  4. dispatch_queue_t queue = dispatch_get_global_queue(0, 0);
  5. for (NSInteger i = 0; i < 5; i++) {
  6. dispatch_async(queue, ^{
  7. for (int i = 0; i < 10; i++) {
  8. [self sellingTickets];
  9. }
  10. });
  11. }
  12. }
  13. //卖票
  14. - (void)sellingTickets{
  15. int oldMoney = self.ticketsCount;
  16. sleep(.2);
  17. oldMoney -= 1;
  18. self.ticketsCount = oldMoney;
  19. NSLog(@"当前剩余票数-> %d", oldMoney);
  20. }

如果我们把@property(nonatomic,assign)int ticketsCount;改为@property(atomic,assign)int ticketsCount;。我们发现最后剩余的票数也并不为0,这也就验证了上面所说的原子性只表示的是单独读写的原子性,并不能保证线程安全。

打个比方比如我们线程一在读int oldMoney = self.ticketsCount;时,线程二也读了这个值,则这两个读之前的操作是原子性的,并没有影响。但线程一的写和线程二的读并不是互斥的,线程二的读并不用等线程一的写完成,所以线程一和线程二读的值就可能一样,这样就造成了我们所说的线程不安全。

所以原来的原子性的粒度只分到了读和写上,那我们现在把一次读写当成一次“原子操作”,就是读写合用一把锁,也就解决了上面的问题。

以下是线程安全的例子:

  1. @property(nonatomic,assign)int ticketsCount;
  2. pthread_mutex_t mutex;
  3. - (void)viewDidLoad {
  4. pthread_mutex_init(&mutex, NULL);
  5. }
  6. - (void)ticketTest{
  7. self.ticketsCount = 50;
  8. dispatch_queue_t queue = dispatch_get_global_queue(0, 0);
  9. for (NSInteger i = 0; i < 5; i++) {
  10. dispatch_async(queue, ^{
  11. for (int i = 0; i < 10; i++) {
  12. [self sellingTickets];
  13. }
  14. });
  15. }
  16. }
  17. //卖票
  18. - (void)sellingTickets{
  19. pthread_mutex_lock(&mutex);
  20. int oldMoney = self.ticketsCount;
  21. sleep(.2);
  22. oldMoney -= 1;
  23. self.ticketsCount = oldMoney;
  24. pthread_mutex_unlock(&mutex);
  25. NSLog(@"当前剩余票数-> %d", oldMoney);
  26. }

iOS中线程同步方案(GCD和各种锁)

锁的性能分析:

我们现在用Objective-C中几种不同方式来实现锁。

我们假设创建了一个类StudentsObject,这是一个操作数据库的类,有两个方法addStudentremoveStudent。我们不希望操作数据库时有多个线程同时调用这个对象,产生不可预期的问题,我们希望addStudentremoveStudent是互斥的。

类定义如下:

  1. #import "StudentsObject.h"
  2. @implementation StudentsObject
  3. - (void)addStudent{
  4. NSLog(@"%@",NSStringFromSelector(_cmd));
  5. }
  6. - (void)removeStudent{
  7. NSLog(@"%@",NSStringFromSelector(_cmd));
  8. }
  9. @end

GCD之同步队列

  1. - (void)dispatch_queue_serial{
  2. StudentsObject *obj = [[StudentsObject alloc] init];
  3. dispatch_queue_t queue = dispatch_queue_create("myQueue", DISPATCH_QUEUE_SERIAL);
  4. dispatch_async(queue, ^{
  5. [obj addStudent];
  6. sleep(3);
  7. });
  8. dispatch_async(queue, ^{
  9. [obj removeStudent];
  10. });
  11. }

输出:

  1. 2020-07-02 18:30:53.886143+0800 DSLockDemo[72683:4712327] addStudent
  2. 2020-07-02 18:30:56.890092+0800 DSLockDemo[72683:4712327] removeStudent

GCD之栅栏函数

  1. dispatch_queue_t queue = dispatch_queue_create(0, DISPATCH_QUEUE_CONCURRENT);
  2. dispatch_async(queue, ^{
  3. __block BOOL isExecuted = NO;
  4. NSURLSessionDataTask *task = [[NSURLSession sharedSession] dataTaskWithRequest:[NSURLRequest requestWithURL:[NSURL URLWithString:@"http://www.baidu.com"]] completionHandler:^(NSData * _Nullable data, NSURLResponse * _Nullable response, NSError * _Nullable error) {
  5. NSLog(@"A");
  6. isExecuted = YES;
  7. }] ;
  8. [task resume];
  9. while (isExecuted == NO) {
  10. [[NSRunLoop currentRunLoop] runMode:NSDefaultRunLoopMode beforeDate:[NSDate distantFuture]];
  11. }
  12. });
  13. dispatch_async(queue, ^{
  14. __block BOOL isExecuted = NO;
  15. NSURLSessionDataTask *task = [[NSURLSession sharedSession] dataTaskWithRequest:[NSURLRequest requestWithURL:[NSURL URLWithString:@"http://www.baidu.com"]] completionHandler:^(NSData * _Nullable data, NSURLResponse * _Nullable response, NSError * _Nullable error) {
  16. NSLog(@"B");
  17. isExecuted = YES;
  18. }] ;
  19. [task resume];
  20. while (isExecuted == NO) {
  21. [[NSRunLoop currentRunLoop] runMode:NSDefaultRunLoopMode beforeDate:[NSDate distantFuture]];
  22. }
  23. });
  24. //让barrier之前的线程执行完成之后才会执行barrier后面的操作
  25. dispatch_barrier_async(queue, ^{
  26. __block BOOL isExecuted = NO;
  27. NSURLSessionDataTask *task = [[NSURLSession sharedSession] dataTaskWithRequest:[NSURLRequest requestWithURL:[NSURL URLWithString:@"http://www.baidu.com"]] completionHandler:^(NSData * _Nullable data, NSURLResponse * _Nullable response, NSError * _Nullable error) {
  28. NSLog(@"拿到了A的值");
  29. isExecuted = YES;
  30. }] ;
  31. [task resume];
  32. while (isExecuted == NO) {
  33. [[NSRunLoop currentRunLoop] runMode:NSDefaultRunLoopMode beforeDate:[NSDate distantFuture]];
  34. }
  35. });
  36. dispatch_async(queue, ^{
  37. __block BOOL isExecuted = NO;
  38. NSURLSessionDataTask *task = [[NSURLSession sharedSession] dataTaskWithRequest:[NSURLRequest requestWithURL:[NSURL URLWithString:@"http://www.baidu.com"]] completionHandler:^(NSData * _Nullable data, NSURLResponse * _Nullable response, NSError * _Nullable error) {
  39. NSLog(@"C");
  40. isExecuted = YES;
  41. }] ;
  42. [task resume];
  43. while (isExecuted == NO) {
  44. [[NSRunLoop currentRunLoop] runMode:NSDefaultRunLoopMode beforeDate:[NSDate distantFuture]];
  45. }
  46. });
  47. dispatch_async(queue, ^{
  48. __block BOOL isExecuted = NO;
  49. NSURLSessionDataTask *task = [[NSURLSession sharedSession] dataTaskWithRequest:[NSURLRequest requestWithURL:[NSURL URLWithString:@"http://www.baidu.com"]] completionHandler:^(NSData * _Nullable data, NSURLResponse * _Nullable response, NSError * _Nullable error) {
  50. NSLog(@"D");
  51. isExecuted = YES;
  52. }] ;
  53. [task resume];
  54. while (isExecuted == NO) {
  55. [[NSRunLoop currentRunLoop] runMode:NSDefaultRunLoopMode beforeDate:[NSDate distantFuture]];
  56. }
  57. });

GCD之dispatch_group

  1. dispatch_queue_t queue = dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0);
  2. dispatch_group_t group = dispatch_group_create();
  3. dispatch_group_async(group, queue, ^{ NSLog(@"A"); });
  4. dispatch_group_async(group, queue, ^{ NSLog(@"B"); });
  5. dispatch_group_async(group, queue, ^{ NSLog(@"C"); });
  6. dispatch_group_async(group, queue, ^{ NSLog(@"D"); });
  7. dispatch_group_notify(group, dispatch_get_main_queue(), ^{
  8. NSLog(@"all end");
  9. });

NSOperation

  1. NSOperationQueue *queue = [[NSOperationQueue alloc] init];
  2. NSBlockOperation *p1 = [NSBlockOperation blockOperationWithBlock:^{
  3. __block BOOL isExecuted = NO;
  4. NSURLSessionDataTask *task = [[NSURLSession sharedSession] dataTaskWithRequest:[NSURLRequest requestWithURL:[NSURL URLWithString:@"http://www.baidu.com"]] completionHandler:^(NSData * _Nullable data, NSURLResponse * _Nullable response, NSError * _Nullable error) {
  5. NSLog(@"A");
  6. isExecuted = YES;
  7. }] ;
  8. [task resume];
  9. while (isExecuted == NO) {
  10. [[NSRunLoop currentRunLoop] runMode:NSDefaultRunLoopMode beforeDate:[NSDate distantFuture]];
  11. }
  12. }];
  13. NSBlockOperation *p2 = [NSBlockOperation blockOperationWithBlock:^{
  14. __block BOOL isExecuted = NO;
  15. NSURLSessionDataTask *task = [[NSURLSession sharedSession] dataTaskWithRequest:[NSURLRequest requestWithURL:[NSURL URLWithString:@"http://www.baidu.com"]] completionHandler:^(NSData * _Nullable data, NSURLResponse * _Nullable response, NSError * _Nullable error) {
  16. NSLog(@"B");
  17. isExecuted = YES;
  18. }] ;
  19. [task resume];
  20. while (isExecuted == NO) {
  21. [[NSRunLoop currentRunLoop] runMode:NSDefaultRunLoopMode beforeDate:[NSDate distantFuture]];
  22. }
  23. }];
  24. NSBlockOperation *p3 = [NSBlockOperation blockOperationWithBlock:^{
  25. __block BOOL isExecuted = NO;
  26. NSURLSessionDataTask *task = [[NSURLSession sharedSession] dataTaskWithRequest:[NSURLRequest requestWithURL:[NSURL URLWithString:@"http://www.baidu.com"]] completionHandler:^(NSData * _Nullable data, NSURLResponse * _Nullable response, NSError * _Nullable error) {
  27. NSLog(@"C");
  28. isExecuted = YES;
  29. }] ;
  30. [task resume];
  31. while (isExecuted == NO) {
  32. [[NSRunLoop currentRunLoop] runMode:NSDefaultRunLoopMode beforeDate:[NSDate distantFuture]];
  33. }
  34. }];
  35. //表示p3这个操作要等p1这个操作先完成
  36. [p3 addDependency:p1];
  37. //表示p3这个操作要等p1这个操作先完成
  38. [p3 addDependency:p2];
  39. //!!!所以p3一定是最后输出,p1和p2不一定。
  40. // waitUntilFinished是否阻塞当前线程
  41. [queue addOperations:@[p1,p2,p3] waitUntilFinished:YES];
  42. // 如果是NO,那么这行打印就是随机的, 反之就是等A,B,C都打印完之后才执行
  43. NSLog(@"HAHA");

OSSpinLock

OSSPinlock 就是自旋锁,速度应该是最快的锁,等待锁的线程会处于 忙等(busy-wait) 状态,一直占用着 CPU 资源,因为它需要不断的去尝试获取锁。这种忙等状态的锁会造成一个很严重的问题,那就是优先级反转,也称为优先级倒挂。

所以,除非开发者能保证访问锁的线程全部都处于同一优先级,否则 iOS 系统中所有类型的自旋锁都不能再使用了。当然苹果还在用,SideTable 中就包含了一个自旋锁,用于对引用计数的增减操作,这种轻量操作也是自旋锁的使用场景。

OSSPinlock在iOS 10及以上被废弃。

  1. #import <libkern/OSAtomic.h>
  2. __block OSSpinLock oslock = OS_SPINLOCK_INIT;
  3. StudentsObject *obj = [[StudentsObject alloc] init];
  4. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  5. OSSpinLockLock(&oslock);
  6. [obj addStudent];
  7. sleep(3);
  8. OSSpinLockUnlock(&oslock);
  9. });
  10. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  11. sleep(1);//以保证让线程2的代码后执行
  12. OSSpinLockLock(&oslock);
  13. [obj removeStudent];
  14. OSSpinLockUnlock(&oslock);
  15. });

os_unfair_lock

os_unfair_lock 是作为 OSSpinLock 的替代方案被提出来的,iOS 10.0 之后开始支持。不过从底层调用来看,等待 os_unfair_lock 的线程会处于休眠状态,而并非 OSSpinLock 的忙等状态,线程的切换是需要资源的,所以它的效率不如 OSSpinLock

  1. #import <os/lock.h>
  2. - (void)useOS_Unfair_Lock{
  3. __block os_unfair_lock unfairLock = OS_UNFAIR_LOCK_INIT;
  4. StudentsObject *obj = [[StudentsObject alloc] init];
  5. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  6. os_unfair_lock_lock(&unfairLock);
  7. [obj addStudent];
  8. sleep(3);
  9. os_unfair_lock_unlock(&unfairLock);
  10. });
  11. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  12. sleep(1);//以保证让线程2的代码后执行
  13. os_unfair_lock_lock(&unfairLock);
  14. [obj removeStudent];
  15. os_unfair_lock_unlock(&unfairLock);
  16. });
  17. }

dispatch_semaphore

dispatch_semaphore 是 GCD 实现的信号量,信号量是基于计数器的一种多线程同步机制,内部有一个可以原子递增或递减的值,关于信号量的 API 主要是三个,createwaitsignal。使用它我们也可以来构建一把“锁”。从本质意义上讲,信号量与锁是有区别的。

信号量在初始化时要指定 value,随后内部将这个 value 存储起来。实际操作会存在两个 value,一个是当前的value,一个是记录初始 value。
信号的 wait 和 signal 是互逆的两个操作。如果 value 大于等于 0,前者将 value 减一,此时如果 value 小于 0 就一直等待。后者将 value 加一。
初始 value 必须大于等于 0,如果为 0 并随后调用 wait 方法,线程将被阻塞直到别的线程调用了 signal 方法。

  1. //主线程中
  2. StudentsObject *obj = [[StudentsObject alloc] init];
  3. dispatch_semaphore_t semaphore = dispatch_semaphore_create(1);
  4. //线程1
  5. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  6. dispatch_semaphore_wait(semaphore, DISPATCH_TIME_FOREVER);
  7. [obj addStudent];
  8. sleep(3);
  9. dispatch_semaphore_signal(semaphore);
  10. });
  11. //线程2
  12. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  13. sleep(1);
  14. dispatch_semaphore_wait(semaphore, DISPATCH_TIME_FOREVER);
  15. [obj removeStudent];
  16. dispatch_semaphore_signal(semaphore);
  17. });

输出:

  1. 2016-09-06 21:53:58.916 DSLockDemo[77879:9698257] addStudent
  2. 2016-09-06 21:54:01.922 DSLockDemo[77879:9698220] removeStudent

还可以线程线程的最大并发数:

  1. /**
  2. 限制线程最大并发数
  3. */
  4. - (void)semaphoreTest3 {
  5. dispatch_semaphore_t semaphore = dispatch_semaphore_create(3);
  6. dispatch_queue_t queue = dispatch_get_global_queue(0, 0);
  7. for (int i = 0; i < 100; i++) {
  8. dispatch_async(queue, ^{
  9. dispatch_semaphore_wait(semaphore, DISPATCH_TIME_FOREVER);
  10. NSLog(@"running");
  11. sleep(1);
  12. NSLog(@"completed...................");
  13. dispatch_semaphore_signal(semaphore);
  14. });
  15. }
  16. }

pthread_mutex(NORMAL)

pthread_mutex 有几种类型:

  1. /*
  2. * Mutex type attributes
  3. */
  4. //默认类型,普通锁,当一个线程加锁后,其余请求锁的线程将形成一个等待队列,并在解锁后按优先级获得锁。这种锁策略保证了资源分配的公平性。
  5. #define PTHREAD_MUTEX_NORMAL 0
  6. //检错锁,如果同一个线程请求同一个锁,则抛出一个错误,否则与 PTHREAD_MUTEX_NORMAL 类型动作一致。这样就保证当不允许多次加锁时不会出现最简单情况下的死锁。
  7. #define PTHREAD_MUTEX_ERRORCHECK 1
  8. //递归锁,允许同一个线程对同一个锁成功获得多次,并通过多次 unlock 解锁。如果是不同线程请求,则在加锁线程解锁时重新竞争。
  9. #define PTHREAD_MUTEX_RECURSIVE 2
  10. #define PTHREAD_MUTEX_DEFAULT PTHREAD_MUTEX_NORMAL

使用:

  1. #import <pthread.h>
  2. //主线程中
  3. StudentsObject *obj = [[StudentsObject alloc] init];
  4. __block pthread_mutex_t mutex;
  5. pthread_mutex_init(&mutex, NULL);
  6. //线程1
  7. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  8. pthread_mutex_lock(&mutex);
  9. [obj addStudent];
  10. sleep(3);
  11. pthread_mutex_unlock(&mutex);
  12. });
  13. //线程2
  14. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  15. sleep(1);
  16. pthread_mutex_lock(&mutex);
  17. [obj removeStudent];
  18. pthread_mutex_unlock(&mutex);
  19. });

输出:

  1. 2016-09-06 21:51:56.586 DSLockDemo[77879:9696034] addStudent
  2. 2016-09-06 21:51:59.589 DSLockDemo[77879:9696048] removeStudent

NSLock(pthread_mutex:ERRORCHECK)

NSLock是Cocoa提供给我们最基本的锁对象,这也是我们经常所使用的锁之一。
除lock和unlock方法外,NSLock还提供了tryLock和lockBeforeDate:两个方法。
tryLock方法会尝试加锁,如果锁不可用(已经被锁住),并不会阻塞线程,返回NO。
lockBeforeDate:方法会在所指定Date之前尝试加锁,如果在指定时间之前都不能加锁,则返回NO。

NSLock 是对 PTHREAD_MUTEX_ERRORCHECK 类型的 pthread_mutex_t 的封装。

我们看一下下面的输出,会看到线程1锁住之后,线程2会一直等待线程1将锁置为unlock后,才会执行removeStudent方法(也就是差不多3s后)。

  1. //主线程中
  2. StudentsObject *obj = [[StudentsObject alloc] init];
  3. NSLock *thelock = [[NSLock alloc] init];
  4. //线程1
  5. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  6. [thelock lock];
  7. [obj addStudent];
  8. sleep(3);
  9. [thelock unlock];
  10. });
  11. //线程2
  12. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  13. sleep(1);//以保证让线程2的代码后执行
  14. [thelock lock];
  15. [obj removeStudent];
  16. [thelock unlock];
  17. });

输出:

  1. 2016-09-06 17:57:05.427 DSLockDemo[75969:9603477] addStudent
  2. 2016-09-06 17:57:08.434 DSLockDemo[75969:9603471] removeStudent

NSCondition 条件锁(pthread_mutex:NORMAL)

NSCondition是以OC对象的形式对pthread_mutexpthread_cond_t进行了封装,NSCondition没有拥有者。

  1. NSCondition *condition = [[NSCondition alloc] init];
  2. // 消费者
  3. - (void)remove
  4. {
  5. [condition lock];
  6. if (self.data.count == 0) {
  7. // 如果不满足条件,则等待,具体是释放锁,用条件变量来阻塞当前线程
  8. // 当条件满足的时候,条件变量唤醒线程,用锁加锁
  9. [condition wait];
  10. }
  11. [self.data removeLastObject];
  12. [condition unlock];
  13. }
  14. // 生产者
  15. - (void)add
  16. {
  17. [condition lock];
  18. [self.data addObject:@"Test"];
  19. // 信号
  20. // 条件变量唤醒阻塞的线程,用锁加锁
  21. [condition signal];
  22. [condition unlock];
  23. }

pthread_mutex(Recursive)

pthread_mutex 支持递归锁,只要把 attr 的类型改成 PTHREAD_MUTEX_RECURSIVE 即可,它有单一的拥有者。

递归锁意思是同一个线程可以多次获得同一个锁,其他线程如果想要获取这把锁,必须要等待,这种锁一般都是用于递归函数的情况。

  1. #import <pthread.h>
  2. - (void)viewDidLoad {
  3. [super viewDidLoad];
  4. [self usePthread_mutex_recursive];
  5. }
  6. pthread_mutex_t pRecursiveLock;
  7. - (void)usePthread_mutex_recursive {
  8. // 初始化锁属性
  9. pthread_mutexattr_t attr;
  10. pthread_mutexattr_init(&attr);
  11. pthread_mutexattr_settype(&attr, PTHREAD_MUTEX_RECURSIVE);
  12. // 初始化锁
  13. pthread_mutex_init(&pRecursiveLock, &attr);
  14. // 销毁attr
  15. pthread_mutexattr_destroy(&attr);
  16. [self thread1];
  17. }
  18. - (void)thread1 {
  19. pthread_mutex_lock(&pRecursiveLock);
  20. static int count = 0;
  21. count ++;
  22. if (count < 10) {
  23. NSLog(@"do:%d",count);
  24. [self thread1];
  25. }
  26. pthread_mutex_unlock(&pRecursiveLock);
  27. NSLog(@"finish:%d",count);
  28. }
  29. - (void)dealloc {
  30. // 销毁锁
  31. pthread_mutex_destroy(&pRecursiveLock);
  32. }
  33. @end

NSRecursiveLock 递归锁(pthread_mutex:RECURSIVE)

平时我们在代码中使用锁的时候,最容易犯的一个错误就是造成死锁,而容易造成死锁的一种情形就是在递归或循环中,如下代码:

  1. //主线程中
  2. StudentsObject *obj = [[StudentsObject alloc] init];
  3. NSLock *thelock = [[NSLock alloc] init];
  4. //线程1
  5. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  6. static void(^TestMethod)(int);
  7. TestMethod = ^(int value)
  8. {
  9. [thelock lock];
  10. if (value > 0)
  11. {
  12. [obj addStudent];
  13. sleep(3);
  14. TestMethod(value-1);
  15. }
  16. [thelock unlock];
  17. };
  18. TestMethod(5);
  19. });
  20. //线程2
  21. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  22. sleep(1);//以保证让线程2的代码后执行
  23. [thelock lock];
  24. [obj removeStudent];
  25. [thelock unlock];
  26. });

输出:

  1. 2016-09-06 22:05:30.986 DSLockDemo[78082:9709497] addStudent
  2. 2016-09-06 22:05:33.994 DSLockDemo[78082:9709497] *** -[NSLock lock]: deadlock (<NSLock: 0x7fc2bbd0d3d0> '(null)')
  3. 2016-09-06 22:05:33.994 DSLockDemo[78082:9709497] *** Break on _NSLockError() to debug.

我们看见log打印出来了-[NSLock lock]: deadlock,这其实就是造成了死锁。
我们发现[thelock lock];[thelock unlock];之间发生了递归,又进入了一个锁里面,但是上一层的锁又还没unlock,递归又结束不了,这时他们进入了一个互相等待的过程,所以就发生了死锁。

由于以上的代码非常的简短,所以很容易能识别死锁,但在较为复杂的代码中,就不那么容易发现了,那么如何在递归或循环中正确的使用锁呢?

此处的theLock如果换用NSRecursiveLock对象,问题便得到解决了,NSRecursiveLock类定义的锁可以在同一线程多次lock,而不会造成死锁。递归锁会跟踪它被多少次lock。每次成功的lock都必须平衡调用unlock操作。只有所有的锁住和解锁操作都平衡的时候,锁才真正被释放给其他线程获得。

  1. //主线程中
  2. StudentsObject *obj = [[StudentsObject alloc] init];
  3. NSRecursiveLock *thelock = [[NSRecursiveLock alloc] init];
  4. //线程1
  5. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  6. static void(^TestMethod)(int);
  7. TestMethod = ^(int value)
  8. {
  9. [thelock lock];
  10. if (value > 0)
  11. {
  12. [obj addStudent];
  13. sleep(3);
  14. TestMethod(value-1);
  15. }
  16. [thelock unlock];
  17. };
  18. TestMethod(5);
  19. });
  20. //线程2
  21. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  22. sleep(1);//以保证让线程2的代码后执行
  23. [thelock lock];
  24. [obj removeStudent];
  25. [thelock unlock];
  26. });

输出(我们看到正常的输出了5次addStudent没有发生死锁):

  1. 2016-09-06 22:19:18.911 DSLockDemo[78284:9721695] addStudent
  2. 2016-09-06 22:19:21.916 DSLockDemo[78284:9721695] addStudent
  3. 2016-09-06 22:19:24.919 DSLockDemo[78284:9721695] addStudent
  4. 2016-09-06 22:19:27.921 DSLockDemo[78284:9721695] addStudent
  5. 2016-09-06 22:19:30.924 DSLockDemo[78284:9721695] addStudent
  6. 2016-09-06 22:19:33.929 DSLockDemo[78284:9721830] removeStudent

NSConditionLock 条件锁

当我们在使用多线程的时候,有时一把只会lock和unlock的锁未必就能完全满足我们的使用。因为普通的锁只能关心锁与不锁,而不在乎用什么钥匙才能开锁,而我们在处理资源共享的时候,多数情况是只有满足一定条件的情况下才能打开这把锁。

NSConditionLock是对NSCondition的进一步封装,可以设置条件变量的值。通过改变条件变量的值,可以使任务之间产生依赖关系,达到使任务按照一定的顺序执行。它有单一的拥有者(不确定)。

  1. //主线程中
  2. NSConditionLock *theLock = [[NSConditionLock alloc] init];
  3. //线程1
  4. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  5. for (int i=0;i<=2;i++)
  6. {
  7. [theLock lock];
  8. NSLog(@"thread1:%d",i);
  9. sleep(2);
  10. [theLock unlockWithCondition:i];
  11. }
  12. });
  13. //线程2
  14. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  15. [theLock lockWhenCondition:2];
  16. NSLog(@"thread2");
  17. [theLock unlock];
  18. });

输出:

  1. 2016-09-06 22:54:45.855 DSLockDemo[78760:9747003] thread1:0
  2. 2016-09-06 22:54:47.861 DSLockDemo[78760:9747003] thread1:1
  3. 2016-09-06 22:54:49.867 DSLockDemo[78760:9747003] thread1:2
  4. 2016-09-06 22:54:51.871 DSLockDemo[78760:9747009] thread2

线程1中的加锁使用了lock,所以是不需要条件的,所以顺利的就锁住了,但在unlock的使用了一个整型的条件,它可以开启其它线程中正在等待这把钥匙的临界地,而线程2则需要一把被标识为2的钥匙,所以当线程1循环到最后一次的时候,才最终打开了线程2中的阻塞。但即便如此,NSConditionLock也跟其它的锁一样,是需要lockunlock对应的,只是lock,lockWhenCondition:unlockunlockWithCondition:是可以随意组合的,当然这是与你的需求相关的。

这里有一个问题,你可以试试看把线程2中[theLock lockWhenCondition:2];改为[theLock lockWhenCondition:1];。输出如下:

  1. 2016-09-06 22:57:11.877 DSLockDemo[78816:9749702] thread1:0
  2. 2016-09-06 22:57:13.884 DSLockDemo[78816:9749702] thread1:1
  3. 2016-09-06 22:57:15.889 DSLockDemo[78816:9749702] thread1:2

这里并没有如之前一样正确的输出thread2,我猜想是这样的,当循环到1的时候,马上给线程2中的锁发送了通知告诉他你可以打开这个阻塞了,这个通知的时间是有个延时的。这时我们的循环又马上进入了i==2,又[theLock lock];了。等线程2中的锁收到了通知时其实已经又被条件i==2时的锁给锁住了,它还以为被骗了呢。

其实我们只要在i==1[theLock unlockWithCondition:i];后面加个判断if(i==1){sleep(1);}延缓下一个条件马上进入lock,然后让线程2中的锁先接受到通知进入lock。

可能我表达的会有点难理解,我打个比方吧:

比如有3个人在排队上厕所,然后第二个人上完厕所的时候给外面的朋友D打电话说我上完了现在有位置了你可以进来上了。但是现在第三个人马上进入了厕所,等D进来的时候发现还是没有位置,发现被骗了,然后愤然离去,也没上成厕所。
这时我的那个if(i==1){sleep(1);}就相当于第二个人上完的时候通知朋友D的同时跟第三个人说:你先等一会我朋友很急让他先上吧。然后D进来就可以马上上厕所了,等D上完第三个人再上。


@synchronized 关键字构建的锁(pthread_mutex:RECURSIVE)

synchronized指令实现锁的优点就是我们不需要在代码中显式的创建锁对象,便可以实现锁的机制,但作为一种预防措施,@synchronized块会隐式的添加一个异常处理例程来保护代码,该处理例程会在异常抛出的时候自动的释放互斥锁。所以如果不想让隐式的异常处理例程带来额外的开销,你可以考虑使用锁对象。

  1. //主线程中
  2. StudentsObject *obj = [[StudentsObject alloc] init];
  3. //线程1
  4. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  5. @synchronized(obj){
  6. [obj addStudent];
  7. sleep(3);
  8. }
  9. });
  10. //线程2
  11. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  12. sleep(1);
  13. @synchronized(obj){
  14. [obj removeStudent];
  15. }
  16. });

输出:

  1. 2016-09-06 21:42:41.477 DSLockDemo[77574:9683881] addStudent
  2. 2016-09-06 21:42:44.485 DSLockDemo[77574:9683942] removeStudent

NSDistributedLock 分布式锁

从它的类名就知道这是一个分布式的 Lock。NSDistributedLock 的实现是通过文件系统的,所以使用它才可以有效的实现不同进程之间的互斥,但 NSDistributedLock 并非继承于 NSLock,它没有 lock 方法,它只实现了 tryLock,unlock,breakLock,所以如果需要 lock 的话,你就必须自己实现一个 tryLock 的轮询。
补充:简单查了下资料,这个锁主要用于 OS X 的开发。而iOS 较少用到多进程,所以很少在 iOS 上见到过。

程序A:

  1. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  2. lock = [[NSDistributedLock alloc] initWithPath:@"/Users/mac/Desktop/earning__"];
  3. [lock breakLock];
  4. [lock tryLock];
  5. sleep(10);
  6. [lock unlock];
  7. NSLog(@"appA: OK");
  8. });

程序B:

  1. dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
  2. lock = [[NSDistributedLock alloc] initWithPath:@"/Users/mac/Desktop/earning__"];
  3. while (![lock tryLock]) {
  4. NSLog(@"appB: waiting");
  5. sleep(1);
  6. }
  7. [lock unlock];
  8. NSLog(@"appB: OK");
  9. });

先运行程序A,然后立即运行程序B,根据打印你可以清楚的发现,当程序A刚运行的时候,程序B一直处于等待中,当大概10秒过后,程序B便打印出了appB:OK的输出,以上便实现了两上不同程序之间的互斥。/Users/mac/Desktop/earning__是一个文件或文件夹的地址,如果该文件或文件夹不存在,那么在tryLock返回YES时,会自动创建该文件/文件夹。在结束的时候该文件/文件夹会被清除,所以在选择的该路径的时候,应该选择一个不存在的路径,以防止误删了文件。

参考

关于以上介绍的一些实现锁的Demo

Objective-C中不同方式实现锁(一)

Objective-C中不同方式实现锁(二)

iOS多线程开发:几个容易被忽略的细节

iOS-线程安全

iOS概念攻坚之路(五):线程同步方案

iOS 线程同步

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注