[关闭]
@kneep 2014-11-01T06:19:19.000000Z 字数 3751 阅读 1212

Herb Sutter谈论C++无锁编程

摘要

在2014年的C++大会上,Herb Sutter做了C++无锁编程的演讲,在演讲中他解释了无锁编程的基本概念,并用三种算法展示了无锁技术。本文是他演讲重点的概要。

正文

在2014年的C++大会上,Herb Sutter做了C++无锁(译注:lock-free,意为不使用锁来保持代码的同步)编程的演讲,在演讲中他解释了无锁编程的基本概念,并用三种算法展示了无锁技术。本文是他演讲重点的概要。

Herb首先指出了无锁代码的优势:

但是无锁编程不是万能药,因为无锁算法实现起来更复杂,它也有潜在问题,比如竞争(contention),这会极大地影响性能。从这一点出发,Herb引出了他的第一条强烈建议:

基本概念

以下是考虑无锁算法的时候需要理解的一些基本概念:

为达到这些目的所用到的基本技术有:

在C++ 11中,你可以使用atomic<T>来实现这种操作,这有两大优势:

关于atomic的一些要点如下:

例子:两次检查的加锁(double-checked locking)
Herb给的第一个例子是如果保证一个全局对象只被构造了一次。
核心思想是:用一个锁来保护原子写操作,但是让原子读操作处于无锁状态。这样只有在各个线程竞争初始化这个单例(singleton)的时候才可能发生阻塞。算法取这个名字的原因是,实例的指针共检查了两次,加锁前和加锁后:

  1. atomic<Widget*> Widget::pInstance{ nullptr };
  2. Widget* Widget::Instance() {
  3. if (pInstance == nullptr) {
  4. lock_guard<mutex> lock { mutW };
  5. if (pInstance == nullptr) {
  6. pInstance = new Widget();
  7. }
  8. }
  9. }

例子:生产者——消费者
Herb描述的第二个例子是经典的生产者——消费者算法。他先描述了传统的使用锁的解决方案:

使用无锁技术对这个算法做第一种改进,通过atomic变量来访问单向链表。这样可以使生产者一次性放完它的东西,然后通过原子性地修改队列的头指针来通知消费者。消费者的实现不变。

然后,我们考虑完全无锁的实现。在这种情况下,算法的思想是,生产者要去填满一定数量的“槽(slot)”。当生产者有一个新任务要处理,它会去检查是否有空闲的槽,并把要处理的任务放进去。在下面的代码中,slot是一个atomic变量:

  1. curr = 0;
  2. // 第一阶段:生成任务
  3. while (ThereAreMoreTasks()) {
  4. task = AllocateAndBuildNewTask();
  5. while (slot[curr] != null)
  6. curr = (curr+1)%K;
  7. slot[curr] = task;
  8. sem[curr].signal();
  9. }
  10. // 第二阶段: 把邮箱置为done状态
  11. numNotified = 0;
  12. while (numNotified < K) {
  13. while (slot[curr] != null)
  14. curr = (curr+1)%K;
  15. slot[curr] = done;
  16. sem[curr].signal();
  17. ++numNotified;
  18. }

对于消费者来说,代码更简单:

  1. myTask = null;
  2. while (myTask != done) {
  3. while (myTask = slot[mySlot]) == null)
  4. sem[mySlot].wait();
  5. if (myTask != done) {
  6. slot[mySlot] = null;
  7. DoWork(myTask);
  8. }
  9. }

消费者等待信号量,直到槽里面有任务为止。任务来了,消费者把它拿出来,并清空槽,然后开始处理任务。这就是把任务处理放到关键区(critical section)之外的思想。但是如果消费者处理得比生产者慢,那么在任务处理完之后再释放锁比较合理,这样,当消费者忙的时候,生产者就不会再去填充同一个槽,而是去找另外一个空闲的槽。这表明了,你的设计决策会对业务吞吐量/可扩展性(throughput/scalability)和负载平衡(load balancing)之间的取舍产生微妙的影响。

例子:单向链表
单向链表可能是最简单的数据结构之一了,在这个例子中只支持四种操作:构造(construct)、销毁(destroy)、查找(find)、前插入(push_front)。
Herb提出的无锁实现使用了atomic<Node*> head{ nullptr };来访问链表头。唯一有可能导致并发问题的操作是push_front操作,它的单线程版本有可能是这样的:

  1. template
  2. void slist<T>::push_front(T t) {
  3. auto p = new Node;
  4. p->t = t;
  5. p->next = head;
  6. head = p;
  7. }

这个代码有问题,因为它在设置新的head值的时候可能会引入竞争。使用compare_exchange来写head,我们可以修复这个问题,代码如下:

  1. template
  2. void slist<T>::push_front(T t) {
  3. auto p = new Node;
  4. p->t = t;
  5. p->next = head;
  6. while (!head.compare_exchange_weak(p->next, p))
  7. {}
  8. }

这里,我们不停尝试交换headp的值,直到成功为止。在无锁的代码中,使用compare_exchange_weak很常见。它通常用在循环内,在循环外则使用compare_exchange_strong

而当我们要实现一个移除节点(pop)的操作时,更多的问题就来了。移除操作会删掉链表中的第一个节点,在这种情况下,导致复杂性的一个主要原因是,返回的对象指针有可能很快被另外一个线程释放掉。这个问题有个广为人知的名字叫ABA问题,Herb随后深入细节,讲述了它在特定的环境下是如何发生的。

C++ 11为这个问题给出了优雅的解决方案,不再使用原始的指针,而是用shared_ptr来取代。用伪代码表示的实现如下:

  1. template
  2. struct Node { T t; shared_ptr<Node> next; };
  3. atomic<shared_ptr<Node>> head;
  4. public:
  5. slist() =default;
  6. ~slist() =default;
  7. class reference {
  8. shared_ptr<Node> p;
  9. public:
  10. reference(shared_ptr<Node> p_) : p{_p} {}
  11. T& operator*() { return p->t; }
  12. T* operator->() { return &p->t; }
  13. };
  14. auto find(T t) const {
  15. auto p = head.load();
  16. while (p && p->t != t)
  17. p = p->next;
  18. return reference{move(p)};
  19. void push_front(T t) {
  20. auto p = make_shared<Node>();
  21. p->t = t;
  22. p->next = head;
  23. while (head.compare_exchange_weak(p->next, p))
  24. {}
  25. }
  26. void pop_front() {
  27. auto p = head.load();
  28. while (p && !head.compare_exchange_weak(p, p->next))
  29. {}
  30. }
  31. };

这里用到的技巧是,返回的指针被指定为一个shared_ptr,这样我们不需要再特别关注指针被意外删除的情况。

这种实现展示了一种很好的属性叫线性化,它可以使一组互相交错的操作看起来像是顺序执行的一样。

演讲的最后部分讨论了一个例子,这个例子展示了如何来衡量一个程序的行为,以及它可以从无锁的实现中获得什么样的好处。

查看英文原文:Lock-free Programming in C++ with Herb Sutter

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注