鲲鹏CompareAndSwap

 

x86平台 CompareAndSwap实现如下所示

 

#define barrier() __asm__ __volatile__("": : :"memory")
int CompareAndSwap(volatile int* ptr,
                            int old_value,
                            int new_value) {
  int prev;
  __asm__ __volatile__("lock; cmpxchgl %1,%2"
                       : "=a" (prev)
                       : "q" (new_value), "m" (*ptr), "0" (old_value)
                       : "memory");
  return prev;
}
static void lock(int *l){
    while(CompareAndSwap(l, 0, 1) != 0);
}
static void unlock(int volatile *l){
    barrier();
    *l = 0;
}

指令集差异

这是一个简化的自旋锁实现,在我们对CompareAndSwap这个函数进行移植时,我们首先关注到的是两个架构中指令集的差异。在这个实现中,通过内联汇编语法使用了x86架构下的cmpxchgl指令,但是在arm架构下并没有与之完全一一对应的指令

在arm架构下,原子操作是通过exclusive指令对实现的,如下图所示(图片来自Armv8体系结构参考手册):

所以我们使用exclusive指令对来实现这个CompareAndSwap函数,如下所示:

int CompareAndSwap(volatile int* ptr,
                             int old_value, 
                             int new_value) {
  int prev;
  int temp;
__asm____volatile__ (
    "0:                                    \n\t"
    "ldxr %w[prev], %[ptr]                 \n\t" 
    "cmp %w[prev], %w[old_value]           \n\t"
    "bne 1f                                \n\t"
    "stxr %w[temp], %w[new_value], %[ptr]  \n\t" 
    "cbnz %w[temp], 0b                     \n\t" 
    "1:                                    \n\t"
    : [prev]"=&r" (prev),
      [temp]"=&r" (temp),
      [ptr]"+Q" (*ptr)
    : [old_value]"IJr" (old_value),
      [new_value]"r" (new_value)
    : "cc", "memory"
  );
  return prev;
}

内存序差异

在如上述所示替换了CompareAndSwap函数之后,发现自旋锁并没有按预期工作,其主要是x86架构和arm中的内存序差异导致的。

修改前:

static void lock(int *l){ 
     while(CompareAndSwap(l, 0, 1) != 0); 
 } 
 static void unlock(int volatile *l){ 
     barrier(); 
     *l = 0; 
 }

表1所述,在arm架构下允许原子操作和内存读写之间的乱序,导致了上述代码中lock函数之后的内存访问可能被乱序到lock中的原子操作获取到锁之前执行,进而导致了非预期程序行为

另一方面,在释放锁的时候,原代码中使用了一个编译型内存屏障,但是在arm更宽松的内存序模型下不足以保证正确,需要改为CPU级的内存屏障,

修改后代码如下所示:

#define smp_mb()  asm volatile("dmb ish" ::: "memory")
static void lock(int *l){
    while(CompareAndSwap(l, 0, 1) != 0);
    smp_mb();
}
static void unlock(int volatile *l){
    smp_mb();
    *l = 0;
}

至此该自旋锁在功能上的移植就完成了,经过验证这个实现可以按预期工作。实际上,根据尽可能使用acquire和release语义进行同步中所述,我们可以通过半屏障来进一步优化这个锁的实现,提升锁的性能。在获取锁的时候只需要acquire语义,而释放锁的时候只需要release语义,从而去掉上面所使用的CPU级的全屏障。最终移植到arm架构下的实现如下所示:

int CompareAndSwap(volatile int* ptr, 
                            int old_value, 
                            int new_value) {
  int prev;
  int temp;
__asm____volatile__ (
    "0:                                    \n\t"
    "ldaxr %w[prev], %[ptr]                 \n\t" 
    "cmp %w[prev], %w[old_value]           \n\t"
    "bne 1f                                \n\t"
    "stxr %w[temp], %w[new_value], %[ptr]  \n\t" 
    "cbnz %w[temp], 0b                     \n\t"  
    "1:                                    \n\t"
    : [prev]"=&r" (prev),
      [temp]"=&r" (temp),
      [ptr]"+Q" (*ptr)
    : [old_value]"IJr" (old_value),
      [new_value]"r" (new_value)
    : "cc", "memory"
  );
  return prev;
}
static void lock(int *l) {
    while(CompareAndSwap(l, 0, 1) != 0);
}
static void unlock(int volatile *l)
{
    int zero = 0;
    __atomic_store(l, &zero, __ATOMIC_RELEASE);
}

除了架构差异之外,在锁的移植过程中我们还有注意处理器的差异。x86架构下大部分处理器L3 cache的Cacheline大小一般为64字节,而鲲鹏920芯片的L3 cache Cacheline大小为128字节,所以在设计锁的数据结构时要格外注意,尽量避免多线程相互独立修改的变量共享同一个Cacheline的情况出现,即通常说的“伪共享”现象——这对性能有较大的影响。

下面举一个linux内核中的优化案例进行说明。这是linux内核iommu驱动中针对arm平台进行优化的一个补丁(参考链接:https://gitlab.freedesktop.org/drm/msm/commit/14bd9a607f9082e7b5690c27e69072f2aeae0de4),优化前的代码如下所示:

struct iova_domain {
    /* ………… */
    struct iova anchor; 
    struct iova_rcache rcaches[IOVA_RANGE_CACHE_MAX_SIZE];  
    iova_flush_cb   flush_cb;   
    iova_entry_dtor entry_dtor; 
    /* Number of TLB flushes that have been started */
    atomic64_t  fq_flush_start_cnt;
    /* Number of TLB flushes that have been finished */
    atomic64_t  fq_flush_finish_cnt;   
    struct timer_list fq_timer;
    /* 1 when timer is active, 0 when not */
    atomic_t fq_timer_on; 
};

 

 

在这个数据结构中,多线程访问的变量主要是原子类型的fq_flush_start_cnt、fq_flush_finish_cnt和atomic_t fq_timer_on。为了避免伪共享现象,我们需要尽量避免这些变量分布在同一个cacheline上。在cacheline为64B的情况下,通过在fq_flush_finish_cnt和fq_timer_on之间插入一个fq_timer变量,就可以达到这个目的。

但是当处理器的cacheline变成128B的情况下,这个处理不足以满足要求,所以我们需要进一步调整数据结构——在原子变量之间插入更多的变量使得fq_flush_finish_cnt和fq_timer_on分布在不同的cacheline上,优化后的代码如下所示:

struct iova_domain {
    ……
    /* Number of TLB flushes that have been started */
    atomic64_t  fq_flush_start_cnt;
    /* Number of TLB flushes that have been finished */
    atomic64_t  fq_flush_finish_cnt;   
    struct iova anchor; 
    struct iova_rcache rcaches[IOVA_RANGE_CACHE_MAX_SIZE];  
    iova_flush_cb   flush_cb;   
    iova_entry_dtor entry_dtor; 
    struct timer_list fq_timer;
    /* 1 when timer is active, 0 when not */
    atomic_t fq_timer_on; 
};

https://support.huaweicloud.com/codeprtr-kunpenggrf/kunpengtaishanporting_12_0052.html

posted on 2021-03-17 17:50  tycoon3  阅读(241)  评论(0编辑  收藏  举报

导航