[转]spinlock 理解
由于2.6内核可以抢占,应该在驱动程序中使用 preempt_disable() 和 preempt_enable(),从而保护代码段不被抢占(禁止 IRQ 同时也就隐式地禁止了抢占)。preempt_disable和preempt_enable 调用。spin_lock_irq的功能和上面的spin_lock提供的功能差不多,只不过它还多做了一步,就是把中断也关上,主要用于当前保护的数据在可能的中断程序中也要用到的情况。spin_lock_irqsave和spin_lock_irq的功能一样,只不过调用这个函数以后可以把当前的中断状态记下了,以备以后恢复。
在多CPU的环境下情况就比较复杂了,因为同时可能有几个程序在运行(是真正的同时),所以必须要定义一个变量当作锁的功能,linux是这样规定的,当这个变量为1时,那么其保护的变量可以被访问,当其值为0时,那么其保护的临界数据不可以被访问,其中,要改变变量锁的值也很有学问,就是不能让几个CPU同时去改,负责就会出现不同步的情况。如spin_lock在多cpu的时候就被?
在这里,我主要把自己对内核中spinlock的一些理解写出来,并不是要告诉大家什么(因为我对我所说的也不能确定),而是希望大家对我的这些理解对的地方给我肯定,错误的地方给我指出。
和spinlock 相关的文件主要有两个,一个是include/linux/spinlock.h,主要是提供关于和硬件无关的spinlock的几个对外主函数,一个是 include/asm-XXX/spinlock.h,用来提供和硬件相关的功能函数。另外,在2.6的内核中,又多了一个文件, include/linux/preempt.h,为新增加的抢占式多任务功能提供一些服务。
spinlock的作用:spinlock系列函数主要用于保护临界数据(非常重要的数据)不被同时访问(给临界数据加锁),用以达到多任务的同步。如果一个数据当前不可访问,那么就一直等,直到可以访问为止。
spinlock 函数的使用前提:首先,spinklock函数只能使用在内核中,或者说只能使用在内核状态下,在2.6以前的内核是不可抢占的,也就是说,当运行于内核状态下时,是不容许切换到其他进程的。而在2.6以后的内核中,编译内核的时候多了一个选项,可以配置内核是否可以被抢占,这也就是为什么在2.6的内核中多了一个preempt.h的原因。
spinlock主要包含以下几个函数:
spin_lock
spin_unlock
spin_lock_irqsave
spin_lock_irq
spin_unlock_irqrestore
spin_unlock_irq
另外还有其他很多,如关于读者写者的一套函数,关于bottom half一套函数(关于bottom half的代码我还没有读到),还有还提供了一套用bit实现加锁的函数,由于大概意思都相同,所以我这里就不说了(只想简单说说,没想到东西还挺多,我的手都快冻僵了,江南的冬天真的受不了:)
spinlock函数根据机器的配置分为两套,单CPU和多CPU,先来看看单CPU的情况。
在单CPU的情况下,spin_lock和spin_unlock函数都被定义成空操作(do { } while(0)),这是因为我们上面说的,内核不可以被抢占的原因。所以,在单CPU的情况下,只要你能够保证你要保护的临界数据不会在中断中用到的话,那么你的数据已经是受保护的了,不需要做任何操作。在2.6内核中,这两个函数就不再这么简单了,因为内核也有可能被其他程序中断,所以要保护数据,还要让调度程序暂时不调度此段程序,也就是说,暂时禁止抢占式任务调度功能,所以在上面两个函数中分别多了一个
需要澄清的是,互斥手段的选择,不是根据临界区的大小,而是根据临界区的性质,以及
有哪些部分的代码,即哪些内核执行路径来争夺。
从严格意义上说,semaphore和spinlock_XXX属于不同层次的互斥手段,前者的
实现有赖于后者,这有点象HTTP和TCP的关系,都是协议,但层次是不同的。
先说semaphore,它是进程级的,用于多个进程之间对资源的互斥,虽然也是在
内核中,但是该内核执行路径是以进程的身份,代表进程来争夺资源的。如果
竞争不上,会有context switch,进程可以去sleep,但CPU不会停,会接着运行
其他的执行路径。从概念上说,这和单CPU或多CPU没有直接的关系,只是在
semaphore本身的实现上,为了保证semaphore结构存取的原子性,在多CPU中需要
spinlock来互斥。
在内核中,更多的是要保持内核各个执行路径之间的数据访问互斥,这是最基本的
互斥问题,即保持数据修改的原子性。semaphore的实现,也要依赖这个。在单CPU
中,主要是中断和bottom_half的问题,因此,开关中断就可以了。在多CPU中,
又加上了其他CPU的干扰,因此需要spinlock来帮助。这两个部分结合起来,
就形成了spinlock_XXX。它的特点是,一旦CPU进入了spinlock_XXX,它就不会
干别的,而是一直空转,直到锁定成功为止。因此,这就决定了被
spinlock_XXX锁住的临界区不能停,更不能context switch,要存取完数据后赶快
出来,以便其他的在空转的执行路径能够获得spinlock。这也是spinlock的原则
所在。如果当前执行路径一定要进行context switch,那就要在schedule()之前
释放spinlock,否则,容易死锁。因为在中断和bh中,没有context,无法进行
context switch,只能空转等待spinlock,你context switch走了,谁知道猴年
马月才能回来。
因为spinlock的原意和目的就是保证数据修改的原子性,因此也没有理由在spinlock
锁住的临界区中停留。
spinlock_XXX有很多形式,有
spin_lock()/spin_unlock(),
spin_lock_irq()/spin_unlock_irq(),
spin_lock_irqsave/spin_unlock_irqrestore()
spin_lock_bh()/spin_unlock_bh()
local_irq_disable/local_irq_enable
local_bh_disable/local_bh_enable
那么,在什么情况下具体用哪个呢?这要看是在什么内核执行路径中,以及要与哪些内核
执行路径相互斥。我们知道,内核中的执行路径主要有:
1 用户进程的内核态,此时有进程context,主要是代表进程在执行系统调用
等。
2 中断或者异常或者自陷等,从概念上说,此时没有进程context,不能进行
context switch。
3 bottom_half,从概念上说,此时也没有进程context。
4 同时,相同的执行路径还可能在其他的CPU上运行。
这样,考虑这四个方面的因素,通过判断我们要互斥的数据会被这四个因素中
的哪几个来存取,就可以决定具体使用哪种形式的spinlock。如果只要和其他CPU
互斥,就要用spin_lock/spin_unlock,如果要和irq及其他CPU互斥,就要用
spin_lock_irq/spin_unlock_irq,如果既要和irq及其他CPU互斥,又要保存
EFLAG的状态,就要用spin_lock_irqsave/spin_unlock_irqrestore,如果
要和bh及其他CPU互斥,就要用spin_lock_bh/spin_unlock_bh,如果不需要和
其他CPU互斥,只要和irq互斥,则用local_irq_disable/local_irq_enable,
如果不需要和其他CPU互斥,只要和bh互斥,则用local_bh_disable/local_bh_enable,
等等。值得指出的是,对同一个数据的互斥,在不同的内核执行路径中,
所用的形式有可能不同(见下面的例子)。