Fight With Me!!!

导航

Java多线程性能优化

大家使用多线程无非是为了提高性能,但如果多线程使用不当,不但性能提升不明显,而且会使得资源消耗更大。下面列举一下可能会造成多线程性能问题的点:

  • 死锁

  • 过多串行化

  • 过多锁竞争

  • 切换上下文

  • 内存同步

下面分别解析以上性能隐患

死锁

关于死锁,我们在学习操作系统的时候就知道它产生的原因和危害,这里就不从原理上去累述了,可以从下面的代码和图示重温一下死锁产生的原因:

 

[java] view plaincopy

  1. public class LeftRightDeadlock {  

  2.     private final Object left = new Object();  

  3.     private final Object right = new Object();  

  4.     public void leftRight() {  

  5.         synchronized (left) {  

  6.             synchronized (right) {  

  7.                 doSomething();  

  8.             }  

  9.         }  

  10.     }  

  11.     public void rightLeft() {  

  12.         synchronized (right) {  

  13.             synchronized (left) {  

  14.                 doSomethingElse();  

  15.             }  

  16.         }  

  17.     }  

  18. }  

 

 

预防和处理死锁的方法:

1)尽量不要在释放锁之前竞争其他锁

一般可以通过细化同步方法来实现,只在真正需要保护共享资源的地方去拿锁,并尽快释放锁,这样可以有效降低在同步方法里调用其他同步方法的情况

2)顺序索取锁资源

如果实在无法避免嵌套索取锁资源,则需要制定一个索取锁资源的策略,先规划好有哪些锁,然后各个线程按照一个顺序去索取,不要出现上面那个例子中不同顺序,这样就会有潜在的死锁问题

3)尝试定时锁

Java 5提供了更灵活的锁工具,可以显式地索取和释放锁。那么在索取锁的时候可以设定一个超时时间,如果超过这个时间还没索取到锁,则不会继续堵塞而是放弃此次任务,示例代码如下:

 

[java] view plaincopy

  1. public boolean trySendOnSharedLine(String message,  

  2.                                    long timeout, TimeUnit unit)  

  3.                                    throws InterruptedException {  

  4.     long nanosToLock = unit.toNanos(timeout)  

  5.                      - estimatedNanosToSend(message);  

  6.     if (!lock.tryLock(nanosToLock, NANOSECONDS))  

  7.         return false;  

  8.     try {  

  9.         return sendOnSharedLine(message);  

  10.     } finally {  

  11.         lock.unlock();  

  12.     }  

  13. }  

 

这样可以有效打破死锁条件。

4)检查死锁

JVM采用thread dump的方式来识别死锁的方式,可以通过操作系统的命令来向JVM发送thread dump的信号,这样可以查询哪些线程死锁。

过多串行化

用多线程实际上就是想并行地做事情,但这些事情由于某些依赖性必须串行工作,导致很多环节得串行化,这实际上很局限系统的可扩展性,就算加CPU加线程,但性能却没有线性增长。有个Amdahl定理可以说明这个问题:

 

其中,F是串行化比例,N是处理器数量,由上可知,只有尽可能减少串行化,才能最大化地提高可扩展能力。降低串行化的关键就是降低锁竞争,当很多并行任务挂在锁的获取上,就是串行化的表现

过多锁竞争

过多锁竞争的危害是不言而喻的,那么看看有哪些办法来降低锁竞争

1)缩小锁的范围

前面也谈到这一点,尽量缩小锁保护的范围,快进快出,因此尽量不要直接在方法上使用synchronized关键字,而只是在真正需要线程安全保护的地方使用

2)减小锁的粒度

Java 5提供了显式锁后,可以更为灵活的来保护共享变量。synchronized关键字(用在方法上)是默认把整个对象作为锁,实际上很多时候没有必要用这么大一个锁,这会导致这个类所有synchronized都得串行执行。可以根据真正需要保护的共享变量作为锁,也可以使用更为精细的策略,目的就是要在真正需要串行的时候串行,举一个例子:

 

[java] view plaincopy

  1. public class StripedMap {  

  2.     // Synchronization policy: buckets[n] guarded by locks[n%N_LOCKS]  

  3.     private static final int N_LOCKS = 16;  

  4.     private final Node[] buckets;  

  5.     private final Object[] locks;  

  6.     private static class Node { ... }  

  7.     public StripedMap(int numBuckets) {  

  8.         buckets = new Node[numBuckets];  

  9.         locks = new Object[N_LOCKS];  

  10.         for (int i = 0; i < N_LOCKS; i++)  

  11.             locks[i] = new Object();  

  12.     }  

  13.     private final int hash(Object key) {  

  14.         return Math.abs(key.hashCode() % buckets.length);  

  15.     }  

  16.     public Object get(Object key) {  

  17.         int hash = hash(key);  

  18.         synchronized (locks[hash % N_LOCKS]) {  

  19.             for (Node m = buckets[hash]; m != null; m = m.next)  

  20.                 if (m.key.equals(key))  

  21.                     return m.value;  

  22.         }  

  23.         return null;  

  24.     }  

  25.     public void clear() {  

  26.         for (int i = 0; i < buckets.length; i++) {  

  27.             synchronized (locks[i % N_LOCKS]) {  

  28.                 buckets[i] = null;  

  29.             }  

  30.         }  

  31.     }  

  32.     ...  

  33. }  

 

上面这个例子是通过hash算法来把存取的值所对应的hash值来作为锁,这样就只需要对hash值相同的对象存取串行化,而不是像HashTable那样对任何对象任何操作都串行化。

3)减少共享资源的依赖

共享资源是竞争锁的源头,在多线程开发中尽量减少对共享资源的依赖,比如对象池的技术应该慎重考虑,新的JVM对新建对象以做了足够的优化,性能非常好,如果用对象池不但不能提高多少性能,反而会因为锁竞争导致降低线程的可并发性。

4)使用读写分离锁来替换独占锁

Java 5提供了一个读写分离锁(ReadWriteLock)来实现读-读并发,读-写串行,写-写串行的特性。这种方式更进一步提高了可并发性,因为有些场景大部分是读操作,因此没必要串行工作。关于ReadWriteLock的具体使用可以参加一下示例:

 

[java] view plaincopy

  1. public class ReadWriteMap<K,V> {  

  2.     private final Map<K,V> map;  

  3.     private final ReadWriteLock lock = new ReentrantReadWriteLock();  

  4.     private final Lock r = lock.readLock();  

  5.     private final Lock w = lock.writeLock();  

  6.     public ReadWriteMap(Map<K,V> map) {  

  7.         this.map = map;  

  8.     }  

  9.     public V put(K key, V value) {  

  10.         w.lock();  

  11.         try {  

  12.             return map.put(key, value);  

  13.         } finally {  

  14.             w.unlock();  

  15.         }  

  16.     }  

  17.     // Do the same for remove(), putAll(), clear()  

  18.     public V get(Object key) {  

  19.         r.lock();  

  20.         try {  

  21.             return map.get(key);  

  22.         } finally {  

  23.             r.unlock();  

  24.         }  

  25.     }  

  26.     // Do the same for other read-only Map methods  

  27. }  

 

切换上下文

线程比较多的时候,操作系统切换线程上下文的性能消耗是不能忽略的,在构建高性能web之路------web服务器长连接 可以看出在进程切换上的代价,当然线程会更轻量一些,不过道理是类似的

内存同步

当使用到synchronized、volatile或Lock的时候,都会为了保证可见性导致更多的内存同步,这就无法享受到JMM结构带来了性能优化。

 

posted on 2016-05-28 16:39  nickTimer  阅读(1111)  评论(0编辑  收藏  举报