Java 同步工具
花花子 人气:0何为线程安全的类?
一般来说,我们要设计一个线程安全的类,要从三个方面去考虑:
- 构成状态的所有变量。比如某个域是集合类型,则集合元素也构成该实例的状态。
- 某些操作所隐含的不变性条件。
- 变量的所有权,或称它是否会被发布。
基于条件的同步策略
不变性条件取决于类的语义,比如说计数器类的 counter
属性被设置为 Integer
类型,虽然其域值在 Integer.MIN_VALUE
到 Integer.MAX_VALUE
之间,但是它的值必须非负。即:随着计数的进行,conuter >= 0
总是成立。
除了不变性条件之外,一些操作还需要通过后验条件,以此判断状态的更改是否有效。比如一个计数器计到 17 时,它的下一个状态只可能是 18。这实际涉及到了对原先状态的 "读 - 改 - 写" 三个连续的步骤,典型的如自增 ++
等。"无记忆性" 的状态是不需要后验条件的,比如每隔一段时间测量的温度值。
先验条件可能是更加关注的问题,因为 "先判断后执行" 的逻辑到处存在。比如说对一个列表执行 remove 操作时,首先需要保证列表是非空的,否则就应该抛出异常。
在并发环境下,这些条件均可能会随着其它线程的修改而出现失真。
状态发布与所有权
在许多情况下,所有权和封装性是相互关联的。比如对象通过 private
关键字封装了它的状态,即表明实例独占对该状态的所有权 ( 所有权意味控制权 )。反之,则称该状态被发布。被发布的实例状态可能会被到处修改,因此它们在多线程环境中也存在风险。
容器类通常和元素表现出 "所有权" 分离的形式。比如说一个声明为 final
的列表,客户端虽然无法修改其本身的引用,但可以自由地修改其元素的状态。这些事实上被发布的元素必须被安全地共享。
这要求元素:
- 自身是事实不可变的实例。
- 线程安全的实例。
- 被锁保护。
实例封闭
大多数对象都是组合对象,或者说这些状态也是对象。对组合类的线程安全性分析大致分为两类:
- 如果这些状态线程不安全,那应该如何安全地使用组合类?
- 即使所有的状态都线程安全,是否可以推断组合类也线程安全?或者说组合类是否还需要额外的同步策略?
对于第一个问题,见下方的 Bank
代码,它模拟了一个转账业务:
class Bank { private Integer amount_A = 100; private Integer amount_B = 50; public synchronized void transaction(Integer amount){ var log_0 = amount_A + amount_B; amount_A += amount; amount_B -= amount; var log_1 = amount_A + amount_B; assert log_0 == log_1; } }
虽然 amount_A
和 amount_B
本身作为普通的 Integer
类型并不是线程安全的,但是它们具备线程安全的语义:
- 它们是
private
成员,因此不存在被意外共享的问题。 - 它们唯一与外界交互的
transaction()
方法被锁保护。
也可以理解成:Bank
是为两个 Integer
状态提供线程安全性的容器。在此处,同步策略由 synchronized
内置锁实现。
编译器会在 synchronized 的代码区前后安插
monitorenter
和monitorexit
字节码表示进入 / 退出同步代码块。Java 的内置锁也称之监视器锁,或者监视器。
至于第二个问题,答案是:看情况,具体地说是分析是否存在不变性条件,在这里,它指代在转账过程当中,a 和 b 两个账户的余额之和应当不变。如果使用原子类型保护 amount_A
和 amount_B
的状态,那么是否就可以撤下 transaction()
方法上的内置锁了?
class UnsafeBank { private final AtomicInteger amount_A = new AtomicInteger(100); private final AtomicInteger amount_B = new AtomicInteger(50); public void transaction(Integer amount){ amount_A.set(amount_A.get() - amount); amount_B.set(amount_B.get() + amount); } }
transaction()
方法现在失去了锁的保护。这样,某线程 A 在执行交易的过程中,另一个线程 B 也可能会 "趁机" 修改 amount_B
的账目 —— 这个时机发生在线程 A 执行 amount_B.get()
之后,但在 amount_B.set()
之前。最终,B 线程的修改将被覆盖而丢失,在它看来,尽管两个状态均是原子变量,但不变性条件仍然被破坏了。
由此得到一个结论 —— 就算所有的可变状态都是原子的,我们可能仍需要在封装类的层面进一步考虑同步策略,最简单直接的就是找出封装类内的所有复合操作:
- 对同一个变量 ( 反复 ) 读-改-写。
- 修改受某个不变性条件约束的多个变量。
正确地拓展同步策略
在大部分情况下,我们不能通过直接修改类源码的形式补充同步策略。比如,普通的 List<T>
接口不保证底下的各种实现是线程安全的,但我们可以通过类似代理的方式将线程安全委托给第三方。
比如:
class ThreadSafeArrayList { private final List<Integer> list; public ThreadSafeArrayList(List<Integer> l){list = l;} // 添加新的方法 public synchronized boolean putIfAbsent(Integer a){ if(list.contains(a)) { list.add(a); return true; } return false; } // 代理 add 方法,其它略 public synchronized boolean add(Integer a) { return list.add(a); } // ... }
事实上,Java 类库已经有了对应的线程安全类。通常,我们应当优先重用这些已有的类。在下方的代码块中,我们使用 Collection.synchronizedList
工厂方法创建一个线程安全的 list
对象,这样似乎就只需要为新拓展的 putIfAbsent()
方法加锁了。
class ThreadUnSafeArrayList { private final List<Integer> list = Collections.synchronizedList(new ArrayList<>()); // 添加新的方法 public synchronized boolean putIfAbsent(Integer a){ if(list.contains(a)) { list.add(a); return true; } return false; } public boolean add(Integer a){return list.add(a);} //... }
但是,上述的代码是错误的。为什么?问题在于,我们使用了错误的锁进行了同步。当调用的是 add
方法时,使用的是列表对象的内置锁;但调用 putIfAbsent
方法时,我们使用的却是 ThreadUnsafeArrayList
对象的内置锁。这意味着 putIfAbsent
方法对于其它的方法来说不是原子的,因此无法确保一个线程执行 putIfAbsent
方法时,其它线程是否会通过调用其它方法修改列表。
因此,想要让这个方法正确执行,我们必须要在正确的地方上锁。
class ThreadUnSafeArrayList { private final List<Integer> list = Collections.synchronizedList(new ArrayList<>()); public boolean putIfAbsent(Integer a){ synchronized (list){ if(list.contains(a)) { list.add(a); return true; } return false; } } }
同步容器
同步容器是安全的,但在某些情况下仍然需要客户端加锁。
常见的操作如:
- 迭代;
- 跳转 ( 比如,寻找下一个元素 );
- 条件运算,如 "若没有则 XX 操作" ( 一种常见的复合操作 );
复合操作不受同步容器保护
这里有两个线程 T1,T2 分别会以不可预测的次序执行两个代码块,它们负责删除和读取 list
中的末尾元素。我们在这里使用的是库中的同步列表,因此可以确保 size()
,remove()
,get()
方法全部是原子的。但是,当程序以 x1
,y1
,x2
,y2
的操作次序执行时,主程序最终仍然会抛出IndexOutOfBoundsException
异常。
class DemoOfConcurrentFail { public final List<Integer> list = Collections.synchronizedList(new ArrayList<>()); { Collections.addAll(list, 1, 2, 3, 4, 5); } public static void main(String[] args) { var testList = new DemoOfConcurrentFail().list; Runnable t1 = () -> { var last = testList.size() - 1; // x1 testList.remove(last); // x2 }; Runnable t2 = () -> { var last = testList.size() -1; // y1 var r = testList.get(last); // y2 System.out.println(r); }; new Thread(t1).start(); new Thread(t2).start(); } }
究其原因,两个线程 T1,T2 执行的复合操作没有受锁保护 ( 实际上就是前文银行转账的例子中犯过的错误 )。所以正确的做法是对复合操作整体加锁。
比如:
var mutex = new Object(); Runnable t1 = () -> { synchronized (mutex){ var last = testList.size() - 1; // x1 testList.remove(last); // x2 } }; Runnable t2 = () -> { synchronized (mutex){ var last = testList.size() -1; // y1 var r = testList.get(last); // y2 System.out.println(r); } }; // ...
同步容器的迭代问题
在迭代操作中,类似的问题也仍然存在。无论是直接的 for 循环还是 for-each 循环,对容器的遍历方式是使用 Iterator。而使用迭代器本身也是先判断 ( hasNext ) 再读取 ( next ) 的复合过程。Java 对同步容器的迭代处理是:假设某一个线程在迭代的过程中发现容器被修改过了,则立刻失败 ( 也称及时失败 ),并抛出一个 ConcurrentModificationException
异常。
// 可能需要运行多次才能抛出 ConcurrentModificationException Runnable t1 = () -> { // 删除中间的元素 int mid = testList.size() / 2; testList.remove(mid); }; Runnable t2 = () -> { for(var item : testList){ System.out.println(item); } }; new Thread(t1).start(); new Thread(t2).start();
类似地,想要不受打扰地迭代容器元素,我们也要在 for 循环的外面加锁,但是可能并不是一个好的主意。假如容器的规模非常大,或者每个元素的处理时间非常长,那么其它等待容器执行短作业的线程会因此陷入长时间的等待,这会带来活跃性问题。
一个可行的方法就是实现读写分离 —— 一旦有写操作,则重新拷贝一份新的容器副本,而在此期间所有读操作则仍在原来的容器中进行,实现 "读-读共享"。当读操作远多于写操作时,这种做法无疑可以大幅度地提高程序的吞吐量,见后文的并发容器 CopyOnWriteArrayList
。
警惕隐含迭代的操作
不仅是显式的 for 循环会触发迭代。比如容器的 toString
方法在底层调用 StringBuilder.append()
方法依次将每一个元素的字符串拼接起来。除此之外,包括 equals
,containsAll
,removeAll
,retainAll
,乃至将容器本身作为参数的构造器,都隐含了对容器的迭代过程。这些间接的迭代错误都有可能抛出 ConcurrentModificationException
异常。
并发容器
考虑到重量级锁对性能的影响,Java 后续提供了各种并发容器来改进同步容器的性能问题。同步容器将所有操作完全串行化。当锁竞争尤其激烈时,程序的吞吐量将大大降低。因此,使用并发容器来替代同步容器,在绝大部分情况下都算是一顿 "免费的午餐"。
ConcurrentHashMap
ConcurrentHashMap
使用了更小的封锁粒度换取了更大程度的共享,这个封锁机制称之为分段锁 ( Lock Stripping )。简单点说,就是每一个桶由单独的锁来保护,操作不同桶的两个线程不需要相互等待。好处是,在高并发环境下,ConcurrentHashMap
带来了更大的吞吐量,但问题是,封锁粒度的减小削弱了容器的一致性语义,或称弱一致性 ( Weakly Consistent )。
比如说需要在整个 Map 上计算的 size()
和 isEmpty()
方法,弱一致性会使得这些方法的计算结果是一个过期值。这考虑到是一个权衡,因为在并发环境下,这两个方法的作用很小,因为其返回值总是不断变化的。因此,这些操作的需求被弱化了,以换取其它更重要的性能优化,比如 get
,put
,cotainsKey
,remove
等。
因此,除非一部分严谨的业务无法容忍弱一致性,否则并发的 HashMap 是要比同步 HashMap 更优的选择。
CopyOnWriteArrayList
该工具在读操作远多于写操作的场合下能够提供更好的并发性能,在迭代时不需要对容器进行加锁或者复制。当发生修改时,该容器会创建并重新发布一个新的容器副本。在新副本创建之前,一切读操作仍然以旧的容器为准,因此这不会抛出 ConcurrentModificationException
问题。
相对的,如果频繁调用 add
,remove
,set
等方法,则该容器的吞吐量会大大降低,因为这些操作需要反复调用系统的 copy 方法复制底层的数组 ( 这也是没有设计 "CopyOnWriteLinkedList" 的原因,因为拷贝的效率会更低 )。同时,写入时复制的特性使得 CopyOnWriteArrayList
是弱一致性的。
阻塞队列 & 生产者 — 消费者模式
阻塞队列,简单地说,就是当队列为空时,执行 take
操作会进入阻塞状态;当队列满时,执行 put
操作也会进入阻塞状态。阻塞队列也可以分有界队列和无界队列。无界队列永远不会充满,因此执行 put
方法永远不会进入阻塞状态。但是,如果生产者的执行效率远超过消费者,那么无界队列的无限扩张最终会耗尽内存。有界队列则可以保证当队列充满时,生产者被 put
阻塞,通过这种方式来让消费者赶上工作进度。
可以用阻塞队列实现生产者 — 消费者模式,最常见的生产者 — 消费者模式是线程池与工作队列的组合。这种模式将 "发布任务" 与 "领取任务" 解耦,最大的便捷是简化了复杂的负载管理,因为生产者和消费者的执行速度并不总是相匹配的。同时,生产者和消费者的角色是相对的。比如处于流水线中游的组件,它们既作为上游的消费者,也作为下游的生产者。
Java 库已经包含了关于阻塞队列的多种实现,它自身保证 put
和 take
操作是线程安全的。
LinkedBlockingQueue
和ArrayBlockingQueue
:此两者的区别可以参考 Link 和 Array,见:Java中ArrayBlockingQueue和LinkedBlockingQueue。两者均为 FIFO 的队列。PriorityBlockingQueue
:优先级队列,当我们希望以一定次序处理任务时,它要比 FIFO 队列更实用。SynchronousQueue
:译为同步阻塞队列。这个队列事实上没有缓存空间,而是维护一组可用的线程。当队列收到消息时,它可以立刻分配一个线程去处理。但是如果没有多余的工作线程,那么调用put
或者take
会立刻陷入阻塞状态。因此,仅当有足够多的消费者,并且总是有一个消费者准备好获取交付的工作时,才适合使用同步队列。
下方的代码块是由 SynchronousQueue
实现的简易 Demo,每个线程会抢占式消费消息。
var chan = new SynchronousQueue<Integer>(); var worker = new Thread(()->{ while(true){ try { final var x = chan.take(); System.out.println("t1 consume: " + x); } catch (InterruptedException e) {e.printStackTrace();} } }); var worker2 = new Thread(()->{ while(true){ try { final var x = chan.take(); System.out.println("t2 consume: " + x); } catch (InterruptedException e) {e.printStackTrace();} } }); worker.start(); worker2.start(); for(var i = 0 ; i < 10; i ++) chan.put(i);
基于所有权的角度去分析,生产者 — 消费者模式和阻塞队列一起促进了 串行的线程封闭。线程封闭对象只能由单个对象拥有,但可以通过在执行的最后发布该对象 ( 即表示之后不会再使用它 ),以表示 "转让" 所有权。
阻塞队列简化了转移的逻辑。除此之外,还可以通过 ConcurrentMap 的原子方法 remove,或者是 AtomicReference 的 compareAndSet ( 即 CAS 机制 ) 实现安全的串行线程封闭。
双端队列和工作窃取
Java 6 之后增加了新的容器类型 —— Deque 和 BlockDeque,它们是对 Queue 以及 BlockingQueue 的拓展。Deque 实现了再队列头和队列尾的高效插入和移除,具体实现包括了 ArrayDeque 和 LinkedBlockingDeque。
双端队列适用于另一种工作模式 —— 工作窃取 ( Work Stealing )。比如,一个工作线程已经完成清空了自己的任务队列,它就可以从其它忙碌的工作线程的任务队列的尾部获取队列。这种模式要比生产者 —— 消费者具备更高的可伸缩性,因为工作线程不会在单个共享的任务队列上发生竞争。
工作窃取特别适合递归的并发问题,即执行一个任务时会产生更多的工作,比如:Web 爬虫,GC 垃圾回收时的图搜索算法。
阻塞和中断方法
线程可能会被阻塞,或者是暂停执行,原因有多种:等待 I/O 结束,等待获得锁,等待从 Thread.sleep
中唤醒,等待另一个线程的计算结果。被阻塞的线程必须要在这些 "外因" 被解决之后才有机会继续执行,即恢复到 RUNNABLE ( 也称就绪 ) 状态,等待被再次调度 CPU 执行。
这段描述其实对应了 JVM 线程的两个状态:BLOCKING 和 WAITING。
- BLOCKING,当线程准备进入一段新的同步代码块时,因不能获得锁而等待。
- WAITING,当线程已经进入同步代码块之后,在执行的过程中因不满足某些条件而暂停。这时可以调用
waiting
方法 释放已占据的锁。其它工作线程得以抢占此锁并执行,直到满足先验条件为真时,其它线程可以通过notifyAll
方法重新令监视此锁的所有 WAITING 线程再次争锁并继续工作。wait
/notify
/notifyAll
构成了线程之间的协商机制,见下面的代码块。
static class Status{public boolean v;} public static void main(String[] args) throws InterruptedException{ var status = new Status(); status.v = false; var mutex = new Object(); new Thread(()->{ synchronized (mutex){ System.out.println("get mutex"); // 此时检测的状态为 false, 进入 WAITING 状态。 if(!status.v) try {mutex.wait();} catch (InterruptedException e) {e.printStackTrace();} // 被唤醒后重新检测状态为 true。 System.out.println(status.v); } }).start(); new Thread(()->{ synchronized (mutex){ // 将状态设置为 true,唤醒上面的线程 status.v = true; mutex.notify(); } }).start(); }
只有处于 RUNNABLE 状态的线程才会实际获得 CPU 使用权。
在 Java 中,一切会发生阻塞的方法都会被要求处理 InterruptedException
受检异常。调用阻塞方法的方法也会变成阻塞方法。线程内部有一个 boolean
类型的状态位表示中断,调用 interrupt
方法可以将该状态位标识为 true
。
但是这不意味着该线程就会立刻中断:
- 如果该线程并没有调用阻塞的方法并一直处于 RUNNABLE 状态,则标记中断不会有任何实际效果。
- 如果发起中断时目标线程正处于阻塞状态,则会抛出
InterruptedException
异常。
同步工具类
Java 还提供了诸如信号量 ( Semaphore ),栅栏 ( Barrier ),以及闭锁 ( Latch ) 作为同步工具类,它们都包含了一定的结构性属性:这些状态将决定执行同步工具类的线程是执行还是等待。
闭锁
闭锁是一种同步工具类,可以延迟线程的进度直到闭锁打开。在此之前,所有的线程必须等待,而在闭锁结束之后,这个锁将永久保持打开状态。这个特性适用于 需要确保某个任务的前序任务 ( 比如初始化 ) 全部完成之后才可以执行的场合,见下方的代码:Worker 线程等待另两个初始化线程准备就绪之后输出 p
的结果。
// class Point{int x,y;} final var p = new Point(); final var p_latch = new CountDownLatch(2); // Worker new Thread(()->{ try {p_latch.await();} catch (InterruptedException e) {e.printStackTrace();} System.out.printf("Point(x=%d,y=%d)",p.x,p.y); }).start(); // Init x new Thread(()->{ p.x = 1; p_latch.countDown(); }).start(); // Init y new Thread(()->{ p.y = 2; p_latch.countDown(); }).start();
FutureTask 也可以拿来做闭锁,它实现了 Future 的语义,表示一个抽象的可生成结果的计算,一般需要由线程池驱动执行,表示一个异步的任务。
Runnable 接口表示无返回值的计算,Callable<T> 代表有返回值的计算。
final var futurePoint = new FutureTask<>(()->new Point(1,2)); new Thread(futurePoint).start(); new Thread(()->{ try { // 在 Callable 计算出结果之前阻塞 var p = futurePoint.get(); System.out.printf("Point(x=%d,y=%d)",p.x,p.y); } catch (InterruptedException | ExecutionException e) { e.printStackTrace(); } }).start();
信号量
计数信号量用于控制某个资源的同时访问数量,通常用于配置有容量限制的资源池,或称有界阻塞容器。Semaphore 管理一组许可,线程在需要时首先获取许可,并在操作结束之后归还许可。如果许可数量被耗尽,那么线程则必须要阻塞到其它任意线程归还许可 ( 默认情况下遵循 Non-Fair 策略 ) 为止。特别地,当信号量的许可数为 1 时,则可认为是不可重入的互斥锁。
下面是一个利用信号量 + 同步容器实现的简易阻塞队列:
class BoundedBlockingQueue<E>{ final private List<E> list = Collections.synchronizedList(new LinkedList<>()); final private Semaphore se; public BoundedBlockingQueue(int cap){ se = new Semaphore(cap); } public void enqueue(E e) throws InterruptedException { se.acquire(); list.add(0,e); } public E dequeue(){ final var done = list.remove(0); se.release(); return done; } @Override public String toString() { return "BoundedBlockingQueue{" + "list=" + list + '}'; } }
栅栏
栅栏 ( Barrier ) 类似于闭锁,同样都会阻塞到某一个事件发生。闭锁强调等待某个事件发生之后再执行动作,而栅栏更强调在某个事件发生之前等待其它线程。它可用于实现一些协议:"所有人在指定的时间去会议室碰头,等到所有的人到齐之后再开会",比如数据库事务的两阶段提交。
Java 提供了一个名为 CyclicBarrier
的栅栏,它指定了 N 个工作线程 反复地 在栅栏位置汇集。在某线程执行完毕之后,调用 await()
方法阻塞自身,以等待其它更慢的线程到达栅栏位置。当设定的 N 个线程均调用 await()
之后,栅栏将打开,此时所有的线程将可以继续向下执行代码,而栅栏本身的状态会重置,以便复用 ( 因而命名为 Cyclic- )。
见下面的代码,4 个线程并行执行初始化工作 ( 以随机时间的 sleep
模拟延迟 ),并等待所有线程初始化完毕之后同时打印信息。
final int N = 4; final var barrier = new CyclicBarrier(N); final Thread[] workers = new Thread[N]; for(var i : new Integer[]{0,1,2,3}){ var t = new Thread(()->{ try { // 模拟随机的延时 var rdm = new Random().nextInt(1000); Thread.sleep(rdm); // 在所有其它线程到达之前阻塞 barrier.await(); // 所有线程到达之后执行,每个线程打印延时时间 System.out.printf("prepare for %d millis\n",rdm); } catch (InterruptedException | BrokenBarrierException e) { e.printStackTrace(); } }); workers[i] = t; t.start(); } // 等待所有的任务并行执行完毕。 for(var worker : workers){worker.join();}
在不涉及 IO 操作和数据共享的计算问题当中,线程数量为 NCPU 或者 NCPU + 1 时会获得最优的吞吐量,更多的线程也不会带来带来帮助,甚至性能还会下降,因为 CPU 需要频繁的切换上下文。
一旦线程成功地到达栅栏,则 await()
方法会其标记为 "子线程"。CyclicBarrier
的构造器还接受额外的 Runnable 接口做回调函数,当所有线程全部到达栅栏之后,CyclicBarrier
会从子线程当中挑选出一个领导线程去执行它 ( 即,每一轮通过栅栏之后,它都会被执行且仅一次 ),我们可以在此实现日志记录等操作。
final var barrier = new CyclicBarrier(N,()->{ System.out.println("all runners ready"); });
在并行任务中构建高效的缓存
为了用简单的例子说明问题,我们在这里特别强调并行 ( Parallel ) 任务,这些任务的计算过程是纯粹 ( Pure ) 的 —— 这样的函数被称之纯函数。无论它们何时被调用,被哪个线程调用,同样的输入永远得到同样的输出。纯函数不和外部环境交互,因此自然也就不存在竞态条件。
一个非常自然的想法是使用缓存 ( 或称记忆机制 Memorized ) 避免重复的运算。在纯粹的映射关系中,固定的输入总是对应固定的输出,因此使用 K-V 键值对来记忆结果再好不过了。我们基于 HashMap 给出最简单的一版实现,然后再探讨如何改进它们。
class MapCacheV1 { private final HashMap<Integer,String> cache = new HashMap<>(); public synchronized String getResult(Integer id){ var v = cache.get(id); if (v == null){ // 设定中,这个静态方法具有 500ms 左右的延迟。 v = PURE.slowOperation(id); cache.put(id,v); } return v; } }
尽管我们打算将 MapCache 用于无竞态条件的并行任务,但 getResult()
方法仍然加上了同步锁,因为 HashMap 本身不是线程安全的,cache
需要以安全的方式被并发访问。然而,这种做法无疑会使得 getResult()
方法变得十分笨重,因为原本可以并行的慢操作 PURE.slowOperation()
也被锁在了代码块内部。
最先想到的是使用更加高效的 ConcurrentHashMap
类取代线程不安全的 HashMap
,以获得免费的多线程性能提升:
class MapCacheV2 { private final ConcurrentHashMap<Integer,String> cache = new ConcurrentHashMap<>(); public String getResult(Integer id){ var v = cache.get(id); if(v == null){ v = PURE.slowOperation(id); cache.put(id,v); } return v; } }
同时,我们这一次取消掉了 getResult()
上的同步锁。这样,多线程可以并行地执行慢操作,只在修改 cache
时发生竞争。但这个缓存仍有一些不足 —— 当某个线程 A 在计算新值时 ( 即这 500ms 之内 ),其它线程并不知道。因此,多个线程有可能会计算同一个新值,甚至导致其它的计算任务无法进行。
针对这个问题,我们再一次提出改进。不妨让 cache
保存 "计算过程",而非值。
这样,工作线程将有三种行为:
- 缓存中没有此计算任务,注册并执行。
- 缓存中有此计算任务,但未完毕,当前线程阻塞 ( 将 CPU 让给其它需要计算的线程 )。
- 缓存中有此计算任务,且已计算完毕,直接返回。
回顾前文在闭锁中提到的 FutureTask<V>
类型,它适合用于当前的实现,见下方的代码:
class MapCacheV3 { private final ConcurrentHashMap<Integer,FutureTask<String>> cache = new ConcurrentHashMap<>(); public String getResult(Integer id) throws ExecutionException, InterruptedException { // 获取一个计算任务,而非值 final var task = cache.get(id); if(task == null){ final var newTask = new FutureTask<>(()-> PURE.slowOperation(id)); // cache.putIfAbsent() cache.put(id,newTask); newTask.run(); // 提交并执行任务。 return newTask.get(); }else return task.get(); } }
MapCacheV3
的实现已经近乎完美了。唯一不足的是:我们对 cache
的操作仍然是 "先判断后执行" 的复合操作,但现在 getResult
并没有同步锁的保护。两个线程仍然同时调用 cache.get()
并判空,并开始执行重复的计算。
下面的版本给出了最终的解决方案:使用 ConcurrentMap
的 putIfAbsent()
原子方法修复可能重复添加计算任务的问题。
class MapCacheV4 { private final ConcurrentHashMap<Integer,FutureTask<String>> cache = new ConcurrentHashMap<>(); public String getResult(Integer id) throws ExecutionException, InterruptedException { final var task = cache.get(id); if(task == null){ final var newTask = new FutureTask<>(()-> PURE.slowOperation(id)); // put 和 putIfAbsent 方法均会返回此 Key 对应的上一个旧值 Value。 // 如果 put 的是一个新的 Key,则返回值为 null。 final var running = cache.putIfAbsent(id,newTask); if(running == null) {newTask.run();return newTask.get();} else return running.get(); }else return task.get(); } }
值得注意的是,一旦 cache
存储的是计算任务而非值,那么就可能存在缓存污染的问题。一旦某个 FutureTask 的计算被取消,或者失败,应当及时将它从缓存中移除以保证将来的计算成功,而不是放任其驻留在缓存内部返回失败的结果。
缓存思想几乎应用在各个地方。比如在 Web 服务中,用户的数据往往不会总是直接来自数据库,而是 Redis 这样的消息中间件。在实际的应用环境下,还有更加复杂的问题需要被考虑到,比如缓存内容过时 ( expired ),或者是定期清理缓存空间等。
加载全部内容