赞
踩
目录
线程安全的集合类(三大类):
1)遗留的线程安全集合:Hashtable
,Vector
2)使用Collections装饰的线程安全集合:
Collections.synchronizedCollection
Collections.synchronizedList
Collections.synchronizedMap
Collections.synchronizedSet
Collections.synchronizedNavigableMap
Collections.synchronizedNavigableSet
Collections.synchronizedSortedMap
Collections.synchronizedSortedSet
上面的这些集合都是讲非线程安全的集合包装后,在调用方法时包裹了一层synchronized
代码块;
3)java.util.concurrent
包下的线程安全集合类:(重点)
主要包含三个关键词:Blocking、CopyOnWrite、Concurrent
①Blocking
:这类集合大部分是基于锁实现的
②CopyOnWrite
:这类集合容器修改开销相对严重
③Concurrent
:
优点: 提高性能;因为其内部很多操作使用 cas 优化,一般可以提供较高吞吐量
缺点:
具有一定的弱一致性:遍历时弱一致性;求大小弱一致性;读取弱一致性;(也就是遍历、求大小、读数据读到的数据可能是旧的!)
它的API和我们普通的HashMap都是一样的。对–>HashMap;
但是,我们要注意的是线程安全的集合类只是代表它的每个方法是线程安全的,方法之间是无法保证的;
比如:错误思路!
- demo(
- // 创建 map 集合
- // 虽然ConcurrentHashMap是线程安全的,但是当多个线程来临时,方法之间无法保证
- () -> new ConcurrentHashMap<String, Integer>(),
- // 进行计数
- (map, words) -> { //这里的get()方法和put()方法之间不是线程安全的!!
- for (String word : words) {
- Integer counter = map.get(word);
- int newValue = counter == null ? 1 : counter + 1;
- map.put(word, newValue);
- }
- }
- );
解决办法:
用computeIfAbsent
,这个方法包含了上述的三个操作,而更重要的是它的加锁只是加载了集合的一个链表上,并发性还是很高的;
- demo(
- () -> new ConcurrentHashMap<String, LongAdder>(),
- (map, words) -> {
- for (String word : words) {
- // 注意不能使用 putIfAbsent,此方法返回的是上一次的 value,首次调用返回 null
- // a 0,同一个key就是同一个累加器
- map.computeIfAbsent(word, (key) -> new LongAdder()).increment();
- }
- }
- );
①HashMap数据结构:数组+链表;
首先,维护一个数组;先计算Key对应的哈希码,然后取模(数组个数),然后就把key放到对应的数组元素那;当有哈希冲突时,就需要构建一个链表(拉链法);
注意:JDK8中,后加入的元素总会加入链表的头部;JDK7中后加入的元素总会放入链表的头部;
扩容机制:
当数组元素超过阈值(3/4)时,就会扩容;(长度翻倍)
②HashMap在JDK7环境下存在并发死链的问题:
在JDK7下,当多线程并发扩容时就容易产生并发死链问题;
比如:
一个链表1->35->16->null;扩容后会变为35->1->null和16->null;
当T0拿到1->35和35->16信息后准备迁移元素时,它时间片到了;T1来了,T1完整的完成了迁移操作,这时链表已经变为了35->1->null和16->null;当T0再去迁移元素时就会发生1->35->1的死链;
- 原始链表,格式:[下标] (key,next)
- [1] (1,35)->(35,16)->(16,null)
- 线程 a 执行到 1 处 ,此时局部变量 e 为 (1,35),而局部变量 next 为 (35,16) 线程 a 挂起
- 线程 b 开始执行
- 第一次循环
- [1] (1,null)
- 第二次循环
- [1] (35,1)->(1,null)
- 第三次循环
- [1] (35,1)->(1,null)
- [17] (16,null)
- 切换回线程 a,此时局部变量 e 和 next 被恢复,引用没变但内容变了:e 的内容被改为 (1,null),而 next 的内
- 容被改为 (35,1) 并链向 (1,null)
- 第一次循环
- [1] (1,null)
- 第二次循环,注意这时 e 是 (35,1) 并链向 (1,null) 所以 next 又是 (1,null)
- [1] (35,1)->(1,null)
- 第三次循环,e 是 (1,null),而 next 是 null,但 e 被放入链表头,这样 e.next 变成了 35 (2 处)
- [1] (1,35)->(35,1)->(1,35)
- 已经是死链了
HashMap产生问题的源码:
- // 将 table 迁移至 newTable
- void transfer(Entry[] newTable, boolean rehash) {
- int newCapacity = newTable.length;
- for (Entry<K,V> e : table) {
- while(null != e) {
- Entry<K,V> next = e.next;
- // 1 处
- if (rehash) {
- e.hash = null == e.key ? 0 : hash(e.key);
- }
- int i = indexFor(e.hash, newCapacity);
- // 2 处
- // 将新元素加入 newTable[i], 原 newTable[i] 作为新元素的 next
- e.next = newTable[i];
- newTable[i] = e;
- e = next;
- }
- }
- }
总结:
1)问题的原因就是在多线程环境下使用了非线程安全的map集合;(JDK7)
2)JDK 8 虽然将扩容算法做了调整,不再将元素加入链表头(而是保持与扩容前一样的顺序),但是它会出现其它比如扩容丢数据的问题;
属性:
- // 默认为 0
- // 当初始化时, 为 -1
- // 当扩容时, 为 -(1 + 扩容线程数)
- // 当初始化或扩容完成后,为 下一次的扩容的阈值大小
- private transient volatile int sizeCtl;
-
- // 整个 ConcurrentHashMap 就是一个 Node[]
- static class Node<K,V> implements Map.Entry<K,V> {}
-
- // hash 表
- transient volatile Node<K,V>[] table;
-
- // 扩容时的 新 hash 表
- private transient volatile Node<K,V>[] nextTable;
-
- // 扩容时如果某个 bin 迁移完毕, 用 ForwardingNode 作为旧 table bin 的头结点
- static final class ForwardingNode<K,V> extends Node<K,V> {}
-
- // 用在 compute 以及 computeIfAbsent 时, 用来占位, 计算完成后替换为普通 Node
- static final class ReservationNode<K,V> extends Node<K,V> {}
-
- // 作为 treebin 的头节点, 存储 root 和 first
- static final class TreeBin<K,V> extends Node<K,V> {}
-
- // 作为 treebin 的节点, 存储 parent, left, right
- static final class TreeNode<K,V> extends Node<K,V> {}
其中,要注意的是:
①ForwardingNode
:扩容时,处理过的节点加上fnode(代表被处理过,其它线程来读需要读新的table)
②TreeBin
:当数组元素扩容到64之后,并且单链表个数超过8个之后,会将链表转换为红黑树(来提升查询效率),这时候当红黑树的节点又小于6之后,又会退化为链表;
重要方法:
- // 获取 Node[] 中第 i 个 Node,链表头中的node
- static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i)
-
- // cas 修改 Node[] 中第 i 个 Node 的值, c 为旧值, v 为新值
- static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i, Node<K,V> c, Node<K,V> v)
-
- // 直接修改 Node[] 中第 i 个 Node 的值, v 为新值
- static final <K,V> void setTabAt(Node<K,V>[] tab, int i, Node<K,V> v)
- // 初始容量 负载因子 并发度
- public ConcurrentHashMap(int initialCapacity, float loadFactor, int concurrencyLevel) {
- if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)
- throw new IllegalArgumentException();
- if (initialCapacity < concurrencyLevel) // Use at least as many bins
- initialCapacity = concurrencyLevel; // as estimated threads,当初始容量小于并发度时,将其改为并发度
- long size = (long)(1.0 + (long)initialCapacity / loadFactor);
- // tableSizeFor 仍然是保证计算的大小是 2^n, 即 16,32,64 ...
- int cap = (size >= (long)MAXIMUM_CAPACITY) ?
- MAXIMUM_CAPACITY : tableSizeFor((int)size);
- this.sizeCtl = cap; //真正大小
- }
它实现了懒惰初始化;在构造方法中仅仅计算了table的大小;以后在第一次使用时,才会真正创建;
- public V get(Object key) {
- Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
- // spread 方法能确保返回结果是正数
- int h = spread(key.hashCode()); //h真正的哈希码
- if ((tab = table) != null && (n = tab.length) > 0 &&
- (e = tabAt(tab, (n - 1) & h)) != null) {
- // 如果头结点已经是要查找的 key
- if ((eh = e.hash) == h) {
- if ((ek = e.key) == key || (ek != null && key.equals(ek)))
- return e.val;
- }
- // hash 为负数表示该 bin 在扩容中或是 treebin, 这时调用 find 方法来查找
- else if (eh < 0)
- return (p = e.find(h, key)) != null ? p.val : null;
- // 正常遍历链表, 用 equals 比较
- while ((e = e.next) != null) {
- if (e.hash == h &&
- ((ek = e.key) == key || (ek != null && key.equals(ek))))
- return e.val;
- }
- }
- return null;
- }
get()流程:
如果table
不为空且长度大于0且索引位置有元素
if 链表头节点key的hash值和我们要找的key的相等
if头节点的key指向同一个地址或者equals我们要找的key
返回value
else if 头节点的hash为负数(bin在扩容或者是treebin)
调用find方法查找
然后再遍历链表(且e的下一个节点不为空):
节点key的hash值相等,且key指向同一个地址或equals
返回value
返回null
table:数组;bin:链表;
- public V put(K key, V value) {
- return putVal(key, value, false);
- }
- final V putVal(K key, V value, boolean onlyIfAbsent) {
- //不允许有空的键值;普通的HashMap是允许的;
- if (key == null || value == null) throw new NullPointerException();
- // 其中 spread 方法会综合高位低位, 具有更好的 hash 性
- int hash = spread(key.hashCode()); //保证hash码为正整数(负的有其他用途)
- int binCount = 0;
- for (Node<K,V>[] tab = table;;) {
- // f 是链表头节点
- // fh 是链表头结点的 hash
- // i 是链表在 table 中的下标
- Node<K,V> f; int n, i, fh;
- // 要创建 table
- if (tab == null || (n = tab.length) == 0)
- // 初始化 table 使用了 cas, 无需 synchronized 创建成功, 进入下一轮循环
- tab = initTable();
- // 要创建链表头节点
- else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
- // 添加链表头使用了 cas, 无需 synchronized;不成功的话再进行循环
- if (casTabAt(tab, i, null,
- new Node<K,V>(hash, key, value, null)))
- break;
- }
- // 帮忙扩容;发现其它线程在扩容,就会帮忙(锁住某一个链表即可,以链表为单位扩容)
- else if ((fh = f.hash) == MOVED)
- // 帮忙之后, 进入下一轮循环
- tab = helpTransfer(tab, f);
- else {
- V oldVal = null;
- // 锁住链表头节点(巧妙,只锁住一个链表就OK了)
- synchronized (f) {
- // 再次确认链表头节点没有被移动
- if (tabAt(tab, i) == f) {
- // 链表
- if (fh >= 0) { //>0代表是普通节点
- binCount = 1;
- // 遍历链表
- for (Node<K,V> e = f;; ++binCount) {
- K ek;
- // 找到相同的 key
- if (e.hash == hash &&
- ((ek = e.key) == key ||
- (ek != null && key.equals(ek)))) {
- oldVal = e.val;
- // 更新
- if (!onlyIfAbsent)
- e.val = value;
- break;
- }
- Node<K,V> pred = e;
- // 已经是最后的节点了, 新增 Node, 追加至链表尾
- if ((e = e.next) == null) {
- pred.next = new Node<K,V>(hash, key,
- value, null);
- break;
- }
- }
- }
- // 红黑树
- else if (f instanceof TreeBin) { //特殊节点
- Node<K,V> p;
- binCount = 2;
- // putTreeVal 会看 key 是否已经在树中, 是, 则返回对应的 TreeNode
- if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
- value)) != null) {
- oldVal = p.val;
- if (!onlyIfAbsent)
- p.val = value;
- }
- }
- }
- // 释放链表头节点的锁
- }
-
- if (binCount != 0) {
- if (binCount >= TREEIFY_THRESHOLD)
- // 如果链表长度 >= 树化阈值(8), 进行链表转为红黑树
- treeifyBin(tab, i);
- if (oldVal != null)
- return oldVal;
- break;
- }
- }
- }
- // 增加 size 计数
- addCount(1L, binCount);
- return null;
- }
- private final Node<K,V>[] initTable() {
- Node<K,V>[] tab; int sc;
- while ((tab = table) == null || tab.length == 0) {
- if ((sc = sizeCtl) < 0)
- Thread.yield();
- // 尝试将 sizeCtl 设置为 -1(表示初始化 table)
- else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
- // 获得锁, 创建 table, 这时其它线程会在 while() 循环中 yield 直至 table 创建
- try {
- if ((tab = table) == null || tab.length == 0) {
- int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
- Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
- table = tab = nt;
- sc = n - (n >>> 2);
- }
- } finally {
- sizeCtl = sc;
- }
- break;
- }
- }
- return tab;
- }
- // check 是之前 binCount 的个数
- private final void addCount(long x, int check) {
- CounterCell[] as; long b, s;
- if (
- // 已经有了 counterCells, 向 cell 累加
- (as = counterCells) != null ||
- // 还没有, 向 baseCount 累加
- !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)
- ) {
- CounterCell a; long v; int m;
- boolean uncontended = true;
- if (
- // 还没有 counterCells
- as == null || (m = as.length - 1) < 0 ||
- // 还没有 cell
- (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
- // cell cas 增加计数失败
- !(uncontended = U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
- ) {
- // 创建累加单元数组和cell, 累加重试
- fullAddCount(x, uncontended);
- return;
- }
- if (check <= 1)
- return;
- // 获取元素个数
- s = sumCount();
- }
- if (check >= 0) {
- Node<K,V>[] tab, nt; int n, sc;
- while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
- (n = tab.length) < MAXIMUM_CAPACITY) {
- int rs = resizeStamp(n);
- if (sc < 0) {
- if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
- sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
- transferIndex <= 0)
- break;
- // newtable 已经创建了,帮忙扩容
- if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
- transfer(tab, nt);
- }
- // 需要扩容,这时 newtable 未创建
- else if (U.compareAndSwapInt(this, SIZECTL, sc,
- (rs << RESIZE_STAMP_SHIFT) + 2))
- transfer(tab, null);
- s = sumCount();
- }
- }
- }
put流程:
判断键值是否为空;为空则抛出异常
spread方法保证Hash码的正数
进入for循环:
if table为null或者长度 为0 (table需要初始化)
初始化hash表;initTable()
else if 索引处还没有节点 (添加头节点:索引处还没有节点的情况下,添加到头节点即可)
使用CAS的方式创建头节点,填入key和value,放入table,退出循环;若添加不成功,则继续for循环;
else if 索引处节点的hash值为MOVE(ForwardingNode),表示正在扩容和迁移(帮忙扩容)
帮忙扩容;(只要锁住某一个链表扩容即可)
else (存在哈希冲突的情况)
锁住头节点
if 再次确认头节点没有被移动
if 头节点hash值大于0(表示这是一个链表)
遍历链表找到对应key,做更新;如果没有,在链表尾创建新的node。
else if 节点为红黑树节点(Treebin)
调用putTreeVal
查看是否有对应key的数节点
如果有且为覆盖模式,将值覆盖,返回旧值
如果没有,创建并插入,返回null
解锁
if binCount不为0 (bigCount为链表的节点数)
如果binCount大于树化阈值8
转换为红黑树
如果旧值不为null
返回旧值
break
增加size计数(longAdder的思想)
return null
initTable()table初始化:
采用CAS的方式保证只有一个线程可以创建table,别的线程只是盲等待,并没有阻塞住;
流程:
判断table是否为空(while)
if sizeCtl小于0
yieid(),代表别的线程在进行扩容
if CAS方法尝试将 sizeCtl 设置为 -1(表示初始化 table) 成功
创建table
返回table
size 计算实际发生在 put,remove 改变集合元素的操作之中 (结果不是特别确,因为会有其它线程来添加或者删除)
没有竞争发生,向 baseCount 累加计数
有竞争发生,新建 counterCells,向其中的一个 cell 累加计
counterCells 初始有两个 cell
如果计数竞争比较激烈,会创建新的 cell 来累加计数
- public int size() {
- long n = sumCount();
- return ((n < 0L) ? 0 :
- (n > (long)Integer.MAX_VALUE) ? Integer.MAX_VALUE :
- (int)n);
- }
- final long sumCount() {
- CounterCell[] as = counterCells; CounterCell a;
- // 将 baseCount 计数与所有 cell 计数累加
- long sum = baseCount;
- if (as != null) {
- for (int i = 0; i < as.length; ++i) {
- if ((a = as[i]) != null)
- sum += a.value;
- }
- }
- return sum;
- }
总结:
1)table初始化: 使用了CAS来保证并发安全的,懒惰初始化table。(一个线程在初始化时,别的线程在盲等待,没有阻塞)
2)转换红黑树: 当 table.length < 64 时,先尝试扩容,超过 64 时,并且 bin.length > 8 时,会将链表树化,树化过程 会用 synchronized 锁住链表头
3)put()方法: 如果头节点还没有,使用CAS方式创建;如果有了,则锁住链表,在链表尾添加节点;
4)get()方法: 是无锁操作,可以保证可见性;扩容过程中 get 操作拿到的是 ForwardingNode 它会让 get 操作在新 table 进行搜索;
5)size()方法: 不是一个准确值;
6)扩容时平均只有 1/6 的节点会把复制到新 table 中
在JDK7中,它维护了一个segment数组,每个segment对应一把锁(每个segement对应一个HashEntry数组);
优点: 多个线程访问不同的 segment,也是没有冲突的,这与 jdk8 中是类似的,提高了并发度;
缺点: Segments 数组默认大小为16,这个容量初始化指定后就不能改变了,并且不是懒惰初始化
- public class LinkedBlockingQueue<E> extends AbstractQueue<E>
- implements BlockingQueue<E>, java.io.Serializable {
- static class Node<E> {
- E item;
- /**
- * next的三种情况:
- * - 真正的后继节点
- * - 指向自己, 发生在出队时
- * - null, 表示是没有后继节点, 是最后了
- */
- Node<E> next;
- Node(E x) { item = x; }
- }
- }
①初始化链表:last = head = new Node(null);
,创建一个用来占的Dummy节点,item为null;
②当一个节点入队时,last = last.next = node
;
③再来一个节点
- //临时变量h用来指向哨兵
- Node<E> h = head;
- //first用来指向第一个元素
- Node<E> first = h.next;
- h.next = h; // help GC
- //head赋值为first,表示first节点就是下一个哨兵。
- head = first;
- E x = first.item;
- //删除first节点中的数据,表示真正成为了哨兵,第一个元素出队。
- first.item = null;
- return x;
①h = head
,将临时变量h指向哨兵节点
②first = h.next
,将first指向下一个节点,也就是第一个元素
③h.next = h
,将Dummy的next指向自己
④head = first
,将第一个元素的item变为null,让其变为Dummy节点
LinkedBlocking
的高明之处在于它用了两把锁以及Dummy节点:
用一把锁的话,同一时刻,最多只允许有一个线程(生产者或者消费者)执行。
用两把锁的话,同一时刻,可以有两个线程同时(一个生产者一个消费者)执行。
消费者与消费者仍然串行
生产者与生产者仍然串行
线程安全分析:
当正常节点数大于1时,putLock
保证的是last节点的线程安全,takeLock
保证的是head节点的线程安全。两把锁保证了入队和出队没有竞争。
当正常节点数等于1时(也就是一个Dummy节点,一个正常节点),这时候,仍然两把锁锁两个对象,不会竞争
当只有一个Dummy节点时,这时take线程会被notEmpty
条件阻塞
// 用于 put锁
private final ReentrantLock putLock = new ReentrantLock();
// 用户 take锁
private final ReentrantLock takeLock = new ReentrantLock();
- public void put(E e) throws InterruptedException {
- //LinkedBlockingQueue不支持空元素
- if (e == null) throw new NullPointerException();
- int c = -1;
- Node<E> node = new Node<E>(e);
- final ReentrantLock putLock = this.putLock;
- // count 用来维护元素计数
- final AtomicInteger count = this.count;
- putLock.lockInterruptibly();
- try {
- // 满了等待
- while (count.get() == capacity) {
- // 倒过来读就好: 等待 notFull
- notFull.await();
- }
- // 有空位, 入队且计数加一
- enqueue(node);
- c = count.getAndIncrement();
- // 除了自己 put 以外, 队列还有空位, 由自己叫醒其他 put 线程
- if (c + 1 < capacity)
- notFull.signal();
- } finally {
- putLock.unlock();
- }
- // 如果队列中有一个元素, 叫醒 take 线程
- if (c == 0)
- // 这里调用的是 notEmpty.signal() 而不是 notEmpty.signalAll() 是为了减少竞争
- signalNotEmpty();
- }
put流程:
判断要加入的元素是否为空,为空则抛出异常;(因为它不允许有空元素)
创建原子计数的count
加putLock
锁
while 判断队列是否已满
满的话,就await()等待;
有空位的话,就入队
count 计数加1
if 自己put之后,队列还有空位
唤醒其它的等待一个put线程 (只唤醒一个的目的是减少竞争)
解锁
if 队列只有一个元素 (put完只有一个元素,代表之前可能有take阻塞住了)
signalNotEmpty()唤醒一个等待的take线程
- public E take() throws InterruptedException {
- E x;
- int c = -1;
- final AtomicInteger count = this.count;
- final ReentrantLock takeLock = this.takeLock;
- takeLock.lockInterruptibly();
- try {
- while (count.get() == 0) {
- notEmpty.await();
- }
- x = dequeue();
- c = count.getAndDecrement();
- if (c > 1)
- notEmpty.signal();
- } finally {
- takeLock.unlock();
- }
- // 如果队列中只有一个空位时, 叫醒 put 线程
- // 如果有多个线程进行出队, 第一个线程满足 c == capacity, 但后续线程 c < capacity
- if (c == capacity)
- // 这里调用的是 notFull.signal() 而不是 notFull.signalAll() 是为了减少竞争
- signalNotFull()
- return x;
- }
Linked 支持有界,Array 强制有界
Linked 实现是链表,Array 实现是数组
Linked 是懒惰的,而 Array 需要提前初始化 Node 数组
Linked 每次入队会生成新 Node,而 Array 的 Node 是提前创建好的
Linked 两把锁,Array 一把锁(所以Array在性能上不如Linked,所以推荐使用Linked)
特点:
ConcurrentLinkedQueue
的设计与 LinkedBlockingQueue
非常像:
都是用了两把“锁”, 同一时刻,可以允许两个线程同时(一个生产者一个消费者)执行
Dummy节点的引入让两把“锁”将来锁住的是不同的对象,避免竞争
注意:ConcurrentLinkedQueue
这里的“锁”是采用了CAS的方式,并不是真正的锁;
应用: 并发度比较高的时候适合使用,因为采用了CAS的方式!
比如,Tomcat 的 Connector 结构,Acceptor 作为生产者向 Poller 消费者传递事件信息时,正是采用了 ConcurrentLinkedQueue 将 SocketChannel 给 Poller 使用
它的底层实现采用了写入时拷贝
的思想,增删改操作都会将底层数据拷贝一份,更改操作在新的数组上执行,这时不影响其它线程的并发读,实现了读-读分离,读-写分离(但是读的是旧数组上的数据),只有写-写互斥;
新增操作:
- public boolean add(E e) {
- synchronized (lock) {
- // 获取旧的数组
- Object[] es = getArray();
- int len = es.length;
- // 拷贝新的数组(这里是比较耗时的操作,但不影响其它读线程)
- es = Arrays.copyOf(es, len + 1);
- // 添加新元素
- es[len] = e;
- // 替换旧的数组
- setArray(es);
- return true;
- }
- }
读操作并未加锁;
应用: 适合读多写少的场景!
缺点:
①get弱一致性;
②迭代器弱一致性
- CopyOnWriteArrayList<Integer> list = new CopyOnWriteArrayList<>();
- list.add(1);
- list.add(2);
- list.add(3);
- Iterator<Integer> iter = list.iterator();
- new Thread(() -> {
- list.remove(0);
- System.out.println(list);
- }).start();
- sleep1s();
- //此时主线程的iterator依旧指向旧的数组。
- while (iter.hasNext()) {
- System.out.println(iter.next());
- }
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。