初始化
核心成员变量和HashMap是类似的(可以看我的这篇)、ConcurrentHashMap是HashMap的线程安全版本(Collections.synchronizedMap、Hashtable也是HashMap线程安全的版本)。 初始的容量要是2的次幂:  
1.如果数组的长度是2的次幂的话、那么在进行取模的运算的时候、就可以使用位运算来代替%:   2.如果数组的长度是2 的次幂的话、那么在扩容的时候(扩容也是2倍扩容)、就不需要重新利用hash函数来计算元素在新数组的位置了   那么如果是32长度的数组的话、只是看后五位即可、那么有没有更好的方法呢? 那就是只看第五位是否是0 还是1 即可、如果是 0 的话、计算出的位置还是和原来的位置是一样的、元素在原数组的位置就是新数组的位置、如果第五位的值是 1的话、那么原来的位置就是原数组的位置+原数组的长度的值、这就是源码中的实现方式。
数组是什么时候初始化的呢? 是在放入第一个元素的时候进行初始化的👇  所以来看put方法👇
put方法
1.根据key得到hashcode 2.判断是否要进行初始化的操作 3.根据key定位的Node、如果为空的话表示当前位置可以写入数据、利用的是CAS机制、如果失败的话自旋保证成功 4.判断是否要进行扩容 5.如果不满足的话、利用synchronized来写入数据 6.如果hashMap中所有节点的数量大于则要转为红黑树
初始化方法:确保只有一个线程在做初始化的操作、如果数组还没有初始化的话、稍后的线程就会让出CPU的执行权 
如果当前的位置为null的话直接使用casTabAt方法来插入值  来看casTabAt方法 调用的是compareAndSwapObject方法、再点过去:  原来调用的  Unsafe类中的Native方法:那么来看Unfase类👇 Unsafe是位于sun.misc包下的一个类,主要提供一些用于执行低级别、不安全操作的方法,如直接访问系统内存资源、自主管理内存资源等,这些方法在提升Java运行效率、增强Java语言底层资源操作能力方面起到了很大的作用。但由于Unsafe类使Java语言拥有了类似C语言指针一样操作内存空间的能力,这无疑也增加了程序发生相关指针问题的风险。在程序中过度、不正确使用Unsafe类会使得程序出错的概率变大,使得Java这种安全的语言变得不再“安全”,因此对Unsafe的使用一定要慎重。
接下来就要看是否扩容👇 
再就是利用synchronized来写入数据、如果hashMap中所有节点的数量大于则要转为红黑树  
在插入元素完成之后还要判断是否扩容  
如果要扩容的话那么就会进入transfer函数  那么元素迁移的时候要用单线程去完成元素的迁移的工作吗? 如果为了效率的话、那么就可以使用多线程来完成数据的迁移的工作、但是使用多线程的时候不能有线程不安全的问题发生。 使用多线程完成数组的迁移的时候、让每个线程迁移的桶的数量不少于16个、假设如果数组的有元素的位置是128个的话、那么就可以使用8个线程去并行的迁移数组中的元素。也就是将原来的数组分段、交给不同的线程去完成数组的迁移 根据计算机的CPU的核数计算线程的数量 这就是我们前面所讲的二倍扩容👇 初始时新的数组、二倍扩容、nextTable是新的数组、transferIndex是原数组的下标、迁移数组元素的时候是从右往左迁移的 数组在迁移的时候也是使用synchronized修饰的👇  来看迁移的细节  也就是我们初始化的时候讲的、看对应位是否是0 还是 1 其中的ln表示的是对应位为0、hn表示的是对应位为1的数组元素的迁移 然后调用Unsafe中的 public native void putObjectVolatile(Object var1, long var2, Object var4);方法来实现元素的迁移 当然还有如果是红黑树时候的迁移:  
相关源码(JDK1.8)
put方法
public V put(K key, V value) {
return putVal(key, value, false);
}
final V putVal(K key, V value, boolean onlyIfAbsent) {
if (key == null || value == null) throw new NullPointerException();
int hash = spread(key.hashCode());
int binCount = 0;
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
if (tab == null || (n = tab.length) == 0)
tab = initTable();
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break;
}
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
else {
V oldVal = null;
synchronized (f) {
if (tabAt(tab, i) == f) {
if (fh >= 0) {
binCount = 1;
for (Node<K,V> e = f;; ++binCount) {
K ek;
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
if (binCount != 0) {
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
addCount(1L, binCount);
return null;
}
初始化方法initTable
private final Node<K,V>[] initTable() {
Node<K,V>[] tab; int sc;
while ((tab = table) == null || tab.length == 0) {
if ((sc = sizeCtl) < 0)
Thread.yield();
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
try {
if ((tab = table) == null || tab.length == 0) {
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = tab = nt;
sc = n - (n >>> 2);
}
} finally {
sizeCtl = sc;
}
break;
}
}
return tab;
}
扩容方法transfer
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
int n = tab.length, stride;
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
stride = MIN_TRANSFER_STRIDE;
if (nextTab == null) {
try {
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
nextTab = nt;
} catch (Throwable ex) {
sizeCtl = Integer.MAX_VALUE;
return;
}
nextTable = nextTab;
transferIndex = n;
}
int nextn = nextTab.length;
ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
boolean advance = true;
boolean finishing = false;
for (int i = 0, bound = 0;;) {
Node<K,V> f; int fh;
while (advance) {
int nextIndex, nextBound;
if (--i >= bound || finishing)
advance = false;
else if ((nextIndex = transferIndex) <= 0) {
i = -1;
advance = false;
}
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
bound = nextBound;
i = nextIndex - 1;
advance = false;
}
}
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
if (finishing) {
nextTable = null;
table = nextTab;
sizeCtl = (n << 1) - (n >>> 1);
return;
}
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
return;
finishing = advance = true;
i = n;
}
}
else if ((f = tabAt(tab, i)) == null)
advance = casTabAt(tab, i, null, fwd);
else if ((fh = f.hash) == MOVED)
advance = true;
else {
synchronized (f) {
if (tabAt(tab, i) == f) {
Node<K,V> ln, hn;
if (fh >= 0) {
int runBit = fh & n;
Node<K,V> lastRun = f;
for (Node<K,V> p = f.next; p != null; p = p.next) {
int b = p.hash & n;
if (b != runBit) {
runBit = b;
lastRun = p;
}
}
if (runBit == 0) {
ln = lastRun;
hn = null;
}
else {
hn = lastRun;
ln = null;
}
for (Node<K,V> p = f; p != lastRun; p = p.next) {
int ph = p.hash; K pk = p.key; V pv = p.val;
if ((ph & n) == 0)
ln = new Node<K,V>(ph, pk, pv, ln);
else
hn = new Node<K,V>(ph, pk, pv, hn);
}
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
advance = true;
}
else if (f instanceof TreeBin) {
TreeBin<K,V> t = (TreeBin<K,V>)f;
TreeNode<K,V> lo = null, loTail = null;
TreeNode<K,V> hi = null, hiTail = null;
int lc = 0, hc = 0;
for (Node<K,V> e = t.first; e != null; e = e.next) {
int h = e.hash;
TreeNode<K,V> p = new TreeNode<K,V>
(h, e.key, e.val, null, null);
if ((h & n) == 0) {
if ((p.prev = loTail) == null)
lo = p;
else
loTail.next = p;
loTail = p;
++lc;
}
else {
if ((p.prev = hiTail) == null)
hi = p;
else
hiTail.next = p;
hiTail = p;
++hc;
}
}
ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
(hc != 0) ? new TreeBin<K,V>(lo) : t;
hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
(lc != 0) ? new TreeBin<K,V>(hi) : t;
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
advance = true;
}
}
}
}
}
}
总结
? JDK7 中的 ConcurrentHashMap 由 Segment 和 HashEntry 组成,即 ConcurrentHashMap 把哈希桶数组切分成 小数组(Segment),每个小数组有 n 个 HashEntry 组成。 ? 将数据分为一段一段的存储,然后给每一段数据配一把锁,当一个线程占用锁访问其中一段数据时,其他段的数据 也能被其他线程访问,实现并发访问。
JDK8 中的ConcurrentHashMap 选择了与 HashMap 相同的 Node数组+链表+红黑树结构 ? 在锁的实现上,抛弃了原有的 Segment 分段锁,采用 CAS + synchronized 实现更加细粒度的锁。将锁的级别控制在了 更细粒度的哈希桶数组元素级别,只需要锁住这个链表头节点(红黑树的根节点),就不会影响其他的哈希桶数组元素 的读写,大大提高了并发度
get 方法不需要加锁。 因为 Node 和 HashEntry 的元素 value 和指针 next 是用 volatile 修饰的,在多线程环境下线程A修改节点的 value 或 者新增节点的时候是对线程B可见的。
ConcurrentHashMap的value和key为什么不能为null? 对于key不能为null,估计是作者不喜欢null的key的原因。 为什么value不能是null? ? 因为ConcorrentHashMap 工作于多线程环境,如果ConcurrentHashMap.get(key)返回null,就无法判断值是null, 还是没有该key;而单线程的HashMap却可以用containsKey(key)判断是否包含了这个key。
ConcurrentHashMapJDK1.7和JDK1.8的区别: ? 底层数据结构:JDK7底层数据结构是使用Segment组织的数组+链表,JDK8中取而代之的是数组+链表+红黑树的 结构,在链表节点数量大于 8(且数据总量大于等于 64)时,会将链表转化为红黑树进行存储。 ? 查询时间复杂度:从 JDK7的遍历链表O(n), JDK8 变成遍历红黑树O(logN)。 ? 保证线程安全机制:JDK7 采用 Segment 的分段锁机制实现线程安全,其中 Segment 继承自 ReentrantLock 。 JDK8 采用 CAS+synchronized 保证线程安全。 ? 锁的粒度:JDK7 是对需要进行数据操作的 Segment 加锁,JDK8 调整为对每个数组元素的头节点加锁。
ConcurrentHashMap和Hashtable: ConcurrentHashMap 的效率要高于 Hashtable 因为 Hashtable 给整个哈希表加锁从而实现线程安全。 而ConcurrentHashMap 的锁粒度更低: 在 JDK7 中采用Segment锁(分段锁)实现线程安全 在 JDK8 中采用 CAS+synchronized 实现线程安全。
有关CAS锁机制和synchronized可以看我的这篇👇 Java多线程
|