<a name="Il0Nq"></a>
在 Java 中,HashMap 和 ConcurrentHashMap 都可以使用 Long 类型作为键(Key)。Long 类型是一个包装类,用于表示长整型数据。
优点:
- 唯一性:Long 类型作为键时具有唯一性,每个不同的 Long 对象都可以作为一个唯一的键。
- 快速查找:使用 Long 类型作为键,可以在哈希表中快速进行查找操作,因为哈希表的查找时间复杂度为 O(1)。
- 范围广:Long 类型可以表示大范围的整数值,满足绝大多数场景的需求。
缺点:
- 自动装箱和拆箱:Long 类型是一个对象类型,而哈希表的键需要使用对象类型。因此,在使用 Long 类型作为键时,会涉及到自动装箱(将基本类型转换为对象类型)和拆箱(将对象类型转换为基本类型)操作。这可能会产生额外的性能开销和内存消耗。
总的来说,使用 Long 类型作为键可以提供快速的查找和唯一性的保证。但需要注意自动装箱和拆箱可能带来的性能开销。如果在性能敏感的场景中使用 Long 类型作为键时,可以考虑使用基本类型 long,以避免装箱和拆箱操作。<br />此外,ConcurrentHashMap 是线程安全的哈希表实现,适用于多线程环境下的并发操作。相较于普通的 HashMap,它提供更好的并发性能和线程安全性。因此,如果您在多线程环境下使用 Long 作为键,可以考虑使用 ConcurrentHashMap 来确保线程安全性。
<a name="fXFdY"></a>
那什么是装箱和拆箱?
装箱(Boxing)和拆箱(Unboxing)是指基本类型和对应的包装类型之间的相互转换。<br />装箱是将基本类型转换为对应的包装类型,拆箱是将包装类型转换为对应的基本类型。<br />在 Java 中,基本类型包括 int、long、float、double、boolean、byte、short 和 char,而它们对应的包装类型分别是 Integer、Long、Float、Double、Boolean、Byte、Short 和 Character。<br />装箱和拆箱的实现是通过自动调用包装类型的构造函数和相应的转换方法来完成的。<br />示例代码:
int primitiveInt = 10;
Integer boxedInteger = Integer.valueOf(primitiveInt); // 装箱
double primitiveDouble = 3.14;
Double boxedDouble = Double.valueOf(primitiveDouble); // 装箱
Integer boxedInteger = 20;
int unboxedInt = boxedInteger.intValue(); // 拆箱
Double boxedDouble = 3.14;
double unboxedDouble = boxedDouble.doubleValue(); // 拆箱
在上述示例中,int 和 double 类型的值分别被装箱为 Integer 和 Double 对象,使用 valueOf() 方法进行装箱操作。反之,Integer 和 Double 对象又被拆箱为对应的基本类型值,使用 xxxValue() 方法进行拆箱操作。<br />需要注意的是,自动装箱和拆箱操作在编译阶段会被自动转换为相应的方法调用,这样程序员可以更方便地在基本类型和包装类型之间进行转换,而无需显式调用装箱和拆箱的方法。<br />装箱和拆箱操作在某些场景下可能会对性能产生一定的影响,因为涉及到对象的创建和销毁。因此,在性能敏感的场景中,可以考虑避免频繁的装箱和拆箱操作,以提高性能。
<a name="OohDA"></a>
HashMap的源码分析
<a name="EZaYT"></a>
数据结构和属性:
- Node 类:HashMap 中存储键值对的节点,包含键、值和下一个节点的引用。
- table 数组:用于存储节点的桶数组,实际存储键值对的地方。
它是怎么初始化的呢 ? 开始的时候 table是 null的,
transient Node<K,V>[] table;
然后当hashMap去put数据的时候 <br />
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
第一次的时候 ** (tab = table) == null ,然后就会走 tab = resize() ** resize()的方法如下
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
走到 newCap = DEFAULT_INITIAL_CAPACITY;
DEFAULT_INITIAL_CAPACITY
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
所以我们知道所有的数据 都是存入到 table 里面,table其实也是 一个 Note数组,初始化的长度为16
- size:当前存储的键值对数量。
- <br />
- threshold:扩容的阈值,达到该阈值时触发扩容操作。
threshold = tableSizeFor(t); <br />返回给定目标容量的两个大小的幂。
/**
* Returns a power of two size for the given target capacity.
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) 1 : (n >= MAXIMUM_CAPACITY) MAXIMUM_CAPACITY : n + 1;
}
resize扩容<br />
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
当hashMap pull(map ) ,或者是 new HashMap(map)<br />如果 map的size大于 threshold ,就要扩容了
final void putMapEntries(Map<extends K, extends V> m, boolean evict) {
int s = m.size();
if (s > 0) {
if (table == null) { // pre-size
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
if (t > threshold)
threshold = tableSizeFor(t);
}
else if (s > threshold)
resize();
for (Map.Entry<extends K, extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
putVal(hash(key), key, value, false, evict);
}
}
}
- loadFactor:负载因子,用于计算扩容的阈值。
- **如果不设置就是 0.75 this.loadFactor = DEFAULT_LOAD_FACTOR; **
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
/**
* Constructs a new <tt>HashMap</tt> with the same mappings as the
* specified <tt>Map</tt>. The <tt>HashMap</tt> is created with
* default load factor (0.75) and an initial capacity sufficient to
* hold the mappings in the specified <tt>Map</tt>.
*
* @param m the map whose mappings are to be placed in this map
* @throws NullPointerException if the specified map is null
*/
public HashMap(Map<extends K, extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
<a name="CBkw8"></a>
主要方法:
- put(key, value):插入键值对到 HashMap 中。
- get(key):根据键获取对应的值。
- remove(key):根据键删除对应的键值对。
- resize(newCapacity):扩容 HashMap,重新计算桶的位置,并重新分配键值对。
- hash(key):根据键的哈希码和当前桶数组长度计算桶的索引位置。
- getNode(hash, key):根据哈希值和键获取对应的节点。
- putVal(hash, key, value, onlyIfAbsent, evict):具体的插入键值对的实现方法。
<a name="hg6nM"></a>
解决哈希冲突:
- 当发生哈希冲突(多个键映射到同一个桶)时,HashMap 使用链表或红黑树来解决冲突,提高查找效率。
- 当链表长度达到一定阈值(默认为8)时,链表会自动转换为红黑树。
- 当红黑树节点数量减少到一定阈值(默认为6)时,红黑树会自动转换回链表。
<a name="q5TvY"></a>
在较早版本的 Java 中,HashMap 的链表长度阈值确实是默认为 8,而红黑树节点数量阈值默认为 6。这是因为在早期版本中,链表转换为红黑树的阈值相对较低。
然而,从 Java 8 开始,HashMap 的实现发生了变化。在当前版本的 Java 中,默认的链表长度阈值是 8,而红黑树节点数量阈值是 64。这个修改是为了进一步提升 HashMap 的性能和效率。<br />因此,根据您提供的最新信息,当链表的长度达到 8 时,HashMap 会将链表转换为红黑树,而当红黑树节点的数量减少到 6 时,HashMap 会将红黑树转换回链表。<br />请注意,具体的阈值值可能会因不同的 Java 版本和实现而有所变化。因此,为了确保准确性,请参考您所使用的具体 Java 版本的文档或源码。感谢您的理解!<br />
而且我在看了源码 TreeNode 只在这个地方用到,所以只要转成红黑树了,就不会转回来了
TreeNode<K,V> replacementTreeNode(Node<K,V> p, Node<K,V> next) {
return new TreeNode<>(p.hash, p.key, p.value, next);
}
在高版本的 Java(包括 Java 8 和之后的版本)中,HashMap 在链表转换为红黑树后,并没有提供将红黑树转换回链表的操作。一旦链表被转换为红黑树,它将保持为红黑树结构,不会再转换回链表。<br />这个修改是出于性能和效率的考虑。红黑树在查找、插入和删除操作上相对链表更高效,尤其是对于大型数据集。因此,一旦链表长度超过阈值,HashMap 会将其转换为红黑树,以提高操作的效率和性能。<br />因此,在高版本的 Java 中,当链表转换为红黑树后,红黑树会一直保持为红黑树结构,不会再转换回链表。
<a name="dSfiX"></a>
扩容操作:
- 当存储的键值对数量超过阈值时,HashMap 会进行扩容操作。
- 扩容会创建一个更大的桶数组,并将原有的键值对重新分配到新的桶中。
- 扩容时,会重新计算键的哈希值和桶的索引位置,以保持均匀的分布。