java集合之HashMap
Map是java中的一種資料結構,圍繞著Map介面,有一系列的實現類如Hashtable、HashMap、LinkedHashMap和TreeMap。而其中HashMap和Hashtable我們平常使用的最多。
HashMap與Hashtable表面上看沒有太大區別,但在一些使用細節和內部實現上有諸多微小的差異:
1、首先Hashtable的大部分方法做了同步,而HashMap沒有,也就是說前者是執行緒安全的,後者不是;
2、Hashtable不允許key或者value使用null值,而HashMap可以;
3、在內部演算法上,對key的hash演算法和hash值到記憶體索引的對映不同;
基於HashMap的使用較為廣泛,在這裡我們主要分析下HashMap的實現:
在 Java8 之前, HashMap 是連結串列雜湊的資料結構,即陣列和連結串列的結合體;從 Java8 開始,HashMap改為由陣列+連結串列+紅黑樹實現,並對擴容的優化。具體結構如下圖所示(圖片來自網路)
接下來我們分析下具體的程式碼實現,首先看下HashMap的建構函式
/** * * @param initialCapacity 初始化大小,通過tableSizeFor計算會返回一個比給定整數大且最接近的2的冪次方整數,並賦值給threshold * @param loadFactor擴容因子 預設為DEFAULT_LOAD_FACTOR 即0.75 */ public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; this.threshold = tableSizeFor(initialCapacity); } public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); } public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; } public HashMap(Map<? extends K, ? extends V> m) { this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false); }
這其中loadFactor和threshold,loadFactor為負載因子,預設值是0.75;threshold是HashMap所能容納的最大資料量的Node(鍵值對)個數,超過這個數目就重新resize(擴容),擴容後的HashMap容量是之前容量的兩倍。
接下來我們再看HashMap的put方法,在這裡我們主要關注以下幾點:
1、HashMap如何根據key值計算儲存元素的具體下邊位置
2、put方法的實現流程;
3、擴容機制的實現;
首先我們簡單分析下put方法的程式碼
public V put(K key, V value) { //對key值做hash return putVal(hash(key), key, value, false, true); } /** * Implements Map.put and related methods * * @param hash hash for key * @param key the key * @param value the value to put * @param onlyIfAbsent if true, don't change existing value * @param evict if false, the table is in creation mode. * @return previous value, or null if none */ final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { //繼承 Map.Entry<K,V>的Node鍵值對陣列 Node<K,V>[] tab; Node<K,V> p; int n, i; //如果鍵值對陣列為空則建立 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //計算index,即元素在陣列中的下標位置,判斷獲取值是否為空 if ((p = tab[i = (n - 1) & hash]) == null) //如果為空,則賦值 tab[i] = newNode(hash, key, value, null); else {//如果按下標位置已經有值,則代表出現了hash衝突,之前已經有值儲存在了次下標位置 Node<K,V> e; K k; //如果既不是紅黑樹也不是連結串列,那就只有是單個元素(Node<K,V>)了,那且hash值和key值相同,則直接覆蓋 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; //如果是紅黑樹,則按紅黑樹處理 else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { //如果是連結串列,則按連結串列進行處理 for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); //如果連結串列長度》=8怎轉換為紅黑樹處理 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } //如果元素(Node<K,V>)已經存在(key相同),則直接覆蓋 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; //如果陣列長度超過閾值,則進行擴容 if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
hash(key)方法的內部程式碼:
//jdk1.8原始碼 static final int hash(Object key) { int h; // h = key.hashCode() 為第一步 取hashCode值 // h ^ (h >>> 16)為第二步 高位參與運算 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); } //jdk1.7原始碼,1.8沒有,直接寫在了putVal裡面 static int indexFor(int h, int length) { return h & (length-1);//第三步 取模運算 }
這裡的Hash演算法本質上就是三步: 取key的hashCode值、高位運算、取模運算 。
對於任意給定的物件,只要它的hashCode()返回值相同,那麼程式呼叫方法一所計算得到的Hash碼值總是相同的。我們首先想到的就是把hash值對陣列長度取模運算,這樣一來,元素的分佈相對來說是比較均勻的。但是,模運算的消耗還是比較大的,在HashMap中是這樣做的:呼叫方法二來計算該物件應該儲存在table陣列的哪個索引處。
這個方法非常巧妙,它通過h & (table.length -1)來得到該物件的儲存位,而HashMap底層陣列的長度總是2的n次方,這是HashMap在速度上的優化。當length總是2的n次方時,h& (length-1)運算等價於對length取模,也就是h%length,但是&比%具有更高的效率。
在JDK1.8的實現中,優化了高位運算的演算法,通過hashCode()的高16位異或低16位實現的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、質量來考慮的,這麼做可以在陣列table的length比較小的時候,也能保證考慮到高低Bit都參與到Hash的計算中,同時不會有太大的開銷。
下面舉例說明下,n為table的長度。
接下來put方法的實現流程基本如下圖所示
針對擴容機制,簡答的做個程式碼分析
final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; //新的陣列大小,新的閾值大小 if (oldCap > 0) { //如果超過最大值了,就直接在賦一個最大值,其他的都不管了 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } // 沒超過最大值,就擴充為原來的2倍 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold//新的閾值 } else if (oldThr > 0) //原陣列為空且閾值大於0 newCap = oldThr; //,就把當前閾值的大小做為陣列的初始化大小,這裡newThr=0所以會在下面計算新的閾值大小 else {//原陣列和預設的閾值都為空 newCap = DEFAULT_INITIAL_CAPACITY;//新的陣列 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//新的閾值為預設大小*預設擴容因子 } if (newThr == 0) {//計算新的閾值大小 float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr;//新的閾值 //把原陣列中的資料轉移到新陣列中 @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } //返回新陣列 return newTab; }
從上面我們可以看出,相比JDK1.8的HashMap從以下幾個方面保證了資料儲存的高效:
1、優化的hash演算法,好的hash演算法,能夠極大降低hash衝突,保證元素分佈均勻,儘量保證一個hahs地址只儲存單個元素,可以直接獲取,提高效能。
2、對擴容進行了優化,引入紅黑樹,提高了查詢元素位置的效率,特別是在資料量較大,hash衝突較多時;
小結
(1) 擴容是一個特別耗效能的操作,所以當程式設計師在使用HashMap的時候,估算map的大小,初始化的時候給一個大致的數值,避免map進行頻繁的擴容。
(2) 負載因子是可以修改的,也可以大於1,但是建議不要輕易修改,除非情況非常特殊。
(3) HashMap是執行緒不安全的,不要在併發的環境中同時操作HashMap,建議使用ConcurrentHashMap。
(4) JDK1.8引入紅黑樹大程度優化了HashMap的效能。
參考資料 : 美團點評技術團隊 Java 8系列之重新認識HashMap ofollow,noindex" target="_blank">https://zhuanlan.zhihu.com/p/21673805