1. 程式人生 > >Java容器(七):重新認識HashMap(Java1.8和Java1.7中HashMap的差異)

Java容器(七):重新認識HashMap(Java1.8和Java1.7中HashMap的差異)

摘要

HashMap是Java程式設計師使用頻率最高的用於對映(鍵值對)處理的資料型別。隨著JDK(Java Developmet Kit)版本的更新,JDK1.8對HashMap底層的實現進行了優化,例如引入紅黑樹的資料結構和擴容的優化等。本文結合JDK1.7和JDK1.8的區別,深入探討HashMap的結構實現和功能原理。
 

簡介

Java為資料結構中的對映定義了一個介面java.util.Map,此介面主要有四個常用的實現類,分別是HashMap、Hashtable、LinkedHashMap和TreeMap,類繼承關係如下圖所示:

java.util.map類圖

下面針對各個實現類的特點做一些說明:

(1) HashMap:它根據鍵的hashCode值儲存資料,大多數情況下可以直接定位到它的值,因而具有很快的訪問速度,但遍歷順序卻是不確定的。 HashMap最多隻允許一條記錄的鍵為null,允許多條記錄的值為null。HashMap非執行緒安全,即任一時刻可以有多個執行緒同時寫HashMap,可能會導致資料的不一致。如果需要滿足執行緒安全,可以用 Collections的synchronizedMap方法使HashMap具有執行緒安全的能力,或者使用ConcurrentHashMap。

(2) Hashtable:Hashtable是遺留類,很多對映的常用功能與HashMap類似,不同的是它承自Dictionary類,並且是執行緒安全的,任一時間只有一個執行緒能寫Hashtable,併發性不如ConcurrentHashMap,因為ConcurrentHashMap引入了分段鎖。Hashtable不建議在新程式碼中使用,不需要執行緒安全的場合可以用HashMap替換,需要執行緒安全的場合可以用ConcurrentHashMap替換。

(3) LinkedHashMap:LinkedHashMap是HashMap的一個子類,儲存了記錄的插入順序,在用Iterator遍歷LinkedHashMap時,先得到的記錄肯定是先插入的,也可以在構造時帶引數,按照訪問次序排序。

(4) TreeMap:TreeMap實現SortedMap介面,能夠把它儲存的記錄根據鍵排序,預設是按鍵值的升序排序,也可以指定排序的比較器,當用Iterator遍歷TreeMap時,得到的記錄是排過序的。如果使用排序的對映,建議使用TreeMap。在使用TreeMap時,key必須實現Comparable介面或者在構造TreeMap傳入自定義的Comparator,否則會在執行時丟擲java.lang.ClassCastException型別的異常。

對於上述四種Map型別的類,要求對映中的key是不可變物件。不可變物件是該物件在建立後它的雜湊值不會被改變。如果物件的雜湊值發生變化,Map物件很可能就定位不到對映的位置了。

通過上面的比較,我們知道了HashMap是Java的Map家族中一個普通成員,鑑於它可以滿足大多數場景的使用條件,所以是使用頻度最高的一個。下文我們主要結合原始碼,從儲存結構、常用方法分析、擴容以及安全性等方面深入講解HashMap的工作原理。

內部實現

搞清楚HashMap,首先需要知道HashMap是什麼,即它的儲存結構-欄位;其次弄明白它能幹什麼,即它的功能實現-方法。下面我們針對這兩個方面詳細展開講解。

儲存結構-欄位

從結構實現來講,HashMap是陣列+連結串列+紅黑樹(JDK1.8增加了紅黑樹部分)實現的,如下如所示。

hashMap記憶體結構圖

這裡需要講明白兩個問題:資料底層具體儲存的是什麼?這樣的儲存方式有什麼優點呢?

(1) 從原始碼可知,HashMap類中有一個非常重要的欄位,就是 Node[] table,即雜湊桶陣列,明顯它是一個Node的陣列。我們來看Node[JDK1.8]是何物。

  1. static class Node<K,V> implements Map.Entry<K,V> {

  2. final int hash; //用來定位陣列索引位置

  3. final K key;

  4. V value;

  5. Node<K,V> next; //連結串列的下一個node

  6. Node(int hash, K key, V value, Node<K,V> next) { ... }

  7. public final K getKey(){ ... }

  8. public final V getValue() { ... }

  9. public final String toString() { ... }

  10. public final int hashCode() { ... }

  11. public final V setValue(V newValue) { ... }

  12. public final boolean equals(Object o) { ... }

  13. }

Node是HashMap的一個內部類,實現了Map.Entry介面,本質是就是一個對映(鍵值對)。上圖中的每個黑色圓點就是一個Node物件。

(2) HashMap就是使用雜湊表來儲存的。雜湊表為解決衝突,可以採用開放地址法和鏈地址法等來解決問題,Java中HashMap採用了鏈地址法。鏈地址法,簡單來說,就是陣列加連結串列的結合。在每個陣列元素上都一個連結串列結構,當資料被Hash後,得到陣列下標,把資料放在對應下標元素的連結串列上。例如程式執行下面程式碼:

    map.put("美團","小美");

系統將呼叫"美團"這個key的hashCode()方法得到其hashCode 值(該方法適用於每個Java物件),然後再通過Hash演算法的後兩步運算(高位運算和取模運算,下文有介紹)來定位該鍵值對的儲存位置,有時兩個key會定位到相同的位置,表示發生了Hash碰撞。當然Hash演算法計算結果越分散均勻,Hash碰撞的概率就越小,map的存取效率就會越高。

如果雜湊桶陣列很大,即使較差的Hash演算法也會比較分散,如果雜湊桶陣列陣列很小,即使好的Hash演算法也會出現較多碰撞,所以就需要在空間成本和時間成本之間權衡,其實就是在根據實際情況確定雜湊桶陣列的大小,並在此基礎上設計好的hash演算法減少Hash碰撞。那麼通過什麼方式來控制map使得Hash碰撞的概率又小,雜湊桶陣列(Node[] table)佔用空間又少呢?答案就是好的Hash演算法和擴容機制。

在理解Hash和擴容流程之前,我們得先了解下HashMap的幾個欄位。從HashMap的預設建構函式原始碼可知,建構函式就是對下面幾個欄位進行初始化,原始碼如下:

  1. int threshold; // 所能容納的key-value對極限

  2. final float loadFactor; // 負載因子

  3. int modCount;

  4. int size;

首先,Node[] table的初始化長度length(預設值是16),Load factor為負載因子(預設值是0.75),threshold是HashMap所能容納的最大資料量的Node(鍵值對)個數。threshold = length * Load factor。也就是說,在陣列定義好長度之後,負載因子越大,所能容納的鍵值對個數越多。

結合負載因子的定義公式可知,threshold就是在此Load factor和length(陣列長度)對應下允許的最大元素數目,超過這個數目就重新resize(擴容),擴容後的HashMap容量是之前容量的兩倍。預設的負載因子0.75是對空間和時間效率的一個平衡選擇,建議大家不要修改,除非在時間和空間比較特殊的情況下,如果記憶體空間很多而又對時間效率要求很高,可以降低負載因子Load factor的值;相反,如果記憶體空間緊張而對時間效率要求不高,可以增加負載因子loadFactor的值,這個值可以大於1。

size這個欄位其實很好理解,就是HashMap中實際存在的鍵值對數量。注意和table的長度length、容納最大鍵值對數量threshold的區別。而modCount欄位主要用來記錄HashMap內部結構發生變化的次數,主要用於迭代的快速失敗。強調一點,內部結構發生變化指的是結構發生變化,例如put新鍵值對,但是某個key對應的value值被覆蓋不屬於結構變化。

在HashMap中,雜湊桶陣列table的長度length大小必須為2的n次方(一定是合數),這是一種非常規的設計,常規的設計是把桶的大小設計為素數。相對來說素數導致衝突的概率要小於合數,具體證明可以參考http://blog.csdn.net/liuqiyao_01/article/details/14475159,Hashtable初始化桶大小為11,就是桶大小設計為素數的應用(Hashtable擴容後不能保證還是素數)。HashMap採用這種非常規設計,主要是為了在取模和擴容時做優化,同時為了減少衝突,HashMap定位雜湊桶索引位置時,也加入了高位參與運算的過程。

這裡存在一個問題,即使負載因子和Hash演算法設計的再合理,也免不了會出現拉鍊過長的情況,一旦出現拉鍊過長,則會嚴重影響HashMap的效能。於是,在JDK1.8版本中,對資料結構做了進一步的優化,引入了紅黑樹。而當連結串列長度太長(預設超過8)時,連結串列就轉換為紅黑樹,利用紅黑樹快速增刪改查的特點提高HashMap的效能,其中會用到紅黑樹的插入、刪除、查詢等演算法。本文不再對紅黑樹展開討論,想了解更多紅黑樹資料結構的工作原理可以參考http://blog.csdn.net/v_july_v/article/details/6105630

功能實現-方法

HashMap的內部功能實現很多,本文主要從根據key獲取雜湊桶陣列索引位置、put方法的詳細執行、擴容過程三個具有代表性的點深入展開講解。

1. 確定雜湊桶陣列索引位置

不管增加、刪除、查詢鍵值對,定位到雜湊桶陣列的位置都是很關鍵的第一步。前面說過HashMap的資料結構是陣列和連結串列的結合,所以我們當然希望這個HashMap裡面的元素位置儘量分佈均勻些,儘量使得每個位置上的元素數量只有一個,那麼當我們用hash演算法求得這個位置的時候,馬上就可以知道對應位置的元素就是我們要的,不用遍歷連結串列,大大優化了查詢的效率。HashMap定位陣列索引位置,直接決定了hash方法的離散效能。先看看原始碼的實現(方法一+方法二):

  1. 方法一:

  2. static final int hash(Object key) { //jdk1.8 & jdk1.7

  3. int h;

  4. // h = key.hashCode() 為第一步 取hashCode值

  5. // h ^ (h >>> 16) 為第二步 高位參與運算

  6. return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);

  7. }

  8. 方法二:

  9. static int indexFor(int h, int length) { //jdk1.7的原始碼,jdk1.8沒有這個方法,但是實現原理一樣的

  10. return h & (length-1); //第三步 取模運算

  11. }

這裡的Hash演算法本質上就是三步:取key的hashCode值、高位運算、取模運算。

對於任意給定的物件,只要它的hashCode()返回值相同,那麼程式呼叫方法一所計算得到的Hash碼值總是相同的。我們首先想到的就是把hash值對陣列長度取模運算,這樣一來,元素的分佈相對來說是比較均勻的。但是,模運算的消耗還是比較大的,在HashMap中是這樣做的:呼叫方法二來計算該物件應該儲存在table陣列的哪個索引處。

這個方法非常巧妙,它通過h & (table.length -1)來得到該物件的儲存位,而HashMap底層陣列的長度總是2的n次方,這是HashMap在速度上的優化。當length總是2的n次方時,h& (length-1)運算等價於對length取模,也就是h%length,但是&比%具有更高的效率。

在JDK1.8的實現中,優化了高位運算的演算法,通過hashCode()的高16位異或低16位實現的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、質量來考慮的,這麼做可以在陣列table的length比較小的時候,也能保證考慮到高低Bit都參與到Hash的計算中,同時不會有太大的開銷。

下面舉例說明下,n為table的長度。

hashMap雜湊演算法例圖

2. 分析HashMap的put方法

HashMap的put方法執行過程可以通過下圖來理解,自己有興趣可以去對比原始碼更清楚地研究學習。

hashMap put方法執行流程圖

①.判斷鍵值對陣列table[i]是否為空或為null,否則執行resize()進行擴容;

②.根據鍵值key計算hash值得到插入的陣列索引i,如果table[i]==null,直接新建節點新增,轉向⑥,如果table[i]不為空,轉向③;

③.判斷table[i]的首個元素是否和key一樣,如果相同直接覆蓋value,否則轉向④,這裡的相同指的是hashCode以及equals;

④.判斷table[i] 是否為treeNode,即table[i] 是否是紅黑樹,如果是紅黑樹,則直接在樹中插入鍵值對,否則轉向⑤;

⑤.遍歷table[i],判斷連結串列長度是否大於8,大於8的話把連結串列轉換為紅黑樹,在紅黑樹中執行插入操作,否則進行連結串列的插入操作;遍歷過程中若發現key已經存在直接覆蓋value即可;

⑥.插入成功後,判斷實際存在的鍵值對數量size是否超多了最大容量threshold,如果超過,進行擴容。

JDK1.8HashMap的put方法原始碼如下:

  1. 1 public V put(K key, V value) {

  2. 2 // 對key的hashCode()做hash

  3. 3 return putVal(hash(key), key, value, false, true);

  4. 4 }

  5. 5

  6. 6 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,

  7. 7 boolean evict) {

  8. 8 Node<K,V>[] tab; Node<K,V> p; int n, i;

  9. 9 // 步驟①:tab為空則建立

  10. 10 if ((tab = table) == null || (n = tab.length) == 0)

  11. 11 n = (tab = resize()).length;

  12. 12 // 步驟②:計算index,並對null做處理

  13. 13 if ((p = tab[i = (n - 1) & hash]) == null)

  14. 14 tab[i] = newNode(hash, key, value, null);

  15. 15 else {

  16. 16 Node<K,V> e; K k;

  17. 17 // 步驟③:節點key存在,直接覆蓋value

  18. 18 if (p.hash == hash &&

  19. 19 ((k = p.key) == key || (key != null && key.equals(k))))

  20. 20 e = p;

  21. 21 // 步驟④:判斷該鏈為紅黑樹

  22. 22 else if (p instanceof TreeNode)

  23. 23 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);

  24. 24 // 步驟⑤:該鏈為連結串列

  25. 25 else {

  26. 26 for (int binCount = 0; ; ++binCount) {

  27. 27 if ((e = p.next) == null) {

  28. 28 p.next = newNode(hash, key,value,null);

  29. //連結串列長度大於8轉換為紅黑樹進行處理

  30. 29 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st

  31. 30 treeifyBin(tab, hash);

  32. 31 break;

  33. 32 }

  34. // key已經存在直接覆蓋value

  35. 33 if (e.hash == hash &&

  36. 34 ((k = e.key) == key || (key != null && key.equals(k))))

  37. 35 break;

  38. 36 p = e;

  39. 37 }

  40. 38 }

  41. 39

  42. 40 if (e != null) { // existing mapping for key

  43. 41 V oldValue = e.value;

  44. 42 if (!onlyIfAbsent || oldValue == null)

  45. 43 e.value = value;

  46. 44 afterNodeAccess(e);

  47. 45 return oldValue;

  48. 46 }

  49. 47 }

  50. 48 ++modCount;

  51. 49 // 步驟⑥:超過最大容量 就擴容

  52. 50 if (++size > threshold)

  53. 51 resize();

  54. 52 afterNodeInsertion(evict);

  55. 53 return null;

  56. 54 }

3. 擴容機制

擴容(resize)就是重新計算容量,向HashMap物件裡不停的新增元素,而HashMap物件內部的陣列無法裝載更多的元素時,物件就需要擴大陣列的長度,以便能裝入更多的元素。當然Java裡的陣列是無法自動擴容的,方法是使用一個新的陣列代替已有的容量小的陣列,就像我們用一個小桶裝水,如果想裝更多的水,就得換大水桶。

我們分析下resize的原始碼,鑑於JDK1.8融入了紅黑樹,較複雜,為了便於理解我們仍然使用JDK1.7的程式碼,好理解一些,本質上區別不大,具體區別後文再說。

  1. 1 void resize(int newCapacity) { //傳入新的容量

  2. 2 Entry[] oldTable = table; //引用擴容前的Entry陣列

  3. 3 int oldCapacity = oldTable.length;

  4. 4 if (oldCapacity == MAXIMUM_CAPACITY) { //擴容前的陣列大小如果已經達到最大(2^30)了

  5. 5 threshold = Integer.MAX_VALUE; //修改閾值為int的最大值(2^31-1),這樣以後就不會擴容了

  6. 6 return;

  7. 7 }

  8. 8

  9. 9 Entry[] newTable = new Entry[newCapacity]; //初始化一個新的Entry陣列

  10. 10 transfer(newTable); //!!將資料轉移到新的Entry數組裡

  11. 11 table = newTable; //HashMap的table屬性引用新的Entry陣列

  12. 12 threshold = (int)(newCapacity * loadFactor);//修改閾值

  13. 13 }

這裡就是使用一個容量更大的陣列來代替已有的容量小的陣列,transfer()方法將原有Entry陣列的元素拷貝到新的Entry數組裡。

  1. 1 void transfer(Entry[] newTable) {

  2. 2 Entry[] src = table; //src引用了舊的Entry陣列

  3. 3 int newCapacity = newTable.length;

  4. 4 for (int j = 0; j < src.length; j++) { //遍歷舊的Entry陣列

  5. 5 Entry<K,V> e = src[j]; //取得舊Entry陣列的每個元素

  6. 6 if (e != null) {

  7. 7 src[j] = null;//釋放舊Entry陣列的物件引用(for迴圈後,舊的Entry陣列不再引用任何物件)

  8. 8 do {

  9. 9 Entry<K,V> next = e.next;

  10. 10 int i = indexFor(e.hash, newCapacity); //!!重新計算每個元素在陣列中的位置

  11. 11 e.next = newTable[i]; //標記[1]

  12. 12 newTable[i] = e; //將元素放在陣列上

  13. 13 e = next; //訪問下一個Entry鏈上的元素

  14. 14 } while (e != null);

  15. 15 }

  16. 16 }

  17. 17 }

newTable[i]的引用賦給了e.next,也就是使用了單鏈表的頭插入方式,同一位置上新元素總會被放在連結串列的頭部位置;這樣先放在一個索引上的元素終會被放到Entry鏈的尾部(如果發生了hash衝突的話),這一點和Jdk1.8有區別,下文詳解。在舊陣列中同一條Entry鏈上的元素,通過重新計算索引位置後,有可能被放到了新陣列的不同位置上。

下面舉個例子說明下擴容過程。假設了我們的hash演算法就是簡單的用key mod 一下表的大小(也就是陣列的長度)。其中的雜湊桶陣列table的size=2, 所以key = 3、7、5,put順序依次為 5、7、3。在mod 2以後都衝突在table[1]這裡了。這裡假設負載因子 loadFactor=1,即當鍵值對的實際大小size 大於 table的實際大小時進行擴容。接下來的三個步驟是雜湊桶陣列 resize成4,然後所有的Node重新rehash的過程。

jdk1.7擴容例圖

下面我們講解下JDK1.8做了哪些優化。經過觀測可以發現,我們使用的是2次冪的擴充套件(指長度擴為原來2倍),所以,元素的位置要麼是在原位置,要麼是在原位置再移動2次冪的位置。看下圖可以明白這句話的意思,n為table的長度,圖(a)表示擴容前的key1和key2兩種key確定索引位置的示例,圖(b)表示擴容後key1和key2兩種key確定索引位置的示例,其中hash1是key1對應的雜湊與高位運算結果。

hashMap 1.8 雜湊演算法例圖1

元素在重新計算hash之後,因為n變為2倍,那麼n-1的mask範圍在高位多1bit(紅色),因此新的index就會發生這樣的變化:

hashMap 1.8 雜湊演算法例圖2

因此,我們在擴充HashMap的時候,不需要像JDK1.7的實現那樣重新計算hash,只需要看看原來的hash值新增的那個bit是1還是0就好了,是0的話索引沒變,是1的話索引變成“原索引+oldCap”,可以看看下圖為16擴充為32的resize示意圖:

jdk1.8 hashMap擴容例圖

這個設計確實非常的巧妙,既省去了重新計算hash值的時間,而且同時,由於新增的1bit是0還是1可以認為是隨機的,因此resize的過程,均勻的把之前的衝突的節點分散到新的bucket了。這一塊就是JDK1.8新增的優化點。有一點注意區別,JDK1.7中rehash的時候,舊連結串列遷移新連結串列的時候,如果在新表的陣列索引位置相同,則連結串列元素會倒置,但是從上圖可以看出,JDK1.8不會倒置。有興趣的同學可以研究下JDK1.8的resize原始碼,寫的很贊,如下:

程式碼中主要點在於判斷高位新增的是1還是0,if ((e.hash & oldCap) == 0) 就在原位置,否則在原索引+oldCap的位置。這個if即判斷了新增的位是1還是0,一般我們用hash定址,都是hash & length - 1,而這裡是直接hash & length,這樣的做法是讓低位全部為0,這樣就可以判斷高位是1還是0了!

例如:

0000 0101 & 0000 1111(15),解為5,而0000 0101 & 0001 0000(16),解為0。

因此,假如現在在原table索引位置為5的地方有兩個節點,分別為5和21,那麼當16擴容成為32時,他們在新陣列的位置是這樣的:

0000 0101 & 0001 0000 = 0 所以5在新陣列的位置:原索引位置5

0001 0101 & 0001 0000 = 1 所以21在新陣列的位置:索引位置 + 16

  1. 1 final Node<K,V>[] resize() {

  2. 2 Node<K,V>[] oldTab = table;

  3. 3 int oldCap = (oldTab == null) ? 0 : oldTab.length;

  4. 4 int oldThr = threshold;

  5. 5 int newCap, newThr = 0;

  6. 6 if (oldCap > 0) {

  7. 7 // 超過最大值就不再擴充了,就只好隨你碰撞去吧

  8. 8 if (oldCap >= MAXIMUM_CAPACITY) {

  9. 9 threshold = Integer.MAX_VALUE;

  10. 10 return oldTab;

  11. 11 }

  12. 12 // 沒超過最大值,就擴充為原來的2倍

  13. 13 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&

  14. 14 oldCap >= DEFAULT_INITIAL_CAPACITY)

  15. 15 newThr = oldThr << 1; // double threshold

  16. 16 }

  17. 17 else if (oldThr > 0) // initial capacity was placed in threshold

  18. 18 newCap = oldThr;

  19. 19 else { // zero initial threshold signifies using defaults

  20. 20 newCap = DEFAULT_INITIAL_CAPACITY;

  21. 21 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);

  22. 22 }

  23. 23 // 計算新的resize上限

  24. 24 if (newThr == 0) {

  25. 25

  26. 26 float ft = (float)newCap * loadFactor;

  27. 27 newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?

  28. 28 (int)ft : Integer.MAX_VALUE);

  29. 29 }

  30. 30 threshold = newThr;

  31. 31 @SuppressWarnings({"rawtypes","unchecked"})

  32. 32 Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];

  33. 33 table = newTab;

  34. 34 if (oldTab != null) {

  35. 35 // 把每個bucket都移動到新的buckets中

  36. 36 for (int j = 0; j < oldCap; ++j) {

  37. 37 Node<K,V> e;

  38. 38 if ((e = oldTab[j]) != null) {

  39. 39 oldTab[j] = null;

  40. 40 if (e.next == null)

  41. 41 newTab[e.hash & (newCap - 1)] = e;

  42. 42 else if (e instanceof TreeNode)

  43. 43 ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);

  44. 44 else { // 連結串列優化重hash的程式碼塊

  45. 45 Node<K,V> loHead = null, loTail = null;

  46. 46 Node<K,V> hiHead = null, hiTail = null;

  47. 47 Node<K,V> next;

  48. 48 do {

  49. 49 next = e.next;

  50. 50 // 原索引

  51. 51 if ((e.hash & oldCap) == 0) {

  52. 52 if (loTail == null)

  53. 53 loHead = e;

  54. 54 else

  55. 55 loTail.next = e;

  56. 56 loTail = e;

  57. 57 }

  58. 58 // 原索引+oldCap

  59. 59 else {

  60. 60 if (hiTail == null)

  61. 61 hiHead = e;

  62. 62 else

  63. 63 hiTail.next = e;

  64. 64 hiTail = e;

  65. 65 }

  66. 66 } while ((e = next) != null);

  67. 67 // 原索引放到bucket裡

  68. 68 if (loTail != null) {

  69. 69 loTail.next = null;

  70. 70 newTab[j] = loHead;

  71. 71 }

  72. 72 // 原索引+oldCap放到bucket裡

  73. 73 if (hiTail != null) {

  74. 74 hiTail.next = null;

  75. 75 newTab[j + oldCap] = hiHead;

  76. 76 }

  77. 77 }

  78. 78 }

  79. 79 }

  80. 80 }

  81. 81 return newTab;

  82. 82 }

執行緒安全性

在多執行緒使用場景中,應該儘量避免使用執行緒不安全的HashMap,而使用執行緒安全的ConcurrentHashMap。那麼為什麼說HashMap是執行緒不安全的,下面舉例子說明在併發的多執行緒使用場景中使用HashMap可能造成死迴圈。程式碼例子如下(便於理解,仍然使用JDK1.7的環境):

  1. public class HashMapInfiniteLoop {

  2. private static HashMap<Integer,String> map = new HashMap<Integer,String>(2,0.75f);

  3. public static void main(String[] args) {

  4. map.put(5, "C");

  5. new Thread("Thread1") {

  6. public void run() {

  7. map.put(7, "B");

  8. System.out.println(map);

  9. };

  10. }.start();

  11. new Thread("Thread2") {

  12. public void run() {

  13. map.put(3, "A);

  14. System.out.println(map);

  15. };

  16. }.start();

  17. }

  18. }

其中,map初始化為一個長度為2的陣列,loadFactor=0.75,threshold=2*0.75=1,也就是說當put第二個key的時候,map就需要進行resize。

通過設定斷點讓執行緒1和執行緒2同時debug到transfer方法(3.3小節程式碼塊)的首行。注意此時兩個執行緒已經成功新增資料。放開thread1的斷點至transfer方法的“Entry next = e.next;” 這一行;然後放開執行緒2的的斷點,讓執行緒2進行resize。結果如下圖。

jdk1.7 hashMap死迴圈例圖1

注意,Thread1的 e 指向了key(3),而next指向了key(7),其線上程二rehash後,指向了執行緒二重組後的連結串列。

執行緒一被排程回來執行,先是執行 newTalbe[i] = e, 然後是e = next,導致了e指向了key(7),而下一次迴圈的next = e.next導致了next指向了key(3)。

jdk1.7 hashMap死迴圈例圖2

jdk1.7 hashMap死迴圈例圖3

e.next = newTable[i] 導致 key(3).next 指向了 key(7)。注意:此時的key(7).next 已經指向了key(3), 環形連結串列就這樣出現了。

jdk1.7 hashMap死迴圈例圖4

於是,當我們用執行緒一呼叫map.get(11)時,悲劇就出現了——Infinite Loop。

JDK1.8與JDK1.7的效能對比

HashMap中,如果key經過hash演算法得出的陣列索引位置全部不相同,即Hash演算法非常好,那樣的話,getKey方法的時間複雜度就是O(1),如果Hash演算法技術的結果碰撞非常多,假如Hash算極其差,所有的Hash演算法結果得出的索引位置一樣,那樣所有的鍵值對都集中到一個桶中,或者在一個連結串列中,或者在一個紅黑樹中,時間複雜度分別為O(n)和O(lgn)。 鑑於JDK1.8做了多方面的優化,總體效能優於JDK1.7,下面我們從兩個方面用例子證明這一點。

Hash較均勻的情況

為了便於測試,我們先寫一個類Key,如下:

  1. class Key implements Comparable<Key> {

  2. private final int value;

  3. Key(int value) {

  4. this.value = value;

  5. }

  6. @Override

  7. public int compareTo(Key o) {

  8. return Integer.compare(this.value, o.value);

  9. }

  10. @Override

  11. public boolean equals(Object o) {

  12. if (this == o) return true;

  13. if (o == null || getClass() != o.getClass())

  14. return false;

  15. Key key = (Key) o;

  16. return value == key.value;

  17. }

  18. @Override

  19. public int hashCode() {

  20. return value;

  21. }

  22. }

這個類複寫了equals方法,並且提供了相當好的hashCode函式,任何一個值的hashCode都不會相同,因為直接使用value當做hashcode。為了避免頻繁的GC,我將不變的Key例項快取了起來,而不是一遍一遍的建立它們。程式碼如下:

  1. public class Keys {

  2. public static final int MAX_KEY = 10_000_000;

  3. private static final Key[] KEYS_CACHE = new Key[MAX_KEY];

  4. static {

  5. for (int i = 0; i < MAX_KEY; ++i) {

  6. KEYS_CACHE[i] = new Key(i);

  7. }

  8. }

  9. public static Key of(int value) {

  10. return KEYS_CACHE[value];

  11. }

  12. }

現在開始我們的試驗,測試需要做的僅僅是,建立不同size的HashMap(1、10、100、......10000000),遮蔽了擴容的情況,程式碼如下:

  1. static void test(int mapSize) {

  2. HashMap<Key, Integer> map = new HashMap<Key,Integer>(mapSize);

  3. for (int i = 0; i < mapSize; ++i) {

  4. map.put(Keys.of(i), i);

  5. }

  6. long beginTime = System.nanoTime(); //獲取納秒

  7. for (int i = 0; i < mapSize; i++) {

  8. map.get(Keys.of(i));

  9. }

  10. long endTime = System.nanoTime();

  11. System.out.println(endTime - beginTime);

  12. }

  13. public static void main(String[] args) {

  14. for(int i=10;i<= 1000 0000;i*= 10){

  15. test(i);

  16. }

  17. }

在測試中會查詢不同的值,然後度量花費的時間,為了計算getKey的平均時間,我們遍歷所有的get方法,計算總的時間,除以key的數量,計算一個平均值,主要用來比較,絕對值可能會受很多環境因素的影響。結果如下:

效能比較表1.png

通過觀測測試結果可知,JDK1.8的效能要高於JDK1.7 15%以上,在某些size的區域上,甚至高於100%。由於Hash演算法較均勻,JDK1.8引入的紅黑樹效果不明顯,下面我們看看Hash不均勻的的情況。

Hash極不均勻的情況

假設我們又一個非常差的Key,它們所有的例項都返回相同的hashCode值。這是使用HashMap最壞的情況。程式碼修改如下:

  1. class Key implements Comparable<Key> {

  2. //...

  3. @Override

  4. public int hashCode() {

  5. return 1;

  6. }

  7. }

仍然執行main方法,得出的結果如下表所示:

效能比較表2.png

從表中結果中可知,隨著size的變大,JDK1.7的花費時間是增長的趨勢,而JDK1.8是明顯的降低趨勢,並且呈現對數增長穩定。當一個連結串列太長的時候,HashMap會動態的將它替換成一個紅黑樹,這話的話會將時間複雜度從O(n)降為O(logn)。hash演算法均勻和不均勻所花費的時間明顯也不相同,這兩種情況的相對比較,可以說明一個好的hash演算法的重要性。

      測試環境:處理器為2.2 GHz Intel Core i7,記憶體為16 GB 1600 MHz DDR3,SSD硬碟,使用預設的JVM引數,執行在64位的OS X 10.10.1上。

小結

(1) 擴容是一個特別耗效能的操作,所以當程式設計師在使用HashMap的時候,估算map的大小,初始化的時候給一個大致的數值,避免map進行頻繁的擴容。

(2) 負載因子是可以修改的,也可以大於1,但是建議不要輕易修改,除非情況非常特殊。

(3) HashMap是執行緒不安全的,不要在併發的環境中同時操作HashMap,建議使用ConcurrentHashMap。

(4) JDK1.8引入紅黑樹大程度優化了HashMap的效能。

(5) 還沒升級JDK1.8的,現在開始升級吧。HashMap的效能提升僅僅是JDK1.8的冰山一角。

參考

相關推薦

Java容器重新認識HashMapJava1.8Java1.7HashMap差異

摘要 HashMap是Java程式設計師使用頻率最高的用於對映(鍵值對)處理的資料型別。隨著JDK(Java Developmet Kit)版本的更新,JDK1.8對HashMap底層的實現進行了優化,例如引入紅黑樹的資料結構和擴容的優化等。本文結合JDK1.7和JDK1.

微服務架構學習筆記重新認識微服務

一、什麼是微服務 微服務(Microservice)是服務化思路的一種最佳實踐方向,遵循SOA的思路,各個企業在服務化治理的道路上走的時間長了,踩的坑多了,整個軟體交付鏈路上各個環節的基礎設施逐漸成熟了,微服務自然而然就誕生了。 早些年的服務實現和實施思路是將很多功能從開發到交付都打包成一個

Java applet 井字遊戲——怎樣重新開始?留問題

rmi ecif 方法 eth center token ttext jpanel lin 今天在課本上看到applet井字小遊戲的源碼,但是並沒有重新開始這個功能,我這邊準備編寫一個isRepaint()方法來彈出對話框詢問玩家是否重新開始,但是不會初始化遊戲,留待以後解

Java搜索引擎選擇 Elasticsearch與Solr

文件格式 article base 使用 社區 run 穩定 tails 定制 Elasticsearch簡介 Elasticsearch是一個實時的分布式搜索和分析引擎。它可以幫助你用前所未有的速度去處理大規模數據。 它可以用於全文搜索,結構化搜索以及分析,當然你也可

WebSocket詳解初步認識WebSocket技術

tcp 客戶端 應用程序 需要 應用層協議 通過 新的 sock org 1.什麽是Socket?什麽是WebSocket? 對於第1次聽說WebSocket技術的人來說,兩者有什麽區別?websocket是僅僅將socket的概念移植到瀏覽器中的實現嗎?我們知道,在網絡中

Java併發程式設計2執行緒中斷含程式碼

使用interrupt()中斷執行緒當一個執行緒執行時,另一個執行緒可以呼叫對應的Thread物件的interrupt()方法來中斷它,該方法只是在目標執行緒中設定一個標誌,表示它已經被中斷,並立即返回。這裡需要注意的是,如果只是單純的呼叫interrupt()方法,執行緒並沒有實際被中斷,會繼續往下執行。

Java設計模式簡介行為型模式

其實每個設計模式都是很重要的一種思想,看上去很熟,其實是因為我們在學到的東西中都有涉及,儘管有時我們並不知道,其實在Java本身的設計之中處處都有體現,像AWT、JDBC、集合類、IO管道或者是Web框架,裡面設計模式無處不在。因為我們篇幅有限,很難講每一個設計模式都講的很詳細。 本章講講

Java設計模式簡介行為型模式

本章講到第三種設計模式——行為型模式,共11種:策略模式、模板方法模式、觀察者模式、迭代子模式、責任鏈模式、命令模式、備忘錄模式、狀態模式、訪問者模式、中介者模式、直譯器模式。 先來張圖,看看這11中模式的關係: 第一類:通過父類與子類的關係進行實現。第二類:兩個類之間。第三類:類的狀態。第

計算機視覺特徵檢測/提取feature detection/extraction

關鍵點檢測和匹配流水線四個階段 一、背景知識 1. 影象特徵 2. 數字函式的一階導數和二階導數 3. 導數與影象特徵關係 二

演算法導論 第快速排序 筆記快速排序的描述、快速排序的效能、快速排序的隨機化版本、快速排序分析

快速排序的最壞情況時間複雜度為Θ(n^2)。雖然最壞情況時間複雜度很差,但是快速排序通常是實際排序應用中最好的選擇,因為它的平均效能很好。它的期望執行時間複雜度為Θ(n lg n),而且Θ(n lg n)中蘊含的常數因子非常小,而且它還是原址排序的。 快速排序是一種排序演算法,對包含n個數的

java技術學習路徑之Javaweb監聽器總結應用場景、方法、配置

配置 包名 quest ner web.xml 監聽器接口 tty 數據 XML JavaWeb中,監聽器是一種組件,能夠監聽項目的啟動和停止,用戶會話的創建和銷毀,以及各種組件的添加、更新和刪除,能夠通過監聽對象的狀態改變,自動做出反應執行響應代碼。 應用場景: 啟動網站

機器學習筆記TensorFlow實戰九經典卷積神經網路ResNet

1 - 引言 我們可以看到CNN經典模型的發展從 LeNet -5、AlexNet、VGG、再到Inception,模型的層數和複雜程度都有著明顯的提高,有些網路層數更是達到100多層。但是當神經網路的層數過高時,這些神經網路會變得更加難以訓練。 一個特別大的麻煩就在於訓練的時候會產

“全棧2019”Java第二十八章陣列詳解上篇

難度 初級 學習時間 10分鐘 適合人群 零基礎 開發語言 Java 開發環境 JDK v11 IntelliJ IDEA v2018.3 文章原文連結 “全棧2019”Java第二十八章:陣列詳解(上篇) 下一章 “全棧2019”Java第二十九章:陣列詳解(中篇)

“全棧2019”Java第三十章陣列詳解下篇

難度 初級 學習時間 10分鐘 適合人群 零基礎 開發語言 Java 開發環境 JDK v11 IntelliJ IDEA v2018.3 文章原文連結 “全棧2019”Java第三十章:陣列詳解(下篇) 下一章 “全棧

“全棧2019”Java第二十九章陣列詳解中篇

難度 初級 學習時間 10分鐘 適合人群 零基礎 開發語言 Java 開發環境 JDK v11 IntelliJ IDEA v2018.3 文章原文連結 “全棧2019”Java第二十九章:陣列詳解(中篇) 下一章 “全

R繪圖 第繪製條形圖ggplot2

使用geom_bar()函式繪製條形圖,條形圖的高度通常表示兩種情況之一:每組中的資料的個數,或資料框中列的值,高度表示的含義是由geom_bar()函式的引數stat決定的,stat在geom_bar()函式中有兩個有效值:count和identity。預設情況下,stat="count",這意味著每個條的

Redis入門Redis分散式鎖單機模式/叢集模式

Redis 實現分散式鎖 單機模式的Redis分散式鎖 優缺點 實現比較輕,大多數時候能滿足需求;因為是單機單例項部署,如果redis服務宕機,那麼所有需要獲取分散式鎖的地方均無法獲取鎖,將全部阻塞,需要做好降級處理。 當鎖過期後,執行任務的程序還沒有

Spring Cloud Stream消費失敗後的處理策略重新入隊RabbitMQ

應用場景 之前我們已經通過《Spring Cloud Stream消費失敗後的處理策略(一):自動重試》一文介紹了Spring Cloud Stream預設的訊息重試功能。本文將介紹RabbitMQ的binder提供的另外一種重試功能:重新入隊。 動手試試 準備一個會消費失敗的例子,可以直接沿用前文的工

Java設計模式單例模式,防止反射反序列化漏洞

package com.iter.devbox.singleton; import java.io.ObjectStreamException; import java.io.Serializable; /** * 靜態內部類實現方式(也是一種懶載入方式) * 這種方式:執行緒安全,呼叫效率高,並且實

Go遊戲伺服器開發的一些思考IO遊戲同步

概要 在本系列的11章、14章中,討論了IO遊戲同步;並介紹了一種同步方式:每100ms傳送一次全量狀態包;介紹了作為抗網路波動的優化手段,使用UDP協議來發這個狀態包。 本章將深入討論,網路波動下的同步問題。 TC命令模擬網路環境 既然要討論壞的網