1. 程式人生 > >【java併發】造成HashMap非執行緒安全的原因

【java併發】造成HashMap非執行緒安全的原因

0. 寫在前面

  在前面我的一篇總結執行緒範圍內共享資料文章中提到,為了資料能線上程範圍內使用,我用了HashMap來儲存不同執行緒中的資料,key為當前執行緒,value為當前執行緒中的資料。我取的時候根據當前執行緒名從HashMap中取即可。
  因為當初學習HashMap和HashTable原始碼的時候,知道HashTable是執行緒安全的,因為裡面的方法使用了synchronized進行同步,但是HashMap沒有,所以HashMap是非執行緒安全的。在上面提到的例子中,我想反正不用修改HashMap,只需要從中取值即可,所以不會有執行緒安全問題,但是我忽略了一個步驟:我得先把不同執行緒的資料存到HashMap中吧,這個存就可能出現問題,雖然我存的時候key使用了不同的執行緒名字,理論上來說是不會衝突的,但是這種設計或者思想本來就不夠嚴謹。這也是由於一個網友看到我的那篇文章後給我提出的問題,我後來仔細推敲了下,重新溫習了下HashMap的原始碼,再加上網上查的一些資料,在這裡總結一下HashMap到底什麼時候可能出現執行緒安全問題。
  我們知道HashMap底層是一個Entry陣列,當發生hash衝突的時候,HashMap是採用連結串列的方式來解決的,在對應的陣列位置存放連結串列的頭結點。對連結串列而言,新加入的節點會從頭結點加入。javadoc中有一段關於HashMap的描述:

此實現不是同步的。如果多個執行緒同時訪問一個雜湊對映,而其中至少一個執行緒從結構上修改了該對映,則它必須保持外部同步。(結構上的修改是指新增或刪除一個或多個對映關係的任何操作;僅改變與例項已經包含的鍵關聯的值不是結構上的修改。)這一般通過對自然封裝該對映的物件進行同步操作來完成。如果不存在這樣的物件,則應該使用 Collections.synchronizedMap 方法來“包裝”該對映。最好在建立時完成這一操作,以防止對對映進行意外的非同步訪問,如下所示:
Map m = Collections.synchronizedMap(new HashMap(...));

  可以看出,解決HashMap執行緒安全問題的方法很簡單,下面我簡單分析一下可能會出現執行緒問題的一些地方。

1. 向HashMap中插入資料的時候

  在HashMap做put操作的時候會呼叫到以下的方法:

//向HashMap中新增Entry
void addEntry(int hash, K key, V value, int bucketIndex) {
    if ((size >= threshold) && (null != table[bucketIndex])) {
        resize(2 * table.length); //擴容2倍
        hash = (null != key) ? hash(key) : 0;
        bucketIndex = indexFor(hash, table.length);
    }

    createEntry(hash, key, value, bucketIndex);
}
//建立一個Entry
void createEntry(int hash, K key, V value, int bucketIndex) { Entry<K,V> e = table[bucketIndex];//先把table中該位置原來的Entry儲存 //在table中該位置新建一個Entry,將原來的Entry掛到該Entry的next table[bucketIndex] = new Entry<>(hash, key, value, e); //所以table中的每個位置永遠只儲存一個最新加進來的Entry,其他Entry是一個掛一個,這樣掛上去的 size++; }

  現在假如A執行緒和B執行緒同時進入addEntry,然後計算出了相同的雜湊值對應了相同的陣列位置,因為此時該位置還沒資料,然後對同一個陣列位置呼叫createEntry,兩個執行緒會同時得到現在的頭結點,然後A寫入新的頭結點之後,B也寫入新的頭結點,那B的寫入操作就會覆蓋A的寫入操作造成A的寫入操作丟失。

2. HashMap擴容的時候

  還是上面那個addEntry方法中,有個擴容的操作,這個操作會新生成一個新的容量的陣列,然後對原陣列的所有鍵值對重新進行計算和寫入新的陣列,之後指向新生成的陣列。來看一下擴容的原始碼:

//用新的容量來給table擴容  
void resize(int newCapacity) {  
    Entry[] oldTable = table; //儲存old table  
    int oldCapacity = oldTable.length; //儲存old capacity  
    // 如果舊的容量已經是系統預設最大容量了,那麼將閾值設定成整形的最大值,退出    
    if (oldCapacity == MAXIMUM_CAPACITY) {  
        threshold = Integer.MAX_VALUE;  
        return;  
    }  

    //根據新的容量新建一個table  
    Entry[] newTable = new Entry[newCapacity];  
    //將table轉換成newTable  
    transfer(newTable, initHashSeedAsNeeded(newCapacity));  
    table = newTable;  
    //設定閾值  
    threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);  
} 

  那麼問題來了,當多個執行緒同時進來,檢測到總數量超過門限值的時候就會同時呼叫resize操作,各自生成新的陣列並rehash後賦給該map底層的陣列table,結果最終只有最後一個執行緒生成的新陣列被賦給table變數,其他執行緒的均會丟失。而且當某些執行緒已經完成賦值而其他執行緒剛開始的時候,就會用已經被賦值的table作為原始陣列,這樣也會有問題。所以在擴容操作的時候也有可能會引起一些併發的問題。

3. 刪除HashMap中資料的時候

  刪除鍵值對的原始碼如下:

//根據指定的key刪除Entry,返回對應的value  
public V remove(Object key) {  
    Entry<K,V> e = removeEntryForKey(key);  
    return (e == null ? null : e.value);  
}  

//根據指定的key,刪除Entry,並返回對應的value  
final Entry<K,V> removeEntryForKey(Object key) {  
    if (size == 0) {  
        return null;  
    }  
    int hash = (key == null) ? 0 : hash(key);  
    int i = indexFor(hash, table.length);  
    Entry<K,V> prev = table[i];  
    Entry<K,V> e = prev;  

    while (e != null) {  
        Entry<K,V> next = e.next;  
        Object k;  
        if (e.hash == hash &&  
            ((k = e.key) == key || (key != null && key.equals(k)))) {  
            modCount++;  
            size--;  
            if (prev == e) //如果刪除的是table中的第一項的引用  
                table[i] = next;//直接將第一項中的next的引用存入table[i]中  
            else  
                prev.next = next; //否則將table[i]中當前Entry的前一個Entry中的next置為當前Entry的next  
            e.recordRemoval(this);  
            return e;  
        }  
        prev = e;  
        e = next;  
    }  

    return e;  
}

  刪除這一塊可能會出現兩種執行緒安全問題,第一種是一個執行緒判斷得到了指定的陣列位置i並進入了迴圈,此時,另一個執行緒也在同樣的位置已經刪掉了i位置的那個資料了,然後第一個執行緒那邊就沒了。但是刪除的話,沒了倒問題不大。
  再看另一種情況,當多個執行緒同時操作同一個陣列位置的時候,也都會先取得現在狀態下該位置儲存的頭結點,然後各自去進行計算操作,之後再把結果寫會到該陣列位置去,其實寫回的時候可能其他的執行緒已經就把這個位置給修改過了,就會覆蓋其他執行緒的修改。
  其他地方還有很多可能會出現執行緒安全問題,我就不一一列舉了,總之HashMap是非執行緒安全的,在高併發的場合使用的話,要用Collections.synchronizedMap進行包裝一下。另外還得感謝那位網友,我對HashMap執行緒安全問題的認識又進了一步~

文末福利:“程式設計師私房菜”,一個有溫度的公眾號~
程式設計師私房菜