1. 程式人生 > >Java內存模型的基礎

Java內存模型的基礎

序列 releases 就會 特性 ins 串行 左右 一次 one

Java內存模型的基礎

並發編程模型的兩個關鍵問題

在並發編程中,需要處理兩個關鍵問題:線程之間如何通信及線程之間如何同步(這裏的線程是指並發執行的活動實體)。通信是指線程之間以何種機制來交換信息。在命令式編程中,線程之間的通信機制有兩種:共享內存和消息傳遞。

在共享內存的並發模型裏,線程之間共享程序的公共狀態,通過寫-讀內存中的公共狀態進行隱式通信。在消息傳遞的並發模型裏,線程之間沒有公共狀態,線程之間必須通過發送消息來顯式進行通信。

同步是指程序中用於控制不同線程間操作發生相對順序的機制。在共享內存並發模型裏,同步是顯式進行的。程序員必須顯式指定某個方法或某段代碼需要在線程之間互斥執行。在消息傳遞的並發模型裏,由於消息的發送必須在消息的接收之前,因此同步是隱式進行的。

Java的並發采用的是共享內存模型,Java線程之間的通信總是隱式進行,整個通信過程對程序員完全透明。如果編寫多線程程序的Java程序員不理解隱式進行的線程之間通信的工作機制,很可能會遇到各種奇怪的內存可見性問題。

Java內存模型的抽象結構

Java線程之間的通信由Java內存模型(本文簡稱為JMM)控制,JMM決定一個線程對共享變量的寫入何時對另一個線程可見。從抽象的角度來看,JMM定義了線程和主內存之間的抽象關系:線程之間的共享變量存儲在主內存(Main Memory)中,每個線程都有一個私有的本地內存(Local Memory),本地內存中存儲了該線程以讀/寫共享變量的副本。本地內存是JMM的一個抽象概念,並不真實存在。它涵蓋了緩存、寫緩沖區、寄存器以及其他的硬件和編譯器優化

如果線程A與線程B之間要通信的話,必須要經歷下面2個步驟。

1)線程A把本地內存A中更新過的共享變量刷新到主內存中去。
2)線程B到主內存中去讀取線程A之前已更新過的共享變量。

從源代碼到指令序列的重排序

在執行程序時,為了提高性能,編譯器和處理器常常會對指令做重排序。重排序分3種類
型。

1)編譯器優化的重排序。編譯器在不改變單線程程序語義的前提下,可以重新安排語句的執行順序。
2)指令級並行的重排序。現代處理器采用了指令級並行技術(Instruction-LevelParallelism,ILP)來將多條指令重疊執行。如果不存在數據依賴性,處理器可以改變語句對應機器指令的執行順序。
3)內存系統的重排序。由於處理器使用緩存和讀/寫緩沖區,這使得加載和存儲操作看上去可能是在亂序執行。

上述的1屬於編譯器重排序,2和3屬於處理器重排序。這些重排序可能會導致多線程程序出現內存可見性問題。對於編譯器,JMM的編譯器重排序規則會禁止特定類型的編譯器重排序(不是所有的編譯器重排序都要禁止)。對於處理器重排序,JMM的處理器重排序規則會要求Java編譯器在生成指令序列時,插入特定類型的內存屏障(Memory Barriers,Intel稱之為Memory Fence)指令,通過內存屏障指令來禁止特定類型的處理器重排序。

JMM屬於語言級的內存模型,它確保在不同的編譯器和不同的處理器平臺之上,通過禁止特定類型的編譯器重排序和處理器重排序,為程序員提供一致的內存可見性保證。

happens-before簡介

從JDK 5開始,Java使用新的JSR-133內存模型(除非特別說明,本文針對的都是JSR-133內存模型)。JSR-133使用happens-before的概念來闡述操作之間的內存可見性。在JMM中,如果一個操作執行的結果需要對另一個操作可見,那麽這兩個操作之間必須要存在happens-before關系。這裏提到的兩個操作既可以是在一個線程之內,也可以是在不同線程之間。

與程序員密切相關的happens-before規則如下。
·程序順序規則:一個線程中的每個操作,happens-before於該線程中的任意後續操作。
·監視器鎖規則:對一個鎖的解鎖,happens-before於隨後對這個鎖的加鎖。
·volatile變量規則:對一個volatile域的寫,happens-before於任意後續對這個volatile域的
讀。
·傳遞性:如果A happens-before B,且B happens-before C,那麽A happens-before C。

兩個操作之間具有happens-before關系,並不意味著前一個操作必須要在後一個操作之前執行!happens-before僅僅要求前一個操作(執行的結果)對後一個操作可見,且前一個操作按順序排在第二個操作之前(the first is visible to and ordered before the second)。happens-before的定義很微妙,後文會具體說明happens-before為什麽要這麽定義。

重排序

重排序是指編譯器和處理器為了優化程序性能而對指令序列進行重新排序的一種手段。

as-if-serial語義

as-if-serial語義的意思是:不管怎麽重排序(編譯器和處理器為了提高並行度),(單線程)程序的執行結果不能被改變。編譯器、runtime和處理器都必須遵守as-if-serial語義。

為了遵守as-if-serial語義,編譯器和處理器不會對存在數據依賴關系的操作做重排序,因為這種重排序會改變執行結果。但是,如果操作之間不存在數據依賴關系,這些操作就可能被編譯器和處理器重排序。

程序順序規則

根據happens-before的程序順序規則,上面計算圓的面積的示例代碼存在3個happens-before
關系。
1)A happens-before B。
2)B happens-before C。
3)A happens-before C。
這裏的第3個happens-before關系,是根據happens-before的傳遞性推導出來的。

重排序對多線程的影響

現在讓我們來看看,重排序是否會改變多線程程序的執行結果。請看下面的示例代碼。

public class ReorderExample {
    
    int a = 0;
    boolean flag = false;
    public void writer(){
        a = 1;              //1
        flag = true;        //2
    }
    
    public void reader(){
        if(flag){           //3
            int i = a * a;  //4
            //.......
        }
    }
}

flag變量是個標記,用來標識變量a是否已被寫入。這裏假設有兩個線程A和B,A首先執行writer()方法,隨後B線程接著執行reader()方法。線程B在執行操作4時,能否看到線程A在操作1對共享變量a的寫入呢?

答案是:不一定能看到。

由於操作1和操作2沒有數據依賴關系,編譯器和處理器可以對這兩個操作重排序;同樣,操作3和操作4沒有數據依賴關系,編譯器和處理器也可以對這兩個操作重排序。

在單線程程序中,對存在控制依賴的操作重排序,不會改變執行結果(這也是as-if-serial語義允許對存在控制依賴的操作做重排序的原因);但在多線程程序中,對存在控制依賴的操作重排序,可能會改變程序的執行結果。

順序一致性

順序一致性內存模型是一個理論參考模型,在設計的時候,處理器的內存模型和編程語言的內存模型都會以順序一致性內存模型作為參照。

數據競爭與順序一致性

當程序未正確同步時,就可能會存在數據競爭。Java內存模型規範對數據競爭的定義如下。
在一個線程中寫一個變量,
在另一個線程讀同一個變量,
而且寫和讀沒有通過同步來排序。

當代碼中包含數據競爭時,程序的執行往往產生違反直覺的結果(前一章的示例正是如此)。如果一個多線程程序能正確同步,這個程序將是一個沒有數據競爭的程序。JMM對正確同步的多線程程序的內存一致性做了如下保證。
如果程序是正確同步的,程序的執行將具有順序一致性(Sequentially Consistent)——即程序的執行結果與該程序在順序一致性內存模型中的執行結果相同。馬上我們就會看到,這對於程序員來說是一個極強的保證。這裏的同步是指廣義上的同步,包括對常用同步原語(synchronized、volatile和final)的正確使用。

順序一致性內存模型

順序一致性內存模型是一個被計算機科學家理想化了的理論參考模型,它為程序員提供了極強的內存可見性保證。順序一致性內存模型有兩大特性。

1)一個線程中的所有操作必須按照程序的順序來執行。
2)(不管程序是否同步)所有線程都只能看到一個單一的操作執行順序。在順序一致性內存模型中,每個操作都必須原子執行且立刻對所有線程可見。

在概念上,順序一致性模型有一個單一的全局內存,這個內存通過一個左右擺動的開關可以連接到任意一個線程,同時每一個線程必須按照程序的順序來執行內存讀/寫操作。從上面的示意圖可以看出,在任意時間點最多只能有一個線程可以連接到內存。當多個線程並發執行時,圖中的開關裝置能把所有線程的所有內存讀/寫操作串行化(即在順序一致性模型中,所有操作之間具有全序關系)。

但是,在JMM中就沒有這個保證。未同步程序在JMM中不但整體的執行順序是無序的,而且所有線程看到的操作執行順序也可能不一致。比如,在當前線程把寫過的數據緩存在本地內存中,在沒有刷新到主內存之前,這個寫操作僅對當前線程可見;從其他線程的角度來觀察,會認為這個寫操作根本沒有被當前線程執行。只有當前線程把本地內存中寫過的數據刷新到主內存之後,這個寫操作才能對其他線程可見。在這種情況下,當前線程和其他線程看到的操作執行順序將不一致。

同步程序的順序一致性效果

下面,對前面的示例程序ReorderExample用鎖來同步,看看正確同步的程序如何具有順序一致性。

public class SynchronizedExample {
    
    int a = 0;
    boolean flag = false;
    public synchronized void writer(){//獲取鎖
        a = 1;
        flag = true;
    }                                   //釋放鎖
    
    public synchronized void reader(){//獲取鎖
        if(flag){
            int i = a;
            //....
        }                               //釋放鎖
    }
}

順序一致性模型中,所有操作完全按程序的順序串行執行。而在JMM中,臨界區內的代碼可以重排序(但JMM不允許臨界區內的代碼“逸出”到臨界區之外,那樣會破壞監視器的語義)。JMM會在退出臨界區和進入臨界區這兩個關鍵時間點做一些特別處理,使得線程在這兩個時間點具有與順序一致性模型相同的內存視圖(具體細節後文會說明)。雖然線程A在臨界區內做了重排序,但由於監視器互斥執行的特性,這裏的線程B根本無法“觀察”到線程A在臨界區內的重排序。這種重排序既提高了執行效率,又沒有改變程序的執行結果。

從這裏我們可以看到,JMM在具體實現上的基本方針為:在不改變(正確同步的)程序執行結果的前提下,盡可能地為編譯器和處理器的優化打開方便之門。

未同步程序的執行特性

對於未同步或未正確同步的多線程程序,JMM只提供最小安全性:線程執行時讀取到的值,要麽是之前某個線程寫入的值,要麽是默認值(0,Null,False),JMM保證線程讀操作讀取到的值不會無中生有(Out Of Thin Air)的冒出來。為了實現最小安全性,JVM在堆上分配對象時,首先會對內存空間進行清零,然後才會在上面分配對象(JVM內部會同步這兩個操作)。因此,在已清零的內存空間(Pre-zeroed Memory)分配對象時,域的默認初始化已經完成了。

未同步程序在JMM中的執行時,整體上是無序的,其執行結果無法預知。未同步程序在兩個模型中的執行特性有如下幾個差異。

1)順序一致性模型保證單線程內的操作會按程序的順序執行,而JMM不保證單線程內的操作會按程序的順序執行(比如上面正確同步的多線程程序在臨界區內的重排序)。這一點前面已經講過了,這裏就不再贅述。

2)順序一致性模型保證所有線程只能看到一致的操作執行順序,而JMM不保證所有線程能看到一致的操作執行順序。這一點前面也已經講過,這裏就不再贅述。

3)JMM不保證對64位的long型和double型變量的寫操作具有原子性,而順序一致性模型保證對所有的內存讀/寫操作都具有原子性。

第3個差異與處理器總線的工作機制密切相關。在計算機中,數據通過總線在處理器和內存之間傳遞。每次處理器和內存之間的數據傳遞都是通過一系列步驟來完成的,這一系列步驟稱之為總線事務(Bus Transaction)。總線事務包括讀事務(Read Transaction)和寫事務(WriteTransaction)。讀事務從內存傳送數據到處理器,寫事務從處理器傳送數據到內存,每個事務會讀/寫內存中一個或多個物理上連續的字。這裏的關鍵是,總線會同步試圖並發使用總線的事務。在一個處理器執行總線事務期間,總線會禁止其他的處理器和I/O設備執行內存的讀/寫。

總線的這些工作機制可以把所有處理器對內存的訪問以串行化的方式來執行。在任意時間點,最多只能有一個處理器可以訪問內存。這個特性確保了單個總線事務之中的內存讀/寫操作具有原子性。

在一些32位的處理器上,如果要求對64位數據的寫操作具有原子性,會有比較大的開銷。為了照顧這種處理器,Java語言規範鼓勵但不強求JVM對64位的long型變量和double型變量的寫操作具有原子性。當JVM在這種處理器上運行時,可能會把一個64位long/double型變量的寫操作拆分為兩個32位的寫操作來執行。這兩個32位的寫操作可能會被分配到不同的總線事務中執行,此時對這個64位變量的寫操作將不具有原子性。

註意,在JSR-133之前的舊內存模型中,一個64位long/double型變量的讀/寫操作可以被拆分為兩個32位的讀/寫操作來執行。從JSR-133內存模型開始(即從JDK5開始),僅僅只允許把一個64位long/double型變量的寫操作拆分為兩個32位的寫操作來執行,任意的讀操作在JSR-133中都必須具有原子性(即任意讀操作必須要在單個讀事務中執行)。

volatile的內存語義

volatile的特性

理解volatile特性的一個好方法是把對volatile變量的單個讀/寫,看成是使用同一個鎖對這些單個讀/寫操作做了同步。下面通過具體的示例來說明,示例代碼如下。

public class VolatileFeaturesExample {
    
    volatile long v1 = 0L;      //使用volatile聲明64位的long型變量
    public void set(long l){
        v1 = 1;                 // 單個volatile變量的寫
    }
    
    public void getAndIncrement(){
        v1++;                   //復合(多個)volatitle變量的讀/寫
    }
    
    public long get(){
        return v1;              //單個volatile變量的的讀
    }
}

假設有多個線程分別調用上面程序的3個方法,這個程序在語義上和下面程序等價。

public class VolatileFeaturesExample {
    
    long v1 = 0L;       //64位的long型普通變量
    public synchronized void set(long l){
        v1 = 1;                 // 對單個的普通變量的寫用同一個鎖同步
    }
    
    public void getAndIncrement(){//普通方法調用
        long temp = get();      //調用已同步的讀方法;
        temp +=1L;              //普通寫操作
        set(temp);              //調用已同步的寫方法
    }
    
    public synchronized long get(){
        return v1;              //對單個的普通變量的讀用同一個鎖同步
    }
}

如上面示例程序所示,一個volatile變量的單個讀/寫操作,與一個普通變量的讀/寫操作都是使用同一個鎖來同步,它們之間的執行效果相同。

鎖的happens-before規則保證釋放鎖和獲取鎖的兩個線程之間的內存可見性,這意味著對一個volatile變量的讀,總是能看到(任意線程)對這個volatile變量最後的寫入。

鎖的語義決定了臨界區代碼的執行具有原子性。這意味著,即使是64位的long型和double型變量,只要它是volatile變量,對該變量的讀/寫就具有原子性。如果是多個volatile操作或類似於volatile++這種復合操作,這些操作整體上不具有原子性。

簡而言之,volatile變量自身具有下列特性。
·可見性。對一個volatile變量的讀,總是能看到(任意線程)對這個volatile變量最後的寫入。
·原子性:對任意單個volatile變量的讀/寫具有原子性,但類似於volatile++這種復合操作不具有原子性。

volatile寫-讀建立的happens-before關系

從JSR-133開始(即從JDK5開始),volatile變量的寫-讀可以實現線程之間的通信。
從內存語義的角度來說,volatile的寫-讀與鎖的釋放-獲取有相同的內存效果:volatile寫和鎖的釋放有相同的內存語義;volatile讀與鎖的獲取有相同的內存語義。

public class VolatileExample {
    int a = 0;
    volatile boolean flag = false;
    public  void writer(){
        a = 1;              //1
        flag = true;        //2
    }
    
    public void reader(){
        if(flag) {          //3
            int i =a;       //4
            //......
        }
    }
}

假設線程A執行writer()方法之後,線程B執行reader()方法。根據happens-before規則,這個過程建立的happens-before關系可以分為3類:
1)根據程序次序規則,1 happens-before 2;3 happens-before 4。
2)根據volatile規則,2 happens-before 3。
3)根據happens-before的傳遞性規則,1 happens-before 4。

這裏A線程寫一個volatile變量後,B線程讀同一個volatile變量。A線程在寫volatile變量之前所有可見的共享變量,在B線程讀同一個volatile變量後,將立即變得對B線程可見。

volatile寫-讀的內存語義

以上面示例程序VolatileExample為例,假設線程A首先執行writer()方法,隨後線程B執行reader()方法,初始時兩個線程的本地內存中的flag和a都是初始狀態。

線程A在寫flag變量後,本地內存A中被線程A更新過的兩個共享變量的值被刷新到主內存中。此時,本地內存A和主內存中的共享變量的值是一致的。
volatile讀的內存語義如下。

當讀一個volatile變量時,JMM會把該線程對應的本地內存置為無效。線程接下來將從主內存中讀取共享變量。

在讀flag變量後,本地內存B包含的值已經被置為無效。此時,線程B必須從主內存中讀取共享變量。線程B的讀取操作將導致本地內存B與主內存中的共享變量的值變成一致。

如果我們把volatile寫和volatile讀兩個步驟綜合起來看的話,在讀線程B讀一個volatile變量後,寫線程A在寫這個volatile變量之前所有可見的共享變量的值都將立即變得對讀線程B可見。

下面對volatile寫和volatile讀的內存語義做個總結。
·線程A寫一個volatile變量,實質上是線程A向接下來將要讀這個volatile變量的某個線程發出了(其對共享變量所做修改的)消息。
·線程B讀一個volatile變量,實質上是線程B接收了之前某個線程發出的(在寫這個volatile變量之前對共享變量所做修改的)消息。
·線程A寫一個volatile變量,隨後線程B讀這個volatile變量,這個過程實質上是線程A通過主內存向線程B發送消息。

鎖的內存語義

鎖的釋放-獲取建立的happens-before關系

鎖是Java並發編程中最重要的同步機制。鎖除了讓臨界區互斥執行外,還可以讓釋放鎖的線程向獲取同一個鎖的線程發送消息。

class MonitorExample{
    int a = 0;
    public synchronized void writer(){//1
        a++;                        //2
    }                               //3
    public synchronized void reader(){//4
        int i =a ;                  //5
        //.....                     
    }                               //6
}

假設線程A執行writer()方法,隨後線程B執行reader()方法。根據happens-before規則,這個過程包含的happens-before關系可以分為3類。

1)根據程序次序規則,1 happens-before 2,2 happens-before 3;4 happens-before 5,5 happens-before6。
2)根據監視器鎖規則,3 happens-before 4。
3)根據happens-before的傳遞性,2 happens-before 5。

鎖的釋放和獲取的內存語義

當線程釋放鎖時,JMM會把該線程對應的本地內存中的共享變量刷新到主內存中。以上面的MonitorExample程序為例.

當線程獲取鎖時,JMM會把該線程對應的本地內存置為無效。從而使得被監視器保護的臨界區代碼必須從主內存中讀取共享變量.

對比鎖釋放-獲取的內存語義與volatile寫-讀的內存語義可以看出:鎖釋放與volatile寫有相同的內存語義;鎖獲取與volatile讀有相同的內存語義。

下面對鎖釋放和鎖獲取的內存語義做個總結。
·線程A釋放一個鎖,實質上是線程A向接下來將要獲取這個鎖的某個線程發出了(線程A對共享變量所做修改的)消息。
·線程B獲取一個鎖,實質上是線程B接收了之前某個線程發出的(在釋放這個鎖之前對共享變量所做修改的)消息。

·線程A釋放鎖,隨後線程B獲取這個鎖,這個過程實質上是線程A通過主內存向線程B發送消息。

鎖內存語義的實現

本文將借助ReentrantLock的源代碼,來分析鎖內存語義的具體實現機制。

public class ReentrantLockExample {
    
    int a = 0;
    ReentrantLock lock = new ReentrantLock();
    public void writer(){
        lock.lock();
        try{
            a++;
        }finally{
            lock.unlock();
        }
    }
    
    public void reader(){
        lock.lock();
        try{
            int i = a;
        }finally{
            lock.unlock();
        }
    }
}

ReentrantLock的實現依賴於Java同步器框架AbstractQueuedSynchronizer(本文簡稱之為AQS)。AQS使用一個整型的volatile變量(命名為state)來維護同步狀態,馬上我們會看到,這個volatile變量是ReentrantLock內存語義實現的關鍵。

ReentrantLock分為公平鎖和非公平鎖,我們首先分析公平鎖。

1)ReentrantLock:lock()。
2)FairSync:lock()。
3)AbstractQueuedSynchronizer:acquire(int arg)。

4)ReentrantLock:tryAcquire(int acquires)。

在第4步真正開始加鎖,下面是該方法的源代碼。

protected final boolean tryAcquire(int acquires){
    final Thread current = Thread.currentThread();
    int c = getState();     //獲取鎖的開始,首先讀volatile變量state
    if(c == 0){
        if(isFirst(current) && compareAndSetState(0,acquires)){
            setExclusiveOwnerThread(current);
            return true;
        }
    }else if(current == getExclusiveOwnerThread()){
        int nextc = c + acquires;
        if(nextc < 0){
            throw new Error("Maximum lock count exceeded");
        }
      setState(nextc);
      return true;
    }
    return false;
}

在使用公平鎖時,解鎖方法unlock()調用軌跡如下。
1)ReentrantLock:unlock()。
2)AbstractQueuedSynchronizer:release(int arg)。
3)Sync:tryRelease(int releases)。
在第3步真正開始釋放鎖,下面是該方法的源代碼。

protected final boolean tryRelease(int releases){
    int c = getState() - releases;
    if(Thread.currentThread() != getExclusiveOwnerThread()){
        throw new IllegalMonitorStateException();
    }
    boolean free = false;
    if( c== 0){
        free = true;
        setExclusiveOwnerThread(null;)
    }
    setState(c);    //釋放鎖的最後,寫volatile變量state
    return free;
}

從上面的源代碼可以看出,在釋放鎖的最後寫volatile變量state。
公平鎖在釋放鎖的最後寫volatile變量state,在獲取鎖時首先讀這個volatile變量。根據volatile的happens-before規則,釋放鎖的線程在寫volatile變量之前可見的共享變量,在獲取鎖的線程讀取同一個volatile變量後將立即變得對獲取鎖的線程可見。

現在我們來分析非公平鎖的內存語義的實現。非公平鎖的釋放和公平鎖完全一樣,所以這裏僅僅分析非公平鎖的獲取。使用非公平鎖時,加鎖方法lock()調用軌跡如下。
1)ReentrantLock:lock()。
2)NonfairSync:lock()。
3)AbstractQueuedSynchronizer:compareAndSetState(int expect,int update)。
在第3步真正開始加鎖,下面是該方法的源代碼

protected final boolean compareAndSetState(int expect,int update){
    return unsafe.compareAndSwapInt(this,stateOffset,expect,update);
}

該方法以原子操作的方式更新state變量,本文把Java的compareAndSet()方法調用簡稱為CAS。JDK文檔對該方法的說明如下:如果當前狀態值等於預期值,則以原子方式將同步狀態設置為給定的更新值。此操作具有volatile讀和寫的內存語義。

前文我們提到過,編譯器不會對volatile讀與volatile讀後面的任意內存操作重排序;編譯器不會對volatile寫與volatile寫前面的任意內存操作重排序。組合這兩個條件,意味著為了同時實現volatile讀和volatile寫的內存語義,編譯器不能對CAS與CAS前面和後面的任意內存操作重排序。

現在對公平鎖和非公平鎖的內存語義做個總結。
·公平鎖和非公平鎖釋放時,最後都要寫一個volatile變量state。
·公平鎖獲取時,首先會去讀volatile變量。
·非公平鎖獲取時,首先會用CAS更新volatile變量,這個操作同時具有volatile讀和volatile寫的內存語義。

從本文對ReentrantLock的分析可以看出,鎖釋放-獲取的內存語義的實現至少有下面兩種方式。
1)利用volatile變量的寫-讀所具有的內存語義。
2)利用CAS所附帶的volatile讀和volatile寫的內存語義。

concurrent包的實現

由於Java的CAS同時具有volatile讀和volatile寫的內存語義,因此Java線程之間的通信現在有了下面4種方式。
1)A線程寫volatile變量,隨後B線程讀這個volatile變量。
2)A線程寫volatile變量,隨後B線程用CAS更新這個volatile變量。
3)A線程用CAS更新一個volatile變量,隨後B線程用CAS更新這個volatile變量。
4)A線程用CAS更新一個volatile變量,隨後B線程讀這個volatile變量。

Java的CAS會使用現代處理器上提供的高效機器級別的原子指令,這些原子指令以原子方式對內存執行讀-改-寫操作,這是在多處理器中實現同步的關鍵(從本質上來說,能夠支持原子性讀-改-寫指令的計算機,是順序計算圖靈機的異步等價機器,因此任何現代的多處理器都會去支持某種能對內存執行原子性讀-改-寫操作的原子指令)。同時,volatile變量的讀/寫和CAS可以實現線程之間的通信。把這些特性整合在一起,就形成了整個concurrent包得以實現的基石。如果我們仔細分析concurrent包的源代碼實現,會發現一個通用化的實現模式。

首先,聲明共享變量為volatile。
然後,使用CAS的原子條件更新來實現線程之間的同步。
同時,配合以volatile的讀/寫和CAS所具有的volatile讀和寫的內存語義來實現線程之間的通信。

final域的內存語義

final域的重排序規則

對於final域,編譯器和處理器要遵守兩個重排序規則。
1)在構造函數內對一個final域的寫入,與隨後把這個被構造對象的引用賦值給一個引用變量,這兩個操作之間不能重排序。
2)初次讀一個包含final域的對象的引用,與隨後初次讀這個final域,這兩個操作之間不能重排序。
下面通過一些示例性的代碼來分別說明這兩個規則。

public class FinalExample{
    int i ;         //普通變量
    final int j;    //final變量
    static FinalExample obj;
    public FinalExample (){ //構造函數
         i =1;      //寫普通域
         j =2;      //寫final域
    }
    public static void writer(){ // 寫線程A執行
        obj = new FinalExample();
    }
    public static void reader(){ //讀線程B執行
        FinalExample object = obj; //讀對象引用
        int a = object.i;       //讀普通域
        int b = object.j;       //讀final域
    }
}

這裏假設一個線程A執行writer()方法,隨後另一個線程B執行reader()方法。下面我們通過這兩個線程的交互來說明這兩個規則。

寫final域的重排序規則

寫final域的重排序規則禁止把final域的寫重排序到構造函數之外。這個規則的實現包含下面2個方面。

1)JMM禁止編譯器把final域的寫重排序到構造函數之外。
2)編譯器會在final域的寫之後,構造函數return之前,插入一個StoreStore屏障。這個屏障禁止處理器把final域的寫重排序到構造函數之外。

現在讓我們分析writer()方法。writer()方法只包含一行代碼:finalExample=newFinalExample()。這行代碼包含兩個步驟,如下。
1)構造一個FinalExample類型的對象。
2)把這個對象的引用賦值給引用變量obj。

假設線程B讀對象引用與讀對象的成員域之間沒有重排序(馬上會說明為什麽需要這個假
設)
寫普通域的操作被編譯器重排序到了構造函數之外,讀線程B錯誤地讀取了普通變量i初始化之前的值。而寫final域的操作,被寫final域的重排序規則“限定”在了構造函數之內,讀線程B正確地讀取了final變量初始化之後的值。

寫final域的重排序規則可以確保:在對象引用為任意線程可見之前,對象的final域已經被正確初始化過了,而普通域不具有這個保障。以上圖為例,在讀線程B“看到”對象引用obj時,很可能obj對象還沒有構造完成(對普通域i的寫操作被重排序到構造函數外,此時初始值1還沒有寫入普通域i)。

讀final域的重排序規則

讀final域的重排序規則是,在一個線程中,初次讀對象引用與初次讀該對象包含的final域,JMM禁止處理器重排序這兩個操作(註意,這個規則僅僅針對處理器)。編譯器會在讀final域操作的前面插入一個LoadLoad屏障。

初次讀對象引用與初次讀該對象包含的final域,這兩個操作之間存在間接依賴關系。由於編譯器遵守間接依賴關系,因此編譯器不會重排序這兩個操作。大多數處理器也會遵守間接依賴,也不會重排序這兩個操作。但有少數處理器允許對存在間接依賴關系的操作做重排序(比如alpha處理器),這個規則就是專門用來針對這種處理器的。
reader()方法包含3個操作。
·初次讀引用變量obj。
·初次讀引用變量obj指向對象的普通域j。
·初次讀引用變量obj指向對象的final域i。

讀對象的普通域的操作被處理器重排序到讀對象引用之前。讀普通域時,該域還沒有被寫線程A寫入,這是一個錯誤的讀取操作。而讀final域的重排序規則會把讀對象final域的操作“限定”在讀對象引用之後,此時該final域已經被A線程初始化過了,這是一個正確的讀取操作。

讀final域的重排序規則可以確保:在讀一個對象的final域之前,一定會先讀包含這個final域的對象的引用。在這個示例程序中,如果該引用不為null,那麽引用對象的final域一定已經被A線程初始化過了。

final域為引用類型

上面我們看到的final域是基礎數據類型,如果final域是引用類型,將會有什麽效果?請看下列示例代碼。

public class FinalReferenceExample {
    final int[] intArray;       //final是引用類型
    static FinalReferenceExample obj;
    public FinalReferenceExample() {//構造函數
        intArray = new int[1];//1
        intArray[0] = 1;//2
    }
    
    public static void writerOne(){//寫線程A執行
        obj = new FinalReferenceExample();//3
    }
    
    public static void writerTwo(){//寫線程B執行
        obj.intArray[0] =2;//3
    }
    public static void reader(){//讀線程C執行
        if(obj !=null){//5
            int temp1 = obj.intArray[0];//6
        }
    }
}

本例final域為一個引用類型,它引用一個int型的數組對象。對於引用類型,寫final域的重排序規則對編譯器和處理器增加了如下約束:在構造函數內對一個final引用的對象的成員域的寫入,與隨後在構造函數外把這個被構造對象的引用賦值給一個引用變量,這兩個操作之間不能重排序。

對上面的示例程序,假設首先線程A執行writerOne()方法,執行完後線程B執行writerTwo()方法,執行完後線程C執行reader()方法。

1是對final域的寫入,2是對這個final域引用的對象的成員域的寫入,3是把被構造的對象的引用賦值給某個引用變量。這裏除了前面提到的1不能和3重排序外,2和3也不能重排序。

JMM可以確保讀線程C至少能看到寫線程A在構造函數中對final引用對象的成員域的寫入。即C至少能看到數組下標0的值為1。而寫線程B對數組元素的寫入,讀線程C可能看得到,也可能看不到。JMM不保證線程B的寫入對讀線程C可見,因為寫線程B和讀線程C之間存在數據競爭,此時的執行結果不可預知。

如果想要確保讀線程C看到寫線程B對數組元素的寫入,寫線程B和讀線程C之間需要使用同步原語(lock或volatile)來確保內存可見性。

happens-before

JMM的設計

首先,讓我們來看JMM的設計意圖。從JMM設計者的角度,在設計JMM時,需要考慮兩個關鍵因素。
·程序員對內存模型的使用。程序員希望內存模型易於理解、易於編程。程序員希望基於一個強內存模型來編寫代碼。
·編譯器和處理器對內存模型的實現。編譯器和處理器希望內存模型對它們的束縛越少越好,這樣它們就可以做盡可能多的優化來提高性能。編譯器和處理器希望實現一個弱內存模型。

由於這兩個因素互相矛盾,所以JSR-133專家組在設計JMM時的核心目標就是找到一個好的平衡點:一方面,要為程序員提供足夠強的內存可見性保證;另一方面,對編譯器和處理器的限制要盡可能地放松。下面讓我們來看JSR-133是如何實現這一目標的。

double pi = 3.14;//A
double r = 1.0;//B
double area = pi * r * r;//C

上面計算圓的面積的示例代碼存在3個happens-before關系,如下。
·A happens-before B。
·B happens-before C。
·A happens-before C。
在3個happens-before關系中,2和3是必需的,但1是不必要的。因此,JMM把happens-before要求禁止的重排序分為了下面兩類。

·會改變程序執行結果的重排序。
·不會改變程序執行結果的重排序。
JMM對這兩種不同性質的重排序,采取了不同的策略,如下。
·對於會改變程序執行結果的重排序,JMM要求編譯器和處理器必須禁止這種重排序。
·對於不會改變程序執行結果的重排序,JMM對編譯器和處理器不做要求(JMM允許這種重排序)。

JMM向程序員提供的happens-before規則能滿足程序員的需求。JMM的happens-before規則不但簡單易懂,而且也向程序員提供了足夠強的內存可見性保證(有些內存可見性保證其實並不一定真實存在,比如上面的A happens-before B)。

JMM對編譯器和處理器的束縛已經盡可能少。從上面的分析可以看出,JMM其實是在遵循一個基本原則:只要不改變程序的執行結果(指的是單線程程序和正確同步的多線程程序),編譯器和處理器怎麽優化都行。例如,如果編譯器經過細致的分析後,認定一個鎖只會被單個線程訪問,那麽這個鎖可以被消除。再如,如果編譯器經過細致的分析後,認定一個volatile變量只會被單個線程訪問,那麽編譯器可以把這個volatile變量當作一個普通變量來對待。這些優化既不會改變程序的執行結果,又能提高程序的執行效率。

happens-before的定義

JSR-133使用happens-before的概念來指定兩個操作之間的執行順序。由於這兩個操作可以在一個線程之內,也可以是在不同線程之間。因此,JMM可以通過happens-before關系向程序員提供跨線程的內存可見性保證(如果A線程的寫操作a與B線程的讀操作b之間存在happensbefore關系,盡管a操作和b操作在不同的線程中執行,但JMM向程序員保證a操作將對b操作可見)。

《JSR-133:Java Memory Model and Thread Specification》對happens-before關系的定義如下。
1)如果一個操作happens-before另一個操作,那麽第一個操作的執行結果將對第二個操作可見,而且第一個操作的執行順序排在第二個操作之前。
2)兩個操作之間存在happens-before關系,並不意味著Java平臺的具體實現必須要按照happens-before關系指定的順序來執行。如果重排序之後的執行結果,與按happens-before關系來執行的結果一致,那麽這種重排序並不非法(也就是說,JMM允許這種重排序)。

上面的1)是JMM對程序員的承諾。從程序員的角度來說,可以這樣理解happens-before關系:如果A happens-before B,那麽Java內存模型將向程序員保證——A操作的結果將對B可見,且A的執行順序排在B之前。註意,這只是Java內存模型向程序員做出的保證!

上面的2)是JMM對編譯器和處理器重排序的約束原則。正如前面所言,JMM其實是在遵循一個基本原則:只要不改變程序的執行結果(指的是單線程程序和正確同步的多線程程序),編譯器和處理器怎麽優化都行。JMM這麽做的原因是:程序員對於這兩個操作是否真的被重排序並不關心,程序員關心的是程序執行時的語義不能被改變(即執行結果不能被改變)。因此,happens-before關系本質上和as-if-serial語義是一回事。

as-if-serial語義保證單線程內程序的執行結果不被改變,happens-before關系保證正確同步的多線程程序的執行結果不被改變。

as-if-serial語義給編寫單線程程序的程序員創造了一個幻境:單線程程序是按程序的順序來執行的。happens-before關系給編寫正確同步的多線程程序的程序員創造了一個幻境:正確同步的多線程程序是按happens-before指定的順序來執行的。

as-if-serial語義和happens-before這麽做的目的,都是為了在不改變程序執行結果的前提下,盡可能地提高程序執行的並行度。

happens-before規則

《JSR-133:Java Memory Model and Thread Specification》定義了如下happens-before規則。
1)程序順序規則:一個線程中的每個操作,happens-before於該線程中的任意後續操作。
2)監視器鎖規則:對一個鎖的解鎖,happens-before於隨後對這個鎖的加鎖。
3)volatile變量規則:對一個volatile域的寫,happens-before於任意後續對這個volatile域的讀。
4)傳遞性:如果A happens-before B,且B happens-before C,那麽A happens-before C。
5)start()規則:如果線程A執行操作ThreadB.start()(啟動線程B),那麽A線程的ThreadB.start()操作happens-before於線程B中的任意操作。
6)join()規則:如果線程A執行操作ThreadB.join()並成功返回,那麽線程B中的任意操作happens-before於線程A從ThreadB.join()操作成功返回。

雙重檢查鎖定與延遲初始化

雙重檢查鎖定的由來

在Java程序中,有時候可能需要推遲一些高開銷的對象初始化操作,並且只有在使用這些對象時才進行初始化。此時,程序員可能會采用延遲初始化。但要正確實現線程安全的延遲初始化需要一些技巧,否則很容易出現問題。比如,下面是非線程安全的延遲初始化對象的示例代碼。

public class UnsafeLazyInitialization{
    private static Instance instance;
    public static Instance getInstance(){
        if(instance == null){       //1.A線程執行
            instance = new Instance();//2.B線程執行
        }
        return instance;
    }
}

在UnsafeLazyInitialization類中,假設A線程執行代碼1的同時,B線程執行代碼2。此時,線程A可能會看到instance引用的對象還沒有完成初始化

對於UnsafeLazyInitialization類,我們可以對getInstance()方法做同步處理來實現線程安全的延遲初始化。示例代碼如下。

public class UnsafeLazyInitialization{
    private static Instance instance;
    public synchronized static Instance getInstance(){
        if(instance == null){       //1.A線程執行
            instance = new Instance();//2.B線程執行
        }
        return instance;
    }
}

由於對getInstance()方法做了同步處理,synchronized將導致性能開銷。如果getInstance()方法被多個線程頻繁的調用,將會導致程序執行性能的下降。反之,如果getInstance()方法不會被多個線程頻繁的調用,那麽這個延遲初始化方案將能提供令人滿意的性能。

在早期的JVM中,synchronized(甚至是無競爭的synchronized)存在巨大的性能開銷。因此,人們想出了一個“聰明”的技巧:雙重檢查鎖定(Double-Checked Locking)。人們想通過雙重檢查鎖定來降低同步的開銷。下面是使用雙重檢查鎖定來實現延遲初始化的示例代碼。

public class DoubleCheckedLocking {                     // 1
    private static Instance instance;                   // 2
    public static Instance getInstance() {              // 3
        if (instance == null) {                         // 4:第一次檢查
            synchronized (DoubleCheckedLocking.class) { // 5:加鎖
                if (instance == null)                   // 6:第二次檢查
                    instance = new Instance();          // 7:問題的根源出在這裏
            }                                           // 8
        }                                               // 9
        return instance;                                // 10
    }                                                   // 11
}

如上面代碼所示,如果第一次檢查instance不為null,那麽就不需要執行下面的加鎖和初始化操作。因此,可以大幅降低synchronized帶來的性能開銷。上面代碼表面上看起來,似乎兩全其美。

·多個線程試圖在同一時間創建對象時,會通過加鎖來保證只有一個線程能創建對象。

·在對象創建好之後,執行getInstance()方法將不需要獲取鎖,直接返回已創建好的對象。雙重檢查鎖定看起來似乎很完美,但這是一個錯誤的優化!在線程執行到第4行,代碼讀取到instance不為null時,instance引用的對象有可能還沒有完成初始化。

問題的根源

前面的雙重檢查鎖定示例代碼的第7行(instance=new Singleton();)創建了一個對象。這一行代碼可以分解為如下的3行偽代碼。

memory = allocate();  // 1:分配對象的內存空間
ctorInstance(memory);  // 2:初始化對象
instance = memory;   // 3:設置instance指向剛分配的內存地址

上面3行偽代碼中的2和3之間,可能會被重排序(在一些JIT編譯器上,這種重排序是真實發生的,詳情見參考文獻1的“Out-of-order writes”部分)。2和3之間重排序之後的執行時序如下。

memory = allocate();  // 1:分配對象的內存空間
instance = memory;   // 3:設置instance指向剛分配的內存地址
                        // 註意,此時對象還沒有被初始化!
ctorInstance(memory);  // 2:初始化對象

回到本文的主題,DoubleCheckedLocking示例代碼的第7行(instance=new Singleton();)如果發生重排序,另一個並發執行的線程B就有可能在第4行判斷instance不為null。線程B接下來將訪問instance所引用的對象,但此時這個對象可能還沒有被A線程初始化!

基於volatile的解決方案

對於前面的基於雙重檢查鎖定來實現延遲初始化的方案(指DoubleCheckedLocking示例代碼),只需要做一點小的修改(把instance聲明為volatile型),就可以實現線程安全的延遲初始化。請看下面的示例代碼。

public class SafeDoubleCheckedLocking{
    private volatile static Instance instance;
    public static Instance getInstance(){
        if(instance == null){
            synchronized (SafeDoubleCheckedLocking.class){
                if(instance == null){
                    instance = new Instance();
                }
            }
        }
        return instance;
    }
}
基於類初始化的解決方案

JVM在類的初始化階段(即在Class被加載後,且被線程使用之前),會執行類的初始化。在執行類的初始化期間,JVM會去獲取一個鎖。這個鎖可以同步多個線程對同一個類的初始化。

基於這個特性,可以實現另一種線程安全的延遲初始化方案(這個方案被稱之為Initialization On Demand Holder idiom)。

public class InstanceFactory{
    private static class Instanceholder{
        public static Instance instance = new Instance();
    }
    public static Instance getInstance()[
        return InstanceHolder.instance;  //這裏將導致InstanceHolder類被初始化
    ]
}

通過對比基於volatile的雙重檢查鎖定的方案和基於類初始化的方案,我們會發現基於類初始化的方案的實現代碼更簡潔。但基於volatile的雙重檢查鎖定的方案有一個額外的優勢:除了可以對靜態字段實現延遲初始化外,還可以對實例字段實現延遲初始化。

字段延遲初始化降低了初始化類或創建實例的開銷,但增加了訪問被延遲初始化的字段的開銷。在大多數時候,正常的初始化要優於延遲初始化。如果確實需要對實例字段使用線程安全的延遲初始化,請使用上面介紹的基於volatile的延遲初始化的方案;如果確實需要對靜態字段使用線程安全的延遲初始化,請使用上面介紹的基於類初始化的方案。

Java內存模型的基礎