MySQL 意外宕機不難解決,資料會丟麼?但你真的懂資料恢復嗎?
InnoDB如果發生意外宕機了,資料會丟麼?
對於這個問題,稍微瞭解一點MySQL知識的人,都會斬釘截鐵的回答:不會!
為什麼?
他們也會毫不猶豫地說:因為有重做日誌(redo log),資料可以通過redo log進行恢復。
回答得很好,那麼InnoDB怎樣通過redo log進行資料恢復的,具體的流程是怎樣的?
估計能說清楚這個問題的人所剩不多了,更深入一點:除了redo log,InnoDB在恢復過程中,還需要其他資訊麼?比如是否需要binlog參與?undo日誌在恢復過程中又會起到什麼作用?
到這裡,可能很多人會變得疑惑起來:資料恢復跟undo有半毛錢的關係?
其實,InnoDB的資料恢復是一個很複雜的過程,這個恢復過程需要redo log、binlog、undo log等參與。這裡把InnoDB的恢復過程主要劃分為兩個階段:
第一階段主要依賴於redo log的恢復;
而第二階段,恰恰需要binlog和undo log的共同參與。
接下來,我們來具體瞭解下整個恢復的過程:
一、依賴redo log進行恢復
第一階段,資料庫啟動後,InnoDB會通過redo log找到最近一次checkpoint的位置,然後根據checkpoint相對應的LSN開始,獲取需要重做的日誌,接著解析獲取的日誌並且儲存到一個雜湊表中,最後通過遍歷雜湊表中的redo log資訊,讀取相關頁進行恢復。
InnoDB的checkpoint資訊儲存在日誌檔案中,即ib_logfile0的開始2048個位元組中,checkpoint有兩個,交替更新,checkpoint與日誌檔案的關係如下圖:

(checkpoint位置)
checkpoint資訊分別儲存在ib_logfile0的512位元組和1536位元組處,每個checkpoint預設大小為512位元組,InnoDB的checkpoint主要由3部分資訊組成:
checkpoint no:主要儲存的是checkpoint號,因為InnoDB有兩個checkpoint,通過checkpoint號來判斷哪個checkpoint更新。
checkpoint lsn:主要記錄了產生該checkpoint是flush的LSN,確保在該LSN前面的資料頁都已經落盤,不再需要通過redo log進行恢復。
checkpoint offset:主要記錄了該checkpoint產生時,redo log在ib_logfile中的偏移量,通過該offset位置就可以找到需要恢復的redo log開始位置。
通過以上checkpoint的資訊,我們可以簡單得到需要恢復的redo log的位置,然後通過順序掃描該redo log來讀取資料,比如我們通過checkpoint定位到開始恢復的redo log位置在ib_logfile1中的某個位置,那麼整個redo log掃描的過程可能是這樣的:

(redo log掃描過程)
Step 1:從ib_logfile1的指定位置開始讀取redo log,每次讀取4 * page_size的大小,這裡我們預設頁面大小為16K,所以每次讀取64K的redo log到快取中,redo log每條記錄(block)的大小為512位元組。
Step 2:讀取到快取中的redo log通過解析、驗證等一系列過程後,把redo log的內容部分儲存到用於恢復的快取recv_sys->buf,儲存到恢復快取中的每條資訊主要包含兩部分:(space,offset)組成的位置資訊和具體redo log的內容,我們稱之為body。
Step 3:同時儲存在恢復快取中的redo資訊會根據(space,offset)計算一個雜湊值後儲存到一個雜湊表(recv_sys->addr_hash)中,相同雜湊值、不同(space,offset)用連結串列儲存,相同的(space,offset)用列表儲存,可能部分事務比較大,redo資訊一個block不能儲存,所以,每個body中可以用連結串列連結多body的值。
redo log被儲存到雜湊表中之後,InnoDB就可以開始進行資料恢復,只需要輪詢雜湊表中的每個節點獲取redo資訊,根據(space,offset)讀取指定頁面後進行日誌覆蓋。
在上面整個過程中,InnoDB為了保證恢復的速度,做了幾點優化:
優化1:
在根據(space,offset)讀取資料頁資訊到buffer pool的時候,InnoDB不是隻讀取一張頁面,而是讀取相鄰的32張頁面到buffer pool。這裡有個假設,InnoDB認為,如果一張頁面被修改了,那麼其周圍的一些頁面很有可能也被修改了,所以一次性連續讀入32張頁面可以避免後續再重新讀取。
優化2:
在MySQL5.7版本以前,InnoDB恢復時需要依賴資料字典,因為InnoDB根本不知道某個具體的space對應的ibd檔案是哪個,這些資訊都是資料字典維護的。而且在恢復前,需要把所有的表空間全部開啟,如果庫中有數以萬計的表,把所有表開啟一遍,整個過程就會很慢。那麼MySQL5.7在這上面做了哪些改進呢?
其實很簡單,針對上面的問題,InnoDB在redo log中增加了兩種redo log的型別來解決。
MLOG_FILE_NAME
用於記錄在checkpoint之後,所有被修改過的資訊(space,filepath);
MLOG_CHECKPOINT
則用於標誌MLOG_FILE_NAME的結束。
上面兩種redo log型別的新增,完美解決了前面遺留的問題,redo log中儲存了後續需要恢復的space和filepath對。所以,在恢復的時候,只需要從checkpoint的位置一直往後掃描到MLOG_CHECKPOINT的位置,這樣就能獲取到需要恢復的space和filepath。在恢復過程中,只需要開啟這些ibd檔案即可。當然由於space和filepath的對應關係通過redo存了下來,恢復的時候也不再依賴資料字典。
這裡需要強調的是MLOG_CHECKPOINT在每個checkpoint點中最多存在一次,如果出現多次MLOG_CHECKPOINT型別的日誌,則說明redo已經損壞,InnoDB會報錯。
最多存在一次,那麼會不會有不存在的情況?
答案是肯定的,在每次checkpoint過後,如果沒有發生資料更新,那麼MLOG_CHECKPOINT就不會被記錄。所以只要查詢下redo log最新一個checkpoint後的MLOG_CHECKPOINT是否存在,就能判定上次MySQL是否正常關機。
5.7版本的MySQL在InnoDB進行恢復的時候,也正是這樣做的,MySQL5.7在進行恢復的時候,一般情況下需要進行最多3次的redo log掃描:
1、首先對redo log的掃描,主要是為了查詢MLOG_CHECKPOINT,這裡並不進行redo log的解析。如果你沒有找到MLOG_CHECKPOINT,則說明InnoDB不需要進行recovery,後面的兩次掃描可以省略;如果找到了MLOG_CHECKPOINT,則獲取MLOG_FILE_NAME到指定列表,後續只需開啟該連結串列中的表空間即可。
2、下一步的掃描是在第一次找到MLOG_CHECKPOINT基礎之上進行的,該次掃描會把redo log解析到雜湊表中,如果掃描完整個檔案,雜湊表還沒有被填滿,則不需要第三次掃描,直接進行recovery就結束。
3、最後是在第二次基礎上進行的,第二次掃描把雜湊表填滿後,還有redo log剩餘,則需要迴圈進行掃描,雜湊表滿後立即進行recovery,直到所有的redo log被apply完為止。
redo log全部被解析並且apply完成,整個InnoDB recovery的第一階段也就結束了,在該階段中,所有已經被記錄到redo log但是沒有完成資料刷盤的記錄都被重新落盤。
然而,InnoDB單靠redo log的恢復是不夠的,這樣還是有可能會丟失資料(或者說造成主從資料不一致)。
因為在事務提交過程中,寫binlog和寫redo log提交是兩個過程,寫binlog在前而redo提交在後,如果MySQL寫完binlog後,在redo提交之前發生了宕機,這樣就會出現問題:binlog中已經包含了該條記錄,而redo沒有持久化。binlog已經落盤就意味著slave上可以apply該條資料,redo沒有持久化則代表了master上該條資料並沒有落盤,也不能通過redo進行恢復。
這樣就造成了主從資料的不一致,換句話說主上丟失了部分資料,那麼MySQL又是如何保證在這樣的情況下,資料還是一致的?這就需要進行第二階段恢復。
二、binlog和undo log共同參與
前面提到,在第二階段恢復中,需要用到binlog和undo log,下面我們就來看下具體的恢復邏輯是怎樣的?
其實該階段的恢復中,也被劃分成兩部分:第一部分,根據binlog獲取所有可能沒有提交事務的xid列表;第二部分,根據undo中的資訊構造所有未提交事務連結串列,最後通過上面兩部分協調判斷事務是否可以提交。

(根據binlog獲取xid列表)
如上圖所示,MySQL在第二階段恢復的時候,先會去讀取最後一個binlog檔案的所有event資訊,然後把xid儲存到一個列表中,然後進行第二部分的恢復,如下:

(基於undo構造事務連結串列)
我們知道,InnoDB當前版本有128個回滾段,每個回滾段中儲存了undo log的位置指標,通過掃描undo日誌,我們可以構造出還未被提交的事務連結串列(存在於insert_undo_list和update_undo_lsit中的事務都是未被提交的),所以通過起始頁(0,5)下的solt資訊可以定位到回滾段,然後根據回滾段下的undo的slot定位到undo頁,把所有的undo資訊構建一個undo_list,然後通過undo_list再建立未提交事務連結串列trx_sys->trx_list。
基於上面兩步, 我們已經構建了xid列表和未提交事務列表,那麼在這些未提交事務列表中的事務,哪些需要被提交?哪些又該回滾?
判斷條件很簡單:凡是xid在通過binlog構建的xid列表中存在的事務,都需要被提交。換句話說,所有已經記錄binlog的事務,需要被提交,而剩下那些沒有記錄binlog的事務,則需要被回滾。
三、回顧優化
通過上述兩個階段的資料恢復,InnoDB才最終完成整個recovery過程,回過頭來我們再想想,在上述兩個階段中,是否還有優化空間?比如第一階段,在構造完雜湊表後,事務的恢復是否可以併發進行?理論上每個hash node是根據(space,offset)生成的,不同的hash node之間不存在衝突,可以並行進行恢復。
或者在根據雜湊表進行資料頁讀取時,每次讀取連續32張頁面,這裡讀取的32張頁面,可能有部分是不需要的,也同時被讀入到Buffer Pool中了,是否可以在構建一顆紅黑樹,根據(space,offset)組合鍵進行插入,這樣如果需要恢復的時候,可以根據紅黑樹的排序原理,把所有頁面的讀取順序化,並不需要讀取額外的頁面。