*熱遷移傳送了什麼資料?儲存在哪?
虛擬機器的記憶體、虛擬機器描述資訊(配置和裝置資訊)、虛擬機器的狀態
虛擬機器的配置和裝置資訊:作業系統(類別、版本號)、引導方式(VM通過硬碟、光碟、U盤、網路啟動)和引導次序,CPU個數、記憶體大小、硬碟、網絡卡資訊(IP地址、MAC地址、閘道器、埠組)
儲存在VRM的資料庫中、CNA上的libvirt記憶體中、以檔案的方式儲存在VM系統盤所在的虛擬化資料儲存上。
在更改主機的熱遷移時,只變更CNA上的libvirt記憶體,由源CNA上的libvirt傳遞給目的CNA
*熱遷移是否會中斷業務?
會,一般中斷一到兩個資料包的時間,一般是一個。(會中斷一下下,但是新版本不丟包!!!)虛擬機器熱遷移上行鏈路發生了改變,並且更新ARP條目所以會中斷。
*VRM虛擬機器可以熱遷移嗎?
不能。
1. VRM虛擬機器是與主機繫結的
2. 熱遷移本身是由VRM維持的,熱遷移期間會中斷一段非常短的時間,如果VRM中斷就會出現故障。
*熱遷移需要裝Tools嗎?
6.3.1之後可以不裝,非必選。(KVM架構可以不裝,XEN架構必須裝)
*Tools的作用:
1. 提高IO效能
2. 實現一些高階功能(快照、磁碟升降配置、動態資源調整、虛擬機器藍屏檢測、安全關閉虛擬機器)
3. 監控虛擬機器的資訊(CPU、記憶體、網絡卡使用率,虛擬機器的內部狀態(如藍屏))
*虛擬機器熱遷移失敗的原因:
介面提示失敗:
1. 源目主機網路中斷或不通。
2. 目標主機故障、被重啟或進入維護模式。
3. 源目主機的CPU型別不相容。
4. 目標主機無法訪問虛擬機器的磁碟。(更改主機)
5. 需要考慮在業務的閒時操作,否則迭代遷移時髒資料增加是可能失敗的
業務不通:
1. 目標主機沒有關聯上虛擬機器所在DVS
2. DVS沒有上行鏈路
3. TOR交換機沒有允許vlan通行;
設定了遷移超時時間,但未在限制時間內遷移完成(遷移時間預設不超時)。
*FusionCompute計算資源排程策略、DRS、DPM 的優先順序,應用場景
DPM > 排程策略 > DRS
排程策略:
聚集虛擬機器:列出的虛擬機器必須在同一主機上執行,一個虛擬機器只能被加入一條聚集虛擬機器規則中。
互斥虛擬機器:列出的虛擬機器必須在不同主機上執行,一個虛擬機器只能被加入一條互斥虛擬機器規則中。
虛擬機器到主機:關聯一個虛擬機器組和主機組並設定關聯規則,指定所選的虛擬機器組的成員是否能夠在特定主機組的成員上執行。
第一優先順序:規則型別為“虛擬機器到主機”,規則是“必須在主機組上執行”和“禁止在主機組上執行”的。
第二優先順序:規則型別為“聚集虛擬機器”和“互斥虛擬機器”的。
第三優先順序:規則型別為“虛擬機器到主機”,規則是“應該在主機組上執行”和“不應該在主機組上執行”的。
同一個親和性組的虛擬機器,在建立時會被排程到相同的物理主機上。同一個反親和性組的虛擬機器,在建立時會被排程到不同的物理主機上。常配合共享雲硬碟,叢集使用。
應用場景:相同業務型別的虛擬機器設定為聚集虛擬機器。VRM用互斥虛擬機器。
*FusionCompute 叢集內無法執行排程策略的原因
1. 對於不滿足遷移要求的虛擬機器,將不會進行自動遷移。例如下面的情況:
1) 聚集或互斥規則將阻止遷移虛擬機器。
2) 已為虛擬機器禁用了 DRS。
3) 某個裝置掛載到了一個或多個虛擬機器上,使DRS無法移動虛擬機器,從而無法平衡負載。
4) 虛擬機器與 DRS 的目的主機不相容。
5) 虛擬機器與所在主機進行了繫結。
2. 遷移後會產生新的不平衡狀態,這類情況將不會遷移虛擬機器。例如:
1) 衡量因素選擇“CPU 和記憶體”時,部分主機 CPU 相對高,另外部分主機記憶體相對高。
2) 衡量因素選擇“CPU”或“記憶體”時,遷移任何一個虛擬機器都無法達到平衡。
3. 動態資源排程=DRS 模組+策略+vMotion(自動),故無法執行排程策略的原因可以從以上三點去考慮。
4. DRS 需要共享的儲存
*虛擬機器熱遷移需要使用到快照技術嗎?
不需要,根據虛擬機器熱遷移採用的技術分析原因:
針對記憶體:記憶體分片+迭代遷移
針對儲存: IO Mirror+迭代遷移
*儲存熱遷移定義、原理、約束、應用場景、範圍、失敗的原因有哪些?
定義:將虛擬機器中的磁碟從一個數據儲存遷移到另一個數據儲存中。
原理:熱遷移首先使用寫時重定向,將虛擬機器資料寫入目的儲存的一個差異磁碟,這樣,原磁碟檔案就變成只讀的。
將源卷的所有的資料塊依次讀取出來併合併到目標端的差異磁碟中,等資料合併完成後,目的端的差分磁碟就擁有虛擬磁碟的所有最新資料。
去除目的端快照對源卷的依賴,將差分磁碟修改為動態磁碟,這樣,目的端磁碟檔案可以獨立執行。
熱遷移約束:不支援遷移已掛載的“共享”型別的磁碟和連結克隆虛擬機器的磁碟
不支援非持久化磁碟和開啟iCache功能虛擬機器磁碟
不支援源目為不同FS的資料儲存之間遷移
冷遷移約束:虛擬機器為“已停止”時,如果源資料儲存為FusionStorage,不支援遷移到非持久化磁碟、帶快照虛擬機器磁碟。
應用場景:在不中斷業務的情況下進行計劃記憶體儲維護和儲存遷移。
將資料儲存的所有卷遷移後,可以對資料儲存進行減容
總結:1、如果不是共享儲存,遷移主機是不可以的;如果是共享儲存,都可以遷移主機
2、源儲存是虛擬化,目標儲存也是虛擬化,不管是本地還是共享都支援熱遷移
3、如果是FusionStorage,只能是非虛擬化,可以按共享非虛擬化來做
*熱遷移對資料儲存的要求?
虛擬機器遷移:只要求是共享的資料儲存即可。
完整遷移:
只支援虛擬化資料儲存之間進行遷移。(完整遷移)
不支援遷移已掛載的“共享”型別的磁碟和連結克隆虛擬機器的磁碟。(完整遷移)
不支援非持久化磁碟和開啟 iCache 功能虛擬機器磁碟的遷移。(完整遷移)
不支援源目的資料儲存為不同 FusionStorage 的遷移。(完整遷移)
*為什麼要二層互通?
因為DVS的IP和MAC地址不會發生改變,從而保證業務切換的時候業務不中斷。
為了虛擬機器遷移後處在原來的二層環境內,保證業務的正常執行。
*為什麼要三層互通?
保證虛擬機器能遷移成功。將描述資訊和配置資訊在管理網路上
*虛擬機器遷移需要三層互通還是二層互通?
虛擬機器從一臺主機遷移到另一臺主機,只需要兩主機能夠三層互通即可,預設情況下,遷移流量走管理網路,此時需要兩主機管理IP三層互通。在FusionCompute場景中,因保障虛擬機器遷移後,仍能正常對外提供業務,所以FusionCompute強制要求目的主機關聯虛擬機器所在DVS,即DVS上行鏈路中有目的主機的埠。為了保障虛擬機器能正常對外提供業務,作為實施人員,需確保虛擬機器遷移後,其仍能位於原二層網路中,即需確保上行鏈路放行遷移VM 所在VLAN或採用Vxlan等大二層技術。
*連結克隆虛擬機器,為什麼不支援熱遷移?
連結克隆VM無法遷移母卷,所以不支援。
*虛擬機器熱遷移流量經過哪些網路?
預設走CNA的管理網路平面;可以在配置“虛擬機器熱遷移流量”業務管理介面的情況下通過“虛擬機器熱遷移流量”業務管理介面承載。
*熱遷移資料走的什麼網路?
預設走管理網路,如果新增業務管理網路並打鉤選擇熱遷移可以走業務管理網路。
*分散式交換機
分散式交換機是一個虛擬的交換機,功能類似於二層的物理交換機,通過埠組與虛擬機器連線,通過上行鏈路與物理網路連通。
埠組:定義虛擬機器網絡卡通過分散式交換機連線到網路的方式。
上行鏈路:分散式交換機連線主機物理網絡卡的鏈路。
*不同 DVS 中,是否可以複用上行鏈路?多個物理網絡卡是否可以繫結後作為上行鏈路?
不能複用,一個上行鏈路只能繫結給一個 DVS。
多網絡卡可以繫結為聚合網口作為上行鏈路,一般雙網絡卡繫結來提高安全性。(設定 LACP 的話,物理交換機側也要開啟 LACP)
*遷移成功的標誌:
目的端虛擬機器 tools顯示虛擬機器狀態為執行中
沒有開機的過程,記憶體過來了,就可以直接執行。
*如何判斷何時應該暫停虛擬機器IO?
由VRM根據遷移頻寬,差異資料進行分析判斷。
這個我比較傾向於VMM,也就是CNA來判斷,根據虛擬機器的業務的一個繁忙程度和新產生記憶體資料的大小來判斷,現在是不是需要暫停IO。
*最後記憶體分片傳送到目的端的時間?
由VRM進行監控計算,根據最後一片記憶體分片的資料量/頻寬
*Tools有沒有參與到迭代遷移?
有
*熱遷移中Tools的作用?
監控虛擬機器的記憶體狀態、IO狀態,配置迭代遷移技術,保證源目的端虛擬機器資料的一致性。
*Tools的功能?
Tools是虛擬機器的驅動程式。空虛擬機器建立並安裝作業系統後,需在虛擬機器上安裝華為提供的Tools,以便提高虛擬機器的I/O處理效能、實現對虛擬機器的硬體監控和其他高階功能。
高階功能有如下:遷移虛擬機器
安全關閉虛擬機器、安全重啟虛擬機器、休眠虛擬機器
線上調整虛擬機器的 CPU 規格
建立虛擬機器快照
虛擬機器藍屏檢測
虛擬機器與主機時鐘同步
虛擬機器網絡卡的高階功能,如 QoS
*VRM如何判斷VM藍屏或核心崩潰?
首先要監測VM藍屏或核心崩潰需要在VM上安裝Tools。Tools與虛擬化層維持心跳關係,當虛擬化層週期內未收到心跳,則認為VM存在藍屏或核心崩潰的可能性,隨即檢查VM是否有IO行為,沒有則認為藍屏或核心崩潰。該資訊會被VNA收集並反饋給VRM。
*遷移失敗源目虛擬機器會怎麼樣?
源端虛擬機器正常執行,目的端刪除遷移失敗的資料
*跨叢集遷移的時候為什麼要讓它的記憶體複用開關保持一致?
如果開啟了記憶體複用實體記憶體和虛擬記憶體不一一對應,然後對應關係不一致會導致遷移失敗。
*虛擬機器可以使用本地硬碟進行熱遷移麼?
可以,只要是把本地硬碟虛擬化後共享儲存就可以。
*遷移時在另外一個虛擬機器上Ping這個遷移的虛擬機器,遷移過程中ping狀態會有什麼變化?丟包出現在遷移的哪個過程,具體哪個環節導致的丟包?
長ping可能會中斷資料通訊,會丟1-2個包。
因為主機所對應的物理交換機的埠變了 arp條目還是指向原埠方向 要進行埠指向更新 更新的過程會丟一到兩個包。
*能不能在一個站點的多個叢集做熱遷移?
可以,兩個叢集使用相同 DVS,相同共享儲存。
*兩個CNA掛不同的儲存,能熱遷移嗎?
可以完整熱遷移(包括線上熱遷移和儲存熱遷移),只要儲存型別是虛擬化儲存就可以熱遷移,遷移了記憶體和配置資訊,如果做儲存層熱遷移的話還有磁碟也會被遷移過去。非共享儲存只能完整遷移。
虛擬機器與 DVS 的關係
虛擬機器通過埠組,與 DVS 相連,DVS 通過上行鏈路與外部網路相連。
*FusionCompute 中的網路虛擬化功能是如何實現的?
總結:基於cpu實現的虛擬交換機,實現方式靈活,ovs,支援的高階特性多,相容性好,但是使用主機的cpu資源,效能最低,使用專門的物理網絡卡實現的虛擬化,由網絡卡直接提供虛擬化功能,效能好,但是相容性差,支援的高階特性少
*同一主機同一vlan,主機網絡卡壞了,能通嗎?
如果是相同 DVS 能通。但是如果是不同 DVS,則不可以。
*FusionCompute 中怎麼實現虛擬交換的/虛擬交換機的工作原理
在虛擬化平臺下,虛擬機器的虛擬網絡卡要接入埠組,埠組上可打 vlan 標籤,也可以設定成中繼模式(trunk)來到達虛擬交換機,然後通過上行鏈路接入外部網路中,實現虛擬機器和外部網路的通訊。
*DVS 和 CNA 的關係:
一個 CNA 主機物理網口只能屬於一個上行連結組,即只能屬於一個 DVS。一個主機如果有多個物理網口,那麼可以關聯多個 DVS,即新增到不同 DVS 的上行連結組中。
*如何理解 DVS?
DVS本身是個邏輯物件,跨越多個CNA節點,是由VRM來維持的,並且它是個虛擬的概念。
當在VRM中操作DVS的時候,將一主機加入到DVS中的時候 ,本質是VRM傳送指令給對應的CNA主機的OVS,由OVS來實現。(如果建立DVS的模式為普通,則是OVS。如果是使用者態則為控制 EVS)
*本機的虛擬機器快照能恢復到其他虛擬機器嘛?
不可以。
*熱遷移最後一片記憶體分片是在什麼時候傳送過去的?
髒資料達到一定閾值,然後暫停源虛擬機器的io,然後遷移過去。
聚合網口有多少種模式?
主備
基於輪詢的負荷分擔
基於源目的 IP 和埠負荷分擔
基於源目 MAC 的負荷分擔
基於源目的 MAC 的 LACP
基於源目的 IP 的 LACP
DPDK 驅動的主備模式,
DPDK 驅動的基於源目MAC地址LACP
DPDK 驅動的基於源目IP和埠的LACP
備註:建議主備或者 LACP 模式。不建議使用普通負荷分擔。避免出現交換機 MAC 地
址飄移。使用 LACP 的模式,在交換機側也需要設定不然會導致網路不通。
考試追問:
為什麼需要同一個DVS?遷移不同DVS可以嗎?
(不確定)源端虛擬機器和目的端虛擬機器都能訪問同一個DVS,保證二層網路需要是互通的,這樣才能進行遷移,如果目的端無法訪問源端DVS,那麼則無法進行遷移。
虛擬化儲存可以進行遷移嗎?虛擬化儲存的好處?
可以。虛擬化資料儲存是CNA把塊裝置格式化成VIMS檔案系統,檔案系統是由VMM側維持的,然後就可以支援一些FC叢集的高階特性,比如快照 熱遷移 還有比如精簡磁碟啥的
儲存熱遷移一定要虛擬化儲存嗎?
不一定。
*IMC是什麼?舉例
3代U升級至4代U是不需要開啟IMC功能的
4代U降級遷移至3代U需要開啟IMC功能,因為:
4代U可以提供更多的高階特性,但是3代U可能不支援某些特性,所以需要保證一致性,要開啟IMC功能,保證適用的是同樣的高階特性
IMC消除高階特性,以低代為準。保持了一樣的CPU指令集,遮蔽了高階指令集
長ping的話業務會出現中斷嗎?
是會有中斷的,在最後一次迭代遷移的時候會修改對映至目的端虛擬機器,此時會中斷,但是隻有1-2個包,客戶無感知。
對儲存的要求,共享儲存還有什麼更詳細的限制?
不能儲存熱遷移
共享磁碟可以進行遷移嗎?
答,如果是完整遷移,則不可以。
共享磁碟是掛載給多個虛擬機器的磁碟,也就是可能別人正在用這塊磁碟 你把它遷走了,那別人還能用嗎?
考官說虛擬機器熱遷移預設是更改主機?
我說可以,不管是虛擬化還是非虛擬化,只要是共享的資料儲存即可。
對於網路有什麼限制?用的哪一層?什麼時候用二層什麼時候用三層?
想業務不中斷,就需要二層網路互通,如果只是保證虛擬機器能正常遷移,三層網路互通就可以。
因為是熱遷移,所以兩主機強制關聯至同一DVS(因為這樣網路環境不會改變,二層互通,所以也就不會中斷業務)
vxlan是幹嘛的?用二層三層的原因是什麼?
VXLAN是一種網路虛擬化技術,可以改進大型雲端計算在部署時的擴充套件問題,是對VLAN的一種擴充套件。VXLAN是一種功能強大的工具,可以穿透三層網路對二層進行擴充套件。它可通過封裝流量並將其擴充套件到第三層閘道器,以此來解決VMS(虛擬記憶體系統)的可移植性限制,使其可以訪問在外部IP子網上的伺服器。
跨資料中心或者是跨二層的網路,要熱遷移,但要保證二層互通,所以用到vxlan的大二層技術。
完整熱遷移在哪個介面上可以操作?
虛擬化場景在FusionCompute,私有云在SC
如何實現儲存熱遷移?
寫時重定向+迭代遷移
IO mirror是誰提供的?為什麼?
FC。FC對接儲存資源、掃描儲存裝置、建立資料儲存,再資料儲存上使用iomirror。
io mirror其實是xen版本的fc,domain 0提供的。
是叢集的高階特性,VRM提供的。
Intel和AMD可以開啟IMC嗎?
不可以,只能同品牌
AMD是否支援IMC?
不支援
都是intel的CPU 8.0的才有ARM架構的華為鯤鵬CPU
熱遷移過程中同步記憶體的時候故障了怎麼處理?
我答遷移失敗,點評說還可以手動配置,再繼續遷移。(斷點續傳) 重新遷移
追問了主機故障可以遷移嗎?
我說不可以,點評說要看情況,如果系統正常執行,只要不影響vm和網路等情況,是可以遷移的,我沒有反駁。(VRM維持叢集高階特性,當CNA主機掛掉系統正常執行,只要不影響vm和網路等情況,是可以遷移的)
IMC在哪裡開啟?
在叢集中,CPU代高的開。
為什麼記憶體複用開關不一致就不可以遷移?
記憶體複用會導致虛擬機器記憶體超分配,如果不同時開啟虛擬機器遷移過去後可能會因為記憶體不足導致虛擬機器無法正常執行。
另一個是記憶體使用機制發生了改變,原來是獨佔,變成了共享,機制發生了改變,所以為了保證成功率,開啟為好