站長新書 - Windows Server 2012 R2 Hyper-V 3.0 叢集雲端架構實戰 (高級篇)

1、前言

Windows Server 2012 R2 雲端作業系統於 2013 年 10 月正式上市,新一代的雲端作業系統不僅僅只是將舊有功能改進並且還新增多項全新功能,本書共有 13 章從一開始的 x86 虛擬化技術,到如何讓讀者可以籍由 Nested Virtualization 概念打造僅使用一台 PC 主機,便能實作書中所有進階實作的 Hyper-V in a Box 層層虛擬化環境,接著從基礎設定開始暖身慢慢進階到 Hyper-V 3.0 R2 各項進階實作,由淺入深的章節編排希望您會喜歡。



文章目錄

1、前言
2、網路購書
3、第一章、實作環境及初始設定
4、第二章、容錯移轉叢集前置作業
5、第三章、建置容錯移轉叢集
6、第四章、計畫性停機解決方案
7、第五章、非計畫性停機解決方案
8、第六章、異地備援解決方案
9、第七章、監控應用程式健康狀態
10、第八章、叢集感知更新
11、第九章、VM 虛擬主機反關聯性




2、網路購書




3、第一章、實作環境及初始設定

在初級篇當中可知,雖然在新版 Hyper-V 3.0 R2虛擬化環境內,並不需要建置容錯移轉叢集(Non Failover Cluster)環境,仍然可以達成多種 VM 虛擬主機遷移的目的。但是,未建置容錯移轉叢集的虛擬化環境高可用性機制其實並未完備,舉例來說 未建置容錯移轉叢集的虛擬化環境中,並支援「快速遷移(Quick Migration)」機制,也就是當 Hyper-V 實體主機發生災難時,未建置容錯移轉叢集的虛擬化環境中,並沒有相對應的機制能夠將其上運作的 VM 虛擬主機,自動化遷移到其它存活的 Hyper-V 主機當中。

因此,若您希望所建置的 Hyper-V 虛擬化環境具備完整的高度可用性時,那麼您還是必須要建置「容錯移轉叢集(Failover Cluster)」環境才行。下列是本書當中容錯移轉集實作環境架構圖:



1-1、實作環境
          1-1-1、設定 VMware Player 網路環境
          1-1-2、VMware Player建立虛擬主機
          1-1-3、安裝作業系統
1-2、系統初始設定
          1-2-1、調整預設輸入法模式
          1-2-2、變更電腦名稱
          1-2-3、安裝 VMware Tools
1-3、網路功能及網域設定
          1-3-1、DC 主機網路初始設定
          1-3-2、DC 主機建立 Active Directory 網域服務
          1-3-3、iSCSI 主機網路及網域設定
          1-3-4、Node 1 主機網路及網域設定
          1-3-5、Node 2 主機網路及網域設定



4、第二章、容錯移轉叢集前置作業

本章將一步一步帶領讀者,從新增 Hyper-V 伺服器角色、iSCSI 目標伺服器、iSCSI Target 建立...等。



當然,也包含 iSCSI Target / iSCSI Initiator MPIO 等設定,下列便是 MPIO 多重路徑網路架構示意圖。



最後,在建置容錯移轉叢集環境以前,建議讀者進行一些系統細部微調作業,這些細部微調的部份雖然可以略過,但這是作者在企業與組織多年實戰經驗中的一些經驗法則,透過本小節相關的細部調整後,有時可以減少後續很多不可預期的奇怪或錯誤現象。

舉例來說,在預設的情況下 Windows Server 2012 R2 作業系統,會為實體網路卡啟用「節省電源」機制,但此舉可能造成長時間未連線時自動將網路卡進入省電模式,當突然要使用連線時因為喚醒網路卡需要一點時間,因此可能會覺得發生連線中斷的錯覺,所以建議將此功能 關閉



2-1、進階功能前置作業
          2-1-1、伺服器管理員集中管理
2-2、納管主機新增角色及功能
          2-2-1、Node 1 主機新增 Hyper-V 伺服器角色
          2-2-2、Node 2 主機新增 Hyper-V 伺服器角色
          2-2-3、iSCSI 主機新增 iSCSI 目標伺服器
2-3、格式化 iSCSI 主機磁碟
          2-3-1、離線硬碟上線
          2-3-2、硬碟初始化
          2-3-3、新增磁碟區
2-4、iSCSI Target 設定
          2-4-1、新增 iSCSI 虛擬磁碟(Quorum Disk)
          2-4-2、新增 iSCSI 虛擬磁碟(Storage1 Disk)
2-5、iSCSI Initiator MPIO 設定
          2-5-1、Node 1 主機安裝多重路徑 I/O 功能
          2-5-2、Node 1 主機新增 MPIO 裝置
          2-5-3、Node 1 主機 iSCSI Initiator MPIO 設定
          2-5-4、Node 1 主機掛載 iSCSI Target 磁碟資源
          2-5-5、Node 2 主機安裝多重路徑 I/O 功能
          2-5-6、Node 2 主機新增 MPIO 裝置
          2-5-7、Node 2 主機 iSCSI Initiator MPIO 設定
          2-5-8、Node 2 主機掛載 iSCSI Target 磁碟資源
2-6、主機設定細部調整
          2-6-1、調整電源選項
          2-6-2、關閉網路卡節省電源功能
          2-6-3、不停用 IPv6 功能
          2-6-4、取消 LMHOSTS 搜尋及 DNS 登錄
          2-6-5、關閉網路卡 RSS 功能
          2-6-6、調整網路卡順序
          2-6-7、調整 Hyper-V 虛擬交換器名稱



5、第三章、建置容錯移轉叢集

本章將詳細說明如何為叢集節點,安裝容錯移轉叢集功能並建立高可用性容錯移轉叢集以及 VM 虛擬主機。由於容錯移轉叢集運作環境,提供高可用性及服務持續性因此對於運作條件極為要求,所以在建立容錯移轉叢集以前必須要先通過「驗證設定」的動作,才能確保後續建立的容錯移轉叢集運作穩定性及高可用性。

最後,也將實戰演練「叢集共用磁碟區快取(CSV Cache)」,讓你的 VM 虛擬主機能夠有效提升運作效率。透過「共用虛擬硬碟(Shared VHDX Disk)」機制,讓你從此架構 Guest Clustering 環境不在勞心勞力。

VM 虛擬主機開啟 CSV Cache 機制之「」的 IOPS 表現



VM 虛擬主機開啟 CSV Cache 機制之「」的 IOPS 表現



3-1、安裝容錯移轉叢集功能
          3-1-1、Node主機安裝容錯移轉叢集功能
          3-1-2、查看容錯移轉叢集虛擬介面卡
          3-1-3、DC 主機安裝容錯移轉叢集管理工具
3-2、建立高可用性容錯移轉叢集
          3-2-1、容錯移轉叢集驗證設定
          3-2-2、建立容錯移轉叢集
          3-2-3、了解叢集磁碟
          3-2-4、了解容錯移轉叢集網路
          3-2-5、容錯移轉叢集 DNS 記錄及電腦帳戶
3-3、建立高可用性 VM 虛擬主機
          3-3-1、複製 ISO 映像檔
          3-3-2、建立高可用性 VM 虛擬主機
          3-3-3、VM 虛擬主機安裝作業系統
          3-3-4、測試 MPIO 容錯切換功能
          3-3-5、管理 VM 虛擬主機
3-4、叢集共用磁碟區快取(CSV Cache)
          3-4-1、啟用 CSV Cache 機制
          3-4-2、調整 CSV Cache 空間大小
          3-4-3、測試 CSV Cache 機制
          3-4-4、CSV Cache 機制失效?
3-5、共用虛擬硬碟(Shared VHDX Disk)
          3-5-1、第一台 VM 新增共用虛擬硬碟
          3-5-2、第二台 VM 掛載共用虛擬硬碟
          3-5-3、架設 Guest Clustering



6、第四章、計畫性停機解決方案

本章除了詳細解說各項計畫性停機解決方案運作原理,如 VM 虛擬主機線上不中斷運算資源搬移的「即時遷移(Live Migration)」、儲存資源搬移的「儲存即時遷移(Live Storage Migration)」、不需要共享儲存設備的「無共用儲存即時遷移(Shared-Nothing Live Migration)」等機制之外。同時,也將帶領讀者一步一步進行實戰演練以求理論與實務並重。下列為儲存即時遷移運作原理示意圖:



4-1、即時遷移(Live Migration)
          4-1-1、即時移轉設定
          4-1-2、實測即時遷移(Live Migration)
4-2、儲存即時遷移(Live Storage Migration)
          4-2-1、容錯移轉叢集增加第二個共用儲存空間
          4-2-2、iSCSI 主機新增第三顆 iSCSI 虛擬磁碟(Storage2 Disk)
          4-2-3、Node 1 主機 iSCSI Initiator MPIO 設定
          4-2-4、Node 1 主機掛載 Storage 2 磁碟資源
          4-2-5、Node 2 主機 iSCSI Initiator MPIO 設定
          4-2-6、Node 2 主機掛載 Storage 2 磁碟資源
          4-2-7、新增第二顆叢集共用磁碟 CSV
          4-2-8、實測儲存即時遷移(Live Storage Migration)
4-3 無共用儲存即時遷移(Shared-Nothing Live Migration)
          4-3-1、單機 Hyper-V 主機初始化
          4-3-2、Hyper-V 主機委派設定
          4-3-3、實測無共用儲存即時遷移(Shared-Nothing Live Migration)



7、第五章、非計畫性停機解決方案

從 Windows Server 2012 版本開始,便已經支援原生的「網路卡小組(NIC Teaming)」機制,有效解決網路卡負載平衡及容錯備援的需求。但是,如果發生的中斷事件是網路卡小組當中,所有的成員網卡同時損壞? 或者是成員網卡的網路線被踢掉? VM 虛擬主機對外服務的交換器損壞?…等事件呢?

新一代的 Windows Server 2012 R2 雲端作業系統,新增「受保護的網路(Protected Network)」機制來因應這樣的網路中斷事件。當 Hyper-V 主機當中,負責 VM 虛擬主機的實體網路發生中斷事件後,此時 Hyper-V 主機若有其它線路能與其它主機溝通,那麼便會立即透過「即時遷移」的方式,將 VM 虛擬主機遷移至其它 Hyper-V 主機上繼續運作。下列為受保護的網路運作機制示意圖:



5-1、受保護的網路(Protected Network)
          5-1-1、確認受保護的網路機制啟用狀態
          5-1-2、實測受保護的網路機制
5-2、快速遷移(Quick Migration)
          5-2-1、手動執行快速遷移
          5-2-2、實測快速遷移



8、第六章、異地備援解決方案

在初級篇當中的 Hyper-V 複本機制,因為並 沒有 容錯移轉叢集運作環境,因此當「主要/次要」站台之間若硬體架構無誤便能運作順利,但倘若「主要」站台發生硬體故障事件時,其實複本抄寫機制便會 中斷 同步作業。

倘若是運作在 容錯移轉叢集運作環境當中,當「主要 或 次要」站台發生硬體故障事件時,叢集資源將會透過「Hyper-V 複本代理人(Hyper-V Replica Broker)」機制,由存活的叢集節點接手並居中「協調」後,繼續進行 Hyper-V 複本抄寫作業。下列為 Hyper-V 複本代理人運作示意圖:



6-1、Hyper-V 複本(Hyper-V Replica)
          6-1-1、新增 Hyper-V 複本代理人
          6-1-2、容錯移轉叢集啟用複本機制
          6-1-3、建立分公司主機
          6-1-4、VM 虛擬主機啟用複本機制
          6-1-5、查看複本機制健康情況
          6-1-6、指定複寫 VM 虛擬主機不同 IP 位址
          6-1-7、延伸複寫(Extend Replication)
6-2、測試容錯移轉
6-3、計畫性容錯移轉
6-4、非計畫性容錯移轉
          6-4-1、母公司叢集環境損毀
          6-4-2、分公司主機接手服務
          6-4-3、母公司叢集環境修復
          6-4-4、母公司服務重新上線



9、第七章、監控應用程式健康狀態

雖然從 Windows Server 2008 R2 開始,架設容錯移轉叢集難度已經大幅降低,但要為 VM 虛擬主機架構叢集服務仍須費一番功夫。那麼,有沒有簡單且快速的監控機制,可以幫助我們監控 VM 虛擬主機上運作的「應用程式健康狀態」呢? 有的!! 在新一代 Windows Server 2012 R2 作業系統當中,內建的「VM 虛擬主機應用程式監控(VM Monitoring)」功能就是您的好幫手。下列為 VM Monitoring 機制運作示意圖:



7-1、監控應用程式健康狀態(VM Monitoring)
7-2、實測前置作業
7-3、監控 VM 虛擬主機應用程式
7-4、測試 VM Monitoring 機制
7-5、其它組態設定調整



10、第八章、叢集感知更新

在舊版本 Windows Server 2008 R2 時代,若叢集節點要執行關機動作的話,管理人員必須要「手動」將叢集節點進行 暫停節點、移動群組、移動服務或應用程式到另一個節點…等手動作業程序(詳細資訊請參考 Microsoft KB 174799),或是運作環境中有建置 SCVMM 2008 R2 時,將 Hyper-V 主機放置到「Start Maintenance Mode」才行。

現在,新一代的 Windows Server 2012 R2 雲端作業系統完全簡化這一切,這些繁鎖的手動操作步驟全都包含在「清空角色(Node Drain)」(或稱為 Node Maintenance Mode)動作當中。執行此動作時,它會針對線上運作的 VM 虛擬主機採用即時遷移(Live Migration)機制,並搭配「最佳可用節點(Best Available Node)」演算(挑選最多 Free Memory 叢集節點)來遷移 VM 虛擬主機,接著依照 VM 虛擬主機所設定的優先順序進行移轉動作,自動化的移動角色及工作負載(Role / Workloads)後關閉叢集節點,同時避免其它叢集節點將工作負載遷移過來。下列為最佳可用叢集節點演算運作示意圖:



8-1、叢集節點維護模式(Maintenance Mode)
          8-1-1、叢集節點進入維護模式(清空角色)
          8-1-2、叢集節點離開維護模式(容錯回復角色)
8-2、叢集感知更新(CAU)
          8-2-1、執行叢集感知更新
          8-2-2、叢集節點下載安全性更新
          8-2-3、叢集節點安裝安全性更新
          8-2-4、叢集節點下載及安裝相依安全性更新
8-3、匯出叢集感知更新報表



11、第九章、VM 虛擬主機反關聯性

在容錯移轉叢集運作環境當中,叢集節點及 VM 虛擬主機數量日益增多時可能會發生一個狀況,舉例來說 在叢集內運作二台高可用性的 SQL 資料庫伺服器,但是這二台 VM 虛擬主機若運作在「同一台」叢集節點主機時,當該叢集節點主機發生「非計畫性故障」的災難事件時,雖然叢集資源會透過「快速遷移(Quick Migration)」機制,自動將這二台 VM 虛擬主機遷移到其它存活的叢集節點繼續運作。

但是,我們知道快速遷移機制是有「停機時間(Downtime)」的,因此雖然建置了二台高可用性 SQL 資料庫伺服器,但是卻因為擺放在同一台叢集節點並發生非計畫性故障災難事件,因此還是造成了高可用性服務產生短暫的停機時間,那麼有沒有簡單又方便實作的機制,可以將 VM 虛擬主機「自動分開放置」在不同的叢集點節當中運作呢? 有的!! 新一代的 Windows Server 2012 R2 當中的「VM 虛擬主機反關聯(Anti-Affinity)」機制,就可以為您解決這樣的困擾。下列便是 VM 虛擬主機反關聯性機制運作示意圖:



9-1、VM 虛擬主機反關聯性(Anti-Affinity)
9-2、安裝容錯移轉叢集命令介面功能
9-3、未設定 AntiAffinityClassName 屬性
9-4、設定 AntiAffinityClassName 屬性