前言
簡單來說,在新一代 Windows Server 2016 雲端作業系統中,倘若 IT 管理人員需要透過 S2D (Storage Spaces Direct) 技術建構 SDS 軟體定義儲存環境。在相關教學文章及影片中,你應該會不斷看到強調支援「RDMA (Remote Direct Memory Access)」技術,主要原因在於 RDMA 技術能夠有效「降低 S2D 叢集節點 CPU 工作負載」同時「降低延遲時間」。
然而,大家對於 RDMA 運作環境相對陌生,因此許多 IT 管理人員一開始的困惑便是,那麼「不支援」RDMA 的環境能否運作 Windows Server 2016 的 S2D 技術? 答案是,S2D 即便在不支援 RDMA (走一般的 TCP/IP 乙太網路) 的環境下仍能正常運作。
此外,也可以參考去年 Microsoft Ignite 2016 大會中 BRK3088 - Discover Storage Spaces Direct, the ultimate software-defined storage for Hyper-V 議程。
在該議程中的測試環境,也有分別測試「RDMA Enabled」及「RDMA Disabled」的效能測試結果 (節省 1/3 的 CPU 工作負載、達到提升 2 倍的 IOPS 效能表現):
然而,大家對於 RDMA 運作環境相對陌生,因此許多 IT 管理人員一開始的困惑便是,那麼「不支援」RDMA 的環境能否運作 Windows Server 2016 的 S2D 技術? 答案是,S2D 即便在不支援 RDMA (走一般的 TCP/IP 乙太網路) 的環境下仍能正常運作。
測試環境及測試工具
微軟官方採用同一批軟硬體環境,並且進行「RDMA Enabled」以及「RDMA Disabled」的測試,同時整理出 2 種運作環境的儲存效能,以便 IT 管理人員能夠了解這 2 種運作環境之間的效能差異。測試環境 (4 Nodes S2D Cluster)
下列為 4 Nodes S2D Cluster 測試環境中,每台 S2D 叢集節點主機的硬體配置:- Host: Intel S2600WT Platform。
- CPU: E5-2699 v4 2.2 GHz *2 (每顆 22 Cores / 44 執行緒)。
- Memory: 128 GB DDR4
- SSD: Intel P3700 NVMe *4
- NIC: Mellanox CX3 Pro 40Gb (Dual Port, RoCE v2)
- BIOS: Power Performance Plan、C States Disabled、Turbo Enabled、HT Enabled。
- OS: Windows Server 2016、S2D (Storage Spaces Direct)、High Performance Power Plan。
- S2D Volume: 3-Way Mirror。
測試工具
- DISKSPD。
- 4K 100% Random I/O (70% Read / 30% Write)。
- 10 Threads (Queue Depth 4 per Thread,Total is 40)。
- 10 GB file per Thread (Total is 100 GB)。
測試結果
下列圖表便是分享整理「RDMA Enabled」及「RDMA Disabled」的測試結果,歸納重點如下:- 倘若,你希望 S2D 有良好的儲存效能表現。那麼,你應該要讓 S2D 運作在 RDMA Enabled 環境。
- 此次的實作環境中 RDMA Enabled,能夠提升 28% IOPS、27% CPU 效能、36% Write Latency、28% Read Latency。
- 即便是 RDMA Disabled 環境 (TCP/IP 乙太網路),仍能夠提供 145,500 IOPS 的儲存效能。
此外,也可以參考去年 Microsoft Ignite 2016 大會中 BRK3088 - Discover Storage Spaces Direct, the ultimate software-defined storage for Hyper-V 議程。
在該議程中的測試環境,也有分別測試「RDMA Enabled」及「RDMA Disabled」的效能測試結果 (節省 1/3 的 CPU 工作負載、達到提升 2 倍的 IOPS 效能表現):