Storage Replica 使用 100GbE iWARP RDMA 運作效能


前言

先前,我們已經討論過在 Windows Server 2016 所建構的 S2D 環境中,採用 100GbE iWARP 時的儲存效能及輸送量,以及整合 Storage Replica 時的運作效能。相關內容請參考下列站內文章:

我們已經知道在 S2D (Storage Spaces Direct) 軟體定義儲存環境中,採用 RDMA (RoCE / iWARP / infiniband) 可以獲得  ultra-low latency, low-CPU, low-memory, high throughput SMB and workload performance 好處 。

因此,在這樣的運作架構中,由 SMB Direct (SMB 3.1.1) 機制搭配實體支援 RDMA 技術的網路介面卡,在都可以在 S2D HCI 超融合運作架構中受惠:
  • Storage Spaces Direct
  • Storage Replica
  • Hyper-V Live Migration
  • Windows Server and Windows 10 Enterprise client SMB operations
那麼本文要討論的重點是什麼?





Storage Replica 2016 vs 2019

在本文中,將討論在 Chelsio iWARP RDMA 運作環境,採用 Storage Replica 機制時可以獲得怎麼樣的運作效能。下列便是本文的測試環境:
  • OS: Windows Server 2016 RTM、Windows Server 2019 build 17744
  • System Model: 2x Supermicro Servers
  • CPU: Intel(R) Xeon(R) CPU E5-2687W v4 @ 3.00GHz (2 sockets, 24 cores) per node
  • RAM:128GB per node
  • INTEL NVME SSD Model: SSDPECME016T4 (1.6TB) – 5x in source node
  • Micron NVME SSD Model: MTFDHAX2T4MCF-1AN1ZABYY (2.4TB) – 5x in destination node
  • RDMA NIC: 2x Chelsio T62100-CR 100Gb iWARP RNICs
圖、Chelsio T62100-CR 100Gb iWARP RNICs





Storage Replica 效能測試

在本文測試環境中,建立 1TB Volume 進行 Storage Replica 效能測試,可以看到在單一 100Gb iWARP 環境中,由於傳輸速率高達 94Gb 所以整個同步過程才花費 95 秒即完成,並且在同步過程中並不會影響 S2D Host CPU/Memory 工作負載 (100% Read on the Source Host, 100% Write on the Destination Host)。倘若,有多個 100Gb iWARP 再搭配 SMB MultiChannel 機制的話,相信整個傳輸流量會更為下降。

圖、同步 1TB Volume 傳輸流量高達 94Gb

圖、同步 1TB Volume 僅花費 95 秒

簡單來說,在新一代 Windows Server 2019 (RS5) 雲端作業系統中,針對儲存效能及傳輸速率的部分再度提升,與舊有 Windows Server 2016 (RS1) 相較之下提升「2 ~ 3 倍」之多。

圖、Windows Server 2016 (RS1) / 2019 (RS5) 儲存效能及傳輸速率比較表





參考資源