? 大道云行全閃SDS 塊存儲系統FASS四節點1000萬IOPS,微秒級的低延遲,更好的性能,更低的成本。 ![]() Ceph性能數據來源:Redhat對Ceph 使用三星PM1725A進行的性能測試報告 測試數據(簡表) ![]() 測試方法 本次測試采用四臺服務器作為存儲節點搭建FASS,創建16個100GB雙副本存儲卷進行測試 8客戶端壓力讀寫,每個客戶端讀寫2個存儲卷,使用Intel SPDK自帶的perf工具進行性能測試 perf工具命令樣例: ![]() 網絡環境 前端和后端網采用100Gbps IB網交換機,管理網采用10Gbps以太網交換機。 前端網和后端網通過不同網段隔離,與管理網物理隔離。 ![]() 網絡拓撲圖 服務器環境 服務器配置四臺: ![]() 服務器本地硬盤性能測試結果: ![]() 測試時間為300s,未到穩態,性能相較于SPEC略有差異,僅供參考 客戶端環境 客戶端配置14臺: ![]() 客戶端配置24臺: ![]() 性能說明 本次性能測試因為受限于硬件環境瓶頸,未能發揮出FASS完整的性能,主要包括以下幾點: 1、PCI-E 3.0 X16接口僅能提供128Gbps的帶寬,其上的雙口IB網卡的極限性能受到影響,僅能提供16GB/s帶寬,加上網絡和協議損耗,四個節點網絡性能極限帶寬為60GB/s左右; 2、且因為PCI-E總線數量不足,5塊NVMe硬盤本需20條PCI-E,卻僅提供了16條,且5塊硬盤無法均勻分布,實際本地硬盤測試中,單節點4K隨機讀取IOPS僅為300萬,FASS已經發揮出了本地硬件90的IOPS; 3、NVMe SSD本身的SPEC規格隨機讀/寫IOPS:830K/360K,寫入性能相對較低; 4、為保證客戶數據安全,FASS默認為雙副本卷,本次測試同樣采用雙副本進行測試,還原實際性能,雙副本卷會造成寫入IOPS性能損失一倍左右; 5、客戶端有一半僅有40Gbps網卡,單節點帶寬上限為5GB/s左右,四臺客戶端僅能提供20GB/s的壓力,另外四臺100Gbps網卡的客戶端可以提供28GB/s的壓力,如果均為100Gbps網卡,FASS理應提供56GB/s的帶寬,發揮出帶寬極限的93。 期待FASS在更多客戶新一代高性能數據中心爆發潛能,綻放出更強的性能!詳細實測試視頻及測試過程見大道云行官方公眾號“taocloud”,歡迎各位現場觀摩技術交流。 |