衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVMe over Fabrics的優勢是什么?

Linux閱碼場 ? 來源:Linuxer ? 作者:Linuxer ? 2021-01-14 09:12 ? 次閱讀

NVMe over Fabric(又名NVMe- oF)是一種新興技術,它支持對數據中心的計算和存儲進行分解。美光科技正通過與Marvell、Foxconn-Ingrasys和英偉達(NVIDIA)等關鍵技術合作伙伴的合作,共同解鎖NVMe-oF技術可以帶來的優勢。我們還在開發創新技術,如異構存儲器存儲引擎(HSE),這將有助于使用NVMe-oF優化對閃存的大規模訪問。

NVMe-oF是什么?

NVMe- oF從字面上來看是網絡上的NVMe協議的擴展,其擴展范圍遠遠超出了目前搭載SSD的服務器。NVMe早在2011年就出現了,而fabrics擴展則在2016年首次標準化。NVMe-oF繼承了NVMe的所有優點,包括輕量級和高效的命令集、多核感知和協議并行性。NVMe-oF是真正的網絡無關的,因為它支持所有常見的fabrics,包括光纖通道、InfiniBand和以太網。圖1比較了NVMe和NVMe- of模型,并標注出了用戶可用的各種網絡和網絡傳輸選項。

86dc045a-51a5-11eb-8b86-12bb97331649.png

圖1 NVMe和NVMe-oF模型對比

從圖1可以看出,有兩種以太網傳輸選項,RoCE v2和NVMe-TCP,每一種都各有優缺點。RoCE v2延遲較低,但需要專用的支持RDMA的NIC (RNIC);NVMe-TCP不需要專用的RNIC,但是其傳輸延遲和CPU使用率都更高,它使用的是標準NIC。相比之下,RoCE v2目前在市場上更為流行。

NVMe over Fabrics的優勢是什么?

使用NVMe就意味著只能使用基于PCIe交換機的服務器機架。雖然這是一種完全有效的存儲擴展方法,但它的范圍是非常有限的。NVMe-oF則允許在數據中心范圍內連接無數的存儲空間。

如今,NVMe-oF已經很成熟了,許多用戶接受了將全閃存陣列(AFA)連接到服務器的技術。然而,NVMe-oF的優勢只有在計算和存儲完全分開時才能完全發揮出來。也就是說,通過網絡將一個NVMe SSD池提供給一個服務器池,這種方式允許按需提供計算和存儲。計算和存儲的分解提升了存儲的可伸縮性和可共享性,并支持可組合性,如圖2所示。

871c5d70-51a5-11eb-8b86-12bb97331649.jpg

圖2 計算和存儲分解圖

分類存儲的另一個維度是存儲服務(即數據保護、復制、壓縮等)。存儲服務可以由服務器(onload模型)管理,也可以卸載到接近實際存儲的數據處理單元(DPU)。onload模型需要消耗額外的CPU周期和網絡帶寬,可以實現成本最小化,而卸載模型的成本較高,并且根據供應情況,可能產生瓶頸。由于onload模型的TCO(總成本)優勢,大規模追求低成本存儲使其附加了存儲策略。

什么是EBOF、JBOF和JBOD ?

全閃存陣列有兩種接入方式: 通過網絡接入(EBOF)和直接連接 (JBOF)。不要混淆JBOF和JBOD(只是一堆磁盤)。JBOD通常用于在PCIe上使用NVMe擴展機架中的存儲。EBOF或JBOF可以使用NVMe-oF在數據中心之間擴展存儲。如圖3所示,JBOF使用PCIe交換機向SSD擴展,而EBOF使用以太網交換機向SSD擴展。JBOF和EBOF都使用NVMe-oF連接回服務器。

87e241b6-51a5-11eb-8b86-12bb97331649.png

圖3 EBOF 和 JBOF對比圖

除了以太網和PCIe交換之外,這兩種方法的主要區別在于從NVMe到NVMe-oF的轉換發生在哪里。在JBOF上,轉換或橋接是在外圍使用一個或多個DPU (x DPU到y SSD, x:y比率)。在EBOF上,橋接在SSD載體完成(x橋接到x SSD, 1:1的比例)。雖然JBOF有使用DPU的處理能力來運行存儲服務的優勢,但它確實存在一個潛在的瓶頸,并且和EBOF模型相比,帶來了額外的成本,具有一些新功能。當橋與固態硬盤的比例不是1:1時,成本權衡和瓶頸問題就開始顯現出來了。

使用Marvell 88SN2400和Foxconn-Ingrasys EBOF測試系統

通過與Marvell和Foxconn-Ingrasys的合作,我們一直在NVMe- oF環境中測試Micron 7300主流NVMe SSD,并在各種不同的應用程序和工作負載下進行測試。

在介紹測試結果之前,讓我們先看一下Foxconn-Ingrasys EBOF和Marvell的88SN2400轉換器控制器和PresteraCX 8500交換機。

Marvell的88SN2400是一款用于云和企業數據中心的SSD轉換器的NVMe控制器。這與Marvell交換機相結合,本質上允許用戶在NVMe和NVMe- oF之間進行轉換或“橋接”。88SN2400轉換器控制器是Foxconn-Ingrasys EBOF的一個關鍵組件,與Micron 7300 SSD一起,使高性能2U存儲器達到高達73.1 GB/s的帶寬和高達2000萬IOPs。圖4顯示了Foxconn-Ingrasys EBOF,在2U機箱中有24 U.2插槽。

圖4 Foxconn-Ingrasys EBOF

圖5顯示了帶有Marvell 88SN2400轉換器控制器的Foxconn-Ingrasys SSD Carrier。

圖5 搭載88SN2400的Foxconn-Ingrasys U.2 Carrier

Foxconn-Ingrasys U.2 Carrier采用標準的U.2 SSD格式。U.2載波支持雙以太網端口,以解決需要路徑冗余的應用程序,它在驅動器側有一個PCIe Gen3 x4用于NVMe SSD。

Marvell的88SN2400轉換器控制器支持RoCE v2和NVMe-TCP傳輸。然而,在我們的測試中,我們關注的是RoCE v2。

如何使用NVIDIAGPUDirect存儲(GDS)進行擴展?

我們一直在使用NVIDIAGPUDirect存儲(GDS)在人工智能機器學習工作負載方面進行大量工作。我們想通過將Foxconn-Ingrasys EBOF與Marvell的88SN2400轉換器控制器連接到NVIDIA DGXA100系統,來了解在fabrics環境中事物是如何伸縮的。這是一個簡單的gdsio (GPUDirect Storage I/O)工具測試,可以比較在NVMe-oF環境中使用和不使用GDS的帶寬和延遲。

88d69856-51a5-11eb-8b86-12bb97331649.png

圖6 DGX A100 with EBOF

在圖6中,有一個裝載了Micron 7300 SSD的EBOF,它使用8個計算網絡端口中的6個直接連接到NVIDIA DGXA100,提供600gb /s的可用網絡帶寬。GDS可以讓數據在對等點之間直接傳輸,跳過了在GDS未啟用時使用的高延遲反彈緩沖區。在這個測試中,我們將SSD的全部能力(約61 GB/s)用于工作負載。未來的測試將添加一個以太網交換機,并進一步擴大EBOF的數量。

NVMe-oF如何與HSE形成規模?

Micron一直在研究一些驚人的技術,其中之一是異構內存存儲引擎(HSE)。HSE是一個閃存感知的存儲引擎,它提高了存儲類內存(SCM)和SSD的性能。它還通過減少寫放大增加了SSD的有效壽命,所有這些都在大規模部署的情況下進行。NVMe-oF是進一步擴大HSE規模的理想途徑。為了驗證HSE在Fabric附加存儲環境下的有效性,我們使用MongoDB和YCSB (Yahoo!云服務基準)。在圖7中,我們比較了使用本地Micron 7300 SSD的默認內置MongoDB存儲引擎(WiredTiger)和使用Micron 7300 SSD的Micron HSE在EBOF中的性能。

8939a3b0-51a5-11eb-8b86-12bb97331649.png

圖7 WiredTiger和HSE對比圖

與MongoDB中使用的帶有本地SSD的傳統WiredTiger存儲引擎相比,HSE在fabric環境中的有效性是非常顯著的??梢詫崿F每秒5倍的YCSB操作改進,降低42%的延遲,同時增加了存儲的可伸縮性。

NVMe-oF的未來是什么?

NVMe-oF是一種創新技術,它最終將使數據中心完全分解,在這些中心中,可以組合應用程序,然后以一種經濟有效的方式動態地提供適量的計算和存儲。

如今,人們使用低成本橋接器或基于處理器的平臺來連接NVMe SSD,并將其橋接到EBOF或JBOF。在未來,我們可能會看到SSD的本地NVMe進一步降低TCO并提高性能。

美光科技正在設計下一代數據中心SSD,其功能和特性針對NVMe應用進行了優化。

責任編輯:lq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 服務器
    +關注

    關注

    12

    文章

    9303

    瀏覽量

    86061
  • SSD
    SSD
    +關注

    關注

    21

    文章

    2887

    瀏覽量

    117857
  • 數據中心
    +關注

    關注

    16

    文章

    4858

    瀏覽量

    72381
  • nvme
    +關注

    關注

    0

    文章

    222

    瀏覽量

    22732

原文標題:再見,Intel!GPU直連NVMe SSD!

文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    NVMe IP over PCIe4.0:高速,超高速!

    從xilinx vitis 2022.2看,它是不支持直接升級到pcie4.0.幸好有了后來的NVMe加速引擎。再加上有了自己的UVM驗證平臺。這部分開發工作效率得到有效提升。給出系統框圖設計及測試結果。讀寫超過6.5GBPs
    的頭像 發表于 01-08 08:32 ?127次閱讀
    <b class='flag-5'>NVMe</b> IP <b class='flag-5'>over</b> PCIe4.0:高速,超高速!

    三個月開發NVMe IP 不是夢

    開發NMVe IP 難在哪?時間不等人,有什么簡潔方式?NVMe協議相對復雜,過程調試不盡如意,采用開發板上機調試,耗時太長,不清楚如何排查問題,種種原因導致目前開發NVMe IP成為難點。 現在
    的頭像 發表于 12-06 16:21 ?256次閱讀
    三個月開發<b class='flag-5'>NVMe</b> IP 不是夢

    存儲技術未來演進:NVMe over Fabrics (NVMeoF)

    眾所周知,NVMe 是一個邏輯設備接口規范,NVM代表非易失性存儲器(Non-Volatile Memory)的首字母縮略字,是固態硬盤(SSD)的常見的閃存形式。SSD 通常分為兩類接口:SATA
    的頭像 發表于 11-16 10:44 ?928次閱讀
    存儲技術未來演進:<b class='flag-5'>NVMe</b> <b class='flag-5'>over</b> <b class='flag-5'>Fabrics</b> (NVMeoF)

    一文詳解 ALINX NVMe IP 特性

    - ALINX NVMe?IP - 在當下數據驅動的時代,企業對高性能存儲解決方案的需求不斷增加。NVMe AXI IP 憑借其支持大數據量、高速傳輸、低延遲等存儲性能優勢,成為眾多開發者和企業
    的頭像 發表于 11-14 13:59 ?326次閱讀
    一文詳解 ALINX <b class='flag-5'>NVMe</b> IP 特性

    淺談ALINX NVMe IP產品特性

    在當下數據驅動的時代,企業對高性能存儲解決方案的需求不斷增加。NVMe AXI IP 憑借其支持大數據量、高速傳輸、低延遲等存儲性能優勢,成為眾多開發者和企業的理想選擇。
    的頭像 發表于 11-14 11:27 ?328次閱讀
    淺談ALINX <b class='flag-5'>NVMe</b> IP產品特性

    Synology如何使用Nvme固態做存儲空間

    Synology 如何使用Nvme固態做存儲空間
    發表于 10-09 10:55 ?0次下載

    HID over GATT配置文件(HOGP)低功耗藍牙

    電子發燒友網站提供《HID over GATT配置文件(HOGP)低功耗藍牙.pdf》資料免費下載
    發表于 09-26 11:01 ?1次下載
    HID <b class='flag-5'>over</b> GATT配置文件(HOGP)低功耗藍牙

    m2接口sata和nvme怎么區分

    M.2接口是一種常見的固態硬盤接口,它支持SATA和NVMe兩種不同的協議。這兩種協議在性能、功耗、價格等方面存在一定的差異,因此在選擇固態硬盤時,了解它們的區別是非常重要的。本文將詳細介紹M.2
    的頭像 發表于 07-10 10:19 ?5668次閱讀

    電機轉速調高后出現over current問題怎么解決?

    請教網友: 電機低轉速運行正常,但是當轉速調高后出現over current問題?可能是什么原因呢? 示波器是uvw的控制pwm輸出。調試了好多參數組合都不能滿足提高轉速的目的。請教各位前輩,謝謝!
    發表于 04-24 06:05

    高性能NVMe主機控制器,Xilinx FPGA PCIe 3

    NVMe Host Controller IP1介紹NVMe Host Controller IP可以連接高速存儲PCIe SSD,無需CPU和外部存儲器,自動加速處理所有的NVMe協議命令,具備
    發表于 04-20 14:41

    高性能NVMe主機控制器,Xilinx FPGA NVMe Host Accelerator IP

    NVMe Host Controller IP1介紹NVMe Host Controller IP可以連接高速存儲PCIe SSD,無需CPU和外部存儲器,自動加速處理所有的NVMe協議命令,具備
    發表于 04-10 22:55

    Xilinx FPGA高性能NVMe SSD主機控制器,NVMe Host Controller IP

    NVMe Host Controller IP1介紹NVMe Host Controller IP可以連接高速存儲PCIe SSD,無需CPU和外部存儲器,自動加速處理所有的NVMe協議命令,具備
    發表于 03-27 17:23

    Xilinx FPGA NVMe主機控制器IP,高性能版本介紹應用

    NVMe Host Controller IP1介紹NVMe Host Controller IP可以連接高速存儲PCIe SSD,無需CPU和外部存儲器,自動加速處理所有的NVMe協議命令,具備
    發表于 03-09 13:56

    Xilinx FPGA NVMe Host Controller IP,NVMe主機控制器

    NVMe Host Controller IP1介紹NVMe Host Controller IP可以連接高速存儲PCIe SSD,無需CPU和外部存儲器,自動加速處理所有的NVMe協議命令,具備
    發表于 02-21 10:16

    Xilinx FPGA NVMe控制器,NVMe Host Controller IP

    NVMe Host Controller IP可以連接高速存儲PCIe SSD,無需CPU和外部存儲器,自動加速處理所有的NVMe協議命令,具備獨立的數據寫入AXI4-Stream/FIFO接口和數
    的頭像 發表于 02-18 11:27 ?967次閱讀
    Xilinx FPGA <b class='flag-5'>NVMe</b>控制器,<b class='flag-5'>NVMe</b> Host Controller IP
    信誉博彩网| 水果机榨汁机| 百家乐官网筹码14克| 浦江县| 裕昌太阳城业主论坛| 百家乐辅助分析软件| 百家乐官网合法| 信誉博彩网| 大发888扑克| 半圆百家乐桌子| 百家乐官网强弱走势图| 博兴县| 大发888在线娱乐游戏| 百家乐游戏下裁| 百家乐官网网站那个诚信好 | 大发888网址| 百家乐无损打法| 百家乐做中介赚钱| 狮威百家乐官网娱乐场| 百家乐官网实战玩法| 大发888棋牌| 百家乐伴侣破解版| 网上百家乐真实度| 91百家乐官网的玩法技巧和规则 | 线上百家乐怎么玩| 百家乐d博彩论坛| 视频百家乐官网是真是假| 百家乐官网注册赠分| 博彩投注网| fl水果机教程| 澳门百家乐赌技巧| 百家乐系统分析器| 24山九宫飞星详解| 乐天堂百家乐官网赌场娱乐网规则| 浩博百家乐官网娱乐城| 全讯网址| 亚洲顶级赌场的微博| 太阳百家乐代理| 网上百家乐真的假| 百家乐庄家优势| 云鼎百家乐现金网|