NVIDIA 加速 AI 平臺和產(chǎn)品(如 NVIDIA EGX 、 DGX 、 OVX 和 NVIDIA AI for Enterprise)需要數(shù)據(jù)中心網(wǎng)絡(luò)提供最佳的性能。NVIDIA Spectrum 以太網(wǎng)平臺通過芯片級創(chuàng)新實現(xiàn)了這一性能。
融合以太網(wǎng) RDMA(RoCE)自適應路由技術(shù)通過減少網(wǎng)絡(luò)擁塞問題加快了應用程序的速度。這篇文章介紹了 NVIDIA Spectrum 以太網(wǎng)平臺的自適應路由技術(shù),并提供了一些初步的性能基準。
是什么讓網(wǎng)絡(luò)變慢了?
您不必是云服務提供商就可以從橫向擴展網(wǎng)絡(luò)中獲益。網(wǎng)絡(luò)行業(yè)已經(jīng)發(fā)現(xiàn),具有第 2 層轉(zhuǎn)發(fā)和生成樹的傳統(tǒng)網(wǎng)絡(luò)架構(gòu)效率低下,而且難以擴展。他們過渡到 IP 網(wǎng)絡(luò)結(jié)構(gòu)。
這是一個很好的開始,但在某些情況下,它可能不足以解決數(shù)據(jù)中心中引入的新型應用程序和大量的流量。
可擴展 IP 網(wǎng)絡(luò)的一個關(guān)鍵屬性是它們能夠跨多個交換機層次結(jié)構(gòu)分發(fā)大量的流和流量。
在一個完美的世界中,數(shù)據(jù)流是完全不相關(guān)的,因此在多個網(wǎng)絡(luò)鏈路上分布均勻、負載平衡平穩(wěn)。該方法依賴于現(xiàn)代哈希和多路徑算法,包括等價多路徑(ECMP)。運營商受益于在規(guī)模迥異的數(shù)據(jù)中心中廣泛部署的高端口數(shù)、固定規(guī)格的交換機。
然而,在許多情況下,這是行不通的,通常包括無處不在的現(xiàn)代工作負載,如 AI 、云和存儲。
這是一個有限熵的問題。熵是一種衡量流經(jīng)給定網(wǎng)絡(luò)的流量的豐富性和多樣性的方法。
當您有數(shù)千個從全球各地的客戶端隨機連接的流時,您的網(wǎng)絡(luò)被稱為有 high entropy 。然而,當您只有少數(shù)大型流時(這在 AI 和存儲工作負載中經(jīng)常發(fā)生),大型流會控制帶寬,因此會出現(xiàn) low entropy 。這種低熵流量模式也稱為“大象流”分布,在許多數(shù)據(jù)中心工作負載中都很明顯。
那么為什么熵很重要呢?
使用靜態(tài) ECMP 的傳統(tǒng)技術(shù),您需要高熵來將流量均勻地分布在多個鏈路上,而不會出現(xiàn)擁塞。然而,在“大象流”場景中,多個流可能出現(xiàn)在同一條鏈路上,從而創(chuàng)建一個超過線路帶寬的流量熱點或微突發(fā)。這會導致?lián)砣?、延遲增加、數(shù)據(jù)包丟失和重傳。
對于許多應用程序,性能不僅取決于網(wǎng)絡(luò)的平均帶寬,還取決于流完成時間的分布。完成時間分布中的長尾或異常值可能會顯著降低應用程序性能。圖 2 顯示了低熵對流完成時間的影響。
此示例由單個架頂交換機組成,具有 128 個 100G 端口。
64 個端口是連接到服務器的 100G 下游端口。
64 個端口是連接到第 1 層交換機的 100G 上游端口。
每個下游端口接收四個帶寬相等的流:25G 每個流,總共 256 個流。
所有流量都通過靜態(tài)哈希和 ECMP 處理。
在最好的情況下,此配置的可用帶寬不會被超額使用,因此可能會出現(xiàn)以下結(jié)果。在最壞的情況下,與理想情況相比,流程可能需要長達 2.5 倍的時間才能完成。
在這種情況下,一些端口擁塞,而其他端口未使用。最后一個流(最壞情況流)的預期持續(xù)時間是預期第一個流持續(xù)時間的 250% 。此外,10% 的流預計流完成時間超過 150% 。也就是說,有一組長尾流,完成時間比預期的要長。為了高置信度的避免擁塞(98%),必須將所有流的帶寬降低到 50% 以下。
為什么有許多流會而受到影響而完成時間過長?這是因為 ECMP 上的一些端口非常擁擠。當流完成傳輸并釋放一些端口帶寬時,滯后流通過相同的擁塞端口,導致更多擁塞。這是因為在對標頭進行哈希處理后,路由是靜態(tài)的。
自適應路由
NVIDIA 正在為Spectrum交換機引入自適應路由。通過自適應路由,轉(zhuǎn)發(fā)到 ECMP 組的流量選擇擁塞程度最低的端口進行傳輸。擁塞程度基于出口隊列負載進行評估,確保 ECMP 組在不考慮熵級別的情況下保持良好平衡。向多個服務器發(fā)出多個請求的應用程序以最小的時間變化接收數(shù)據(jù)。
這是如何實現(xiàn)的?對于轉(zhuǎn)發(fā)到 ECMP 組的每個數(shù)據(jù)包,交換機在其出口隊列上選擇負載最小的端口。評估的隊列是那些與數(shù)據(jù)包服務質(zhì)量匹配的隊列。
相比之下,傳統(tǒng)的 ECMP 基于哈希方法進行端口決策,這通常無法產(chǎn)生清晰的比較。當相同流的不同數(shù)據(jù)包通過網(wǎng)絡(luò)的不同路徑傳輸時,它們可能會在到達目的地時出現(xiàn)亂序的情況。在 RoCE 傳輸層,NVIDIA ConnectX NIC 負責處理無序數(shù)據(jù)包,并將數(shù)據(jù)按順序轉(zhuǎn)發(fā)給應用程序。這使得自適應路由對從中受益的應用程序透明。
在發(fā)送方面,ConnectX 可以動態(tài)標記符合網(wǎng)絡(luò)重新排序的條件的流量,從而確保在需要時可以強制執(zhí)行消息間排序。交換機自適應路由分類器只能對這些標記的 RoCE 流量進行分類,使其使用這種獨特的轉(zhuǎn)發(fā)方式。
Spectrum 自適應路由技術(shù)支持各種網(wǎng)絡(luò)拓撲。對于 CLOS(或葉/脊椎)等典型拓撲,到給定目標的各種路徑的距離是相同的。因此,交換機通過擁塞最小的端口傳輸數(shù)據(jù)包。在路徑之間距離不同的其他拓撲中,交換機傾向于通過最短路徑發(fā)送流量。如果擁塞發(fā)生在最短路徑上,則選擇擁塞最小的備選路徑。這確保了網(wǎng)絡(luò)帶寬得到有效利用。
工作負載測試結(jié)果
存儲
為了驗證 RoCE 中自適應路由的效果,我們從測試簡單的 RDMA 寫測試應用程序開始。在這些在多個 50 Gb/s 主機上運行的測試中,我們將主機分成幾對,每對主機在很長一段時間內(nèi)互相發(fā)送大型 RDMA 寫流。這種類型的流量模式是存儲應用程序工作負載中的典型模式。
圖 4 顯示了基于哈希的靜態(tài)路由在上行鏈路端口上發(fā)生沖突,導致流完成時間增加,帶寬減少,流之間的公平性降低。在轉(zhuǎn)移到自適應路由后,所有問題都得到了解決。
在第一個圖中,所有流幾乎同時完成,峰值帶寬相當。
在第二個圖中,一些流實現(xiàn)了相同的帶寬和完成時間,而其他流發(fā)生沖突,導致完成時間更長,帶寬更低。實際上,在 ECMP 的情況下,一些流在 13 秒的理想完成時間 T 內(nèi)完成,而性能最差的流需要 31 秒,約為 T 的 2.5 倍。
人工智能/高性能計算
為了繼續(xù)評估 RoCE 工作負載中的自適應路由,我們在一個 32 服務器測試臺上測試了常見 AI 基準測試的性能收益,該測試臺在兩級胖樹網(wǎng)絡(luò)拓撲中使用四個 NVIDIA Spectrum 以太網(wǎng)交換機構(gòu)建。該基準測試評估了分布式 AI 訓練和 HPC 工作負載中常見的集合操作和網(wǎng)絡(luò)流量模型,如 all-to-all 流量和 all-reduce 操作。
總結(jié)
在許多情況下,基于靜態(tài)哈希的轉(zhuǎn)發(fā)會導致高擁塞和可變的流完成時間。這會降低應用程序的性能。
NVIDIA Spectrum 自適應路由解決了這個問題。這項技術(shù)增加了網(wǎng)絡(luò)使用的帶寬,最大限度地減少了流完成時間的變化,從而提高了應用程序的性能。
將此技術(shù)與 NVIDIA ConnectX 網(wǎng)卡提供的 RoCE 亂序包支持相結(jié)合,應用程序?qū)λ褂玫募夹g(shù)是透明的。這確保了 NVIDIA Spectrum 以太網(wǎng)平臺提供了實現(xiàn)數(shù)據(jù)中心性能最大化所需的加速以太網(wǎng)能力。
審核編輯:湯梓紅
-
以太網(wǎng)
+關(guān)注
關(guān)注
41文章
5877瀏覽量
179049 -
NVIDIA
+關(guān)注
關(guān)注
14文章
5448瀏覽量
108651 -
網(wǎng)絡(luò)
+關(guān)注
關(guān)注
14文章
8052瀏覽量
92490 -
路由技術(shù)
+關(guān)注
關(guān)注
0文章
13瀏覽量
6623 -
spectrum
+關(guān)注
關(guān)注
0文章
43瀏覽量
14686
原文標題:部署 NVIDIA Spectrum Ethernet 的自適應路由功能加速網(wǎng)絡(luò)通信
文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
NVIDIA Spectrum-X 以太網(wǎng)交換機助力 Meta 和 Oracle 加速網(wǎng)絡(luò)性能
NVIDIA推出Spectrum-XGS以太網(wǎng)技術(shù)
WiFi和以太網(wǎng)哪個更快
以太網(wǎng)入門:從零開始,掌握以太網(wǎng)基礎(chǔ)知識!
矽昌通信推出千兆以太網(wǎng)PHY芯片
串口轉(zhuǎn)以太網(wǎng)芯片選型指南:2025十大以太網(wǎng)模塊品牌盤點與應用方案解析
以太網(wǎng)與現(xiàn)場總線技術(shù)區(qū)別詳解
Spectrum推出可由以太網(wǎng)控制的超高速GHz數(shù)字化儀
單對以太網(wǎng)供電技術(shù)的演進和應用
為什么MPLS仍是以太網(wǎng)傳輸技術(shù)的首選
以太網(wǎng)協(xié)議的種類和特點
工業(yè)以太網(wǎng)的應用場景分析
NVIDIA 以太網(wǎng)加速 xAI 構(gòu)建的全球最大 AI 超級計算機

NVIDIA Spectrum以太網(wǎng)平臺的自適應路由技術(shù)
評論