亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用NVIDIA H100 CNX構(gòu)建人工智能系統(tǒng)

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:About Charu Chaubal ? 2022-03-31 14:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人們對能夠以更快的速度將數(shù)據(jù)從網(wǎng)絡(luò)傳輸?shù)?GPU 的服務(wù)器的需求不斷增加。隨著人工智能模型不斷變大,訓(xùn)練所需的數(shù)據(jù)量需要多節(jié)點訓(xùn)練等技術(shù)才能在合理的時間范圍內(nèi)取得成果。 5G信號處理比前幾代更復(fù)雜, GPU 可以幫助提高這種情況發(fā)生的速度。機(jī)器人傳感器等設(shè)備也開始使用 5G 與邊緣服務(wù)器通信,以實現(xiàn)基于人工智能的決策和行動。

專門構(gòu)建的人工智能系統(tǒng),比如最近發(fā)布的 NVIDIA DGX H100 ,是專門為支持?jǐn)?shù)據(jù)中心用例的這些需求而設(shè)計的?,F(xiàn)在,另一種新產(chǎn)品可以幫助企業(yè)獲得更快的數(shù)據(jù)傳輸和更高的邊緣設(shè)備性能,但不需要高端或定制系統(tǒng)。

NVIDIA 首席執(zhí)行官 Jensen Huang 上周在 NVIDIA 公司 GTC 宣布, NVIDIA H100 CNX 是一個高性能的企業(yè)包。它結(jié)合了 NVIDIA H100 的能力與 NVIDIA ConnectX-7 SmartNIC 先進(jìn)的網(wǎng)絡(luò)能力。這種先進(jìn)的體系結(jié)構(gòu)在 PCIe 板上提供,為主流數(shù)據(jù)中心和邊緣系統(tǒng)的 GPU 供電和 I / O 密集型工作負(fù)載提供了前所未有的性能。

H100 CNX 的設(shè)計優(yōu)勢

在標(biāo)準(zhǔn) PCIe 設(shè)備中,控制平面和數(shù)據(jù)平面共享相同的物理連接。然而,在 H100 CNX 中, GPU 和網(wǎng)絡(luò)適配器通過直接 PCIe Gen5 通道連接。這為 GPU 和使用 GPUDirect RDMA 的網(wǎng)絡(luò)之間的數(shù)據(jù)傳輸提供了專用的高速路徑,并消除了通過主機(jī)的數(shù)據(jù)瓶頸。

通過將 GPU 和 SmartNIC 組合在一塊板上,客戶可以利用 PCIe Gen4 甚至 Gen3 上的服務(wù)器。通過高端或?qū)iT構(gòu)建的系統(tǒng)實現(xiàn)一次性能水平可以節(jié)省硬件成本。將這些組件放在一塊物理板上也可以提高空間和能源效率。

將 GPU 和 SmartNIC 集成到單個設(shè)備中,通過設(shè)計創(chuàng)建了一個平衡的體系結(jié)構(gòu)。在具有多個 GPU 和 NIC 的系統(tǒng)中,聚合加速卡強(qiáng)制 GPU 與 NIC 的比例為 1:1 。這避免了服務(wù)器 PCIe 總線上的爭用,因此性能會隨著附加設(shè)備線性擴(kuò)展。

NVIDIA 的核心加速軟件庫(如 NCCL 和 UCX )自動利用性能最佳的路徑將數(shù)據(jù)傳輸?shù)?GPU 。現(xiàn)有的加速多節(jié)點應(yīng)用程序可以在不做任何修改的情況下利用 H100 CNX ,因此客戶可以立即從高性能和可擴(kuò)展性中受益。

H100 CNX 用例

H100 CNX 提供 GPU 加速,同時具有低延遲和高速網(wǎng)絡(luò)。這是在較低的功耗下完成的,與兩個分立的卡相比,占用空間更小,性能更高。許多用例可以從這種組合中受益,但以下幾點尤其值得注意。

5G 信號處理

使用 GPU 進(jìn)行 5G 信號處理需要盡快將數(shù)據(jù)從網(wǎng)絡(luò)移動到 GPU ,并且具有可預(yù)測的延遲也是至關(guān)重要的。 NVIDIA 聚合加速器與 NVIDIA Aerial SDK 相結(jié)合,為運(yùn)行 5G 應(yīng)用程序提供了性能最高的平臺。由于數(shù)據(jù)不經(jīng)過主機(jī) PCIe 系統(tǒng),因此處理延遲大大減少。在使用速度較慢的 PCIe 系統(tǒng)的商品服務(wù)器時,甚至可以看到這種性能的提高。

加速 5G 以上的邊緣人工智能

NVIDIA AI on 5G 由 NVIDIA EGX 企業(yè)平臺、 NVIDIA 公司的 SDK 軟件定義的 5G 虛擬無線局域網(wǎng)和企業(yè) AI 框架組成。這包括像 NVIDIA ISAAC 和 NVIDIA Metropolis 這樣的 SDK 。攝像機(jī)、工業(yè)傳感器和機(jī)器人等邊緣設(shè)備可以使用人工智能,并通過 5G 與服務(wù)器通信。

H100 CNX 可以在單個企業(yè)服務(wù)器中提供此功能,而無需部署昂貴的專用系統(tǒng)。與NVIDIA 多實例 GPU 技術(shù)相比,應(yīng)用于 5G 信號處理的相同加速器可用于邊緣 AI 。這使得共享 GPU 用于多種不同目的成為可能。

多節(jié)點人工智能訓(xùn)練

多節(jié)點培訓(xùn)涉及不同主機(jī)上 GPU 之間的數(shù)據(jù)傳輸。在一個典型的數(shù)據(jù)中心網(wǎng)絡(luò)中,服務(wù)器通常會在性能、規(guī)模和密度方面受到各種限制。大多數(shù)企業(yè)服務(wù)器不包括 PCIe 交換機(jī),因此 CPU 成為這種流量的瓶頸。數(shù)據(jù)傳輸受主機(jī) PCIe 背板的速度限制。雖然 GPU:NIC 的比例為 1:1 是理想的,但服務(wù)器中 PCIe 通道和插槽的數(shù)量可能會限制設(shè)備的總數(shù)。

H100 CNX 的設(shè)計緩解了這些問題。從網(wǎng)絡(luò)到 GPU 有一條專用路徑,供 GPUDirect RDMA 以接近線路速度運(yùn)行。無論主機(jī) PCIe 背板如何,數(shù)據(jù)傳輸也會以 PCIe Gen5 的速度進(jìn)行。主機(jī)內(nèi) GPU 功率的放大可以以平衡的方式進(jìn)行,因為 GPU:NIC 的比例是 1:1 。服務(wù)器還可以配備更多的加速能力,因為與離散卡相比,聚合加速器所需的 PCIe 通道和設(shè)備插槽更少。

NVIDIA H100 CNX 預(yù)計可在今年下半年購買。如果你有一個用例可以從這個獨特而創(chuàng)新的產(chǎn)品中受益,請聯(lián)系你最喜歡的系統(tǒng)供應(yīng)商,詢問他們計劃何時將其與服務(wù)器一起提供。

關(guān)于作者:About Charu Chaubal

Charu Chaubal 在NVIDIA 企業(yè)計算平臺集團(tuán)從事產(chǎn)品營銷工作。他在市場營銷、客戶教育以及技術(shù)產(chǎn)品和服務(wù)的售前工作方面擁有 20 多年的經(jīng)驗。 Charu 曾在云計算、超融合基礎(chǔ)設(shè)施和 IT 安全等多個領(lǐng)域工作。作為 VMware 的技術(shù)營銷領(lǐng)導(dǎo)者,他幫助推出了許多產(chǎn)品,這些產(chǎn)品共同發(fā)展成為數(shù)十億美元的業(yè)務(wù)。此前,他曾在 Sun Microsystems 工作,在那里他設(shè)計了分布式資源管理和 HPC 基礎(chǔ)設(shè)施軟件解決方案。查魯擁有化學(xué)工程博士學(xué)位,并擁有多項專利。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49581

    瀏覽量

    259879
  • 5G
    5G
    +關(guān)注

    關(guān)注

    1364

    文章

    49001

    瀏覽量

    587044
  • H100
    +關(guān)注

    關(guān)注

    0

    文章

    33

    瀏覽量

    557
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    英偉達(dá) H100 GPU 掉卡?做好這五點,讓算力穩(wěn)如泰山!

    H100服務(wù)器停工一天損失的算力成本可能比維修費還高。今天,我們給大家總結(jié)一套“防掉卡秘籍”,從日常管理到環(huán)境把控,手把手教你把掉卡風(fēng)險壓到最低。一、供電是“生命線”,這3點必須盯緊H100滿載功耗
    的頭像 發(fā)表于 09-05 11:03 ?552次閱讀
    英偉達(dá) <b class='flag-5'>H100</b> GPU 掉卡?做好這五點,讓算力穩(wěn)如泰山!

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    我們所有的 SoC 都能用于邊緣人工智能。例子包括: 預(yù)測性維護(hù)和樓宇自動化系統(tǒng) 在每個節(jié)點上進(jìn)行本地數(shù)據(jù)分析的智能傳感器網(wǎng)絡(luò) 遙控器和可穿戴設(shè)備的動作和手勢識別 用于智能健康可穿戴設(shè)
    發(fā)表于 08-31 20:54

    Lambda采用Supermicro NVIDIA Blackwell GPU服務(wù)器集群構(gòu)建人工智能工廠

    大批量 Supermicro GPU 優(yōu)化服務(wù)器(包括基于 NVIDIA Blackwell 的系統(tǒng)),以擴(kuò)展其人工智能基礎(chǔ)設(shè)施并向客戶交付高性能計算系統(tǒng)。此次合作于今年 6 月率先在
    的頭像 發(fā)表于 08-30 16:55 ?529次閱讀

    挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器

    的深度學(xué)習(xí),構(gòu)建起從基礎(chǔ)到前沿的完整知識體系,一門實驗箱就能滿足多門課程的學(xué)習(xí)實踐需求,既節(jié)省經(jīng)費又不占地 。 五、代碼全開源,學(xué)習(xí)底層算法 所有實驗全部開源,這對于想要深入學(xué)習(xí)人工智能技術(shù)的人來說
    發(fā)表于 08-07 14:30

    挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!

    的深度學(xué)習(xí),構(gòu)建起從基礎(chǔ)到前沿的完整知識體系,一門實驗箱就能滿足多門課程的學(xué)習(xí)實踐需求,既節(jié)省經(jīng)費又不占地 。 五、代碼全開源,學(xué)習(xí)底層算法 所有實驗全部開源,這對于想要深入學(xué)習(xí)人工智能技術(shù)的人來說
    發(fā)表于 08-07 14:23

    如何構(gòu)建邊緣人工智能基礎(chǔ)設(shè)施

    隨著人工智能的不斷發(fā)展,其爭議性也越來越大;而在企業(yè)和消費者的眼中,人工智能價值顯著。如同許多新興科技一樣,目前人工智能的應(yīng)用主要聚焦于大規(guī)模、基礎(chǔ)設(shè)施密集且高功耗的領(lǐng)域。然而,隨著人工智能
    的頭像 發(fā)表于 06-09 09:48 ?779次閱讀

    GPU 維修干貨 | 英偉達(dá) GPU H100 常見故障有哪些?

    ABSTRACT摘要本文主要介紹英偉達(dá)H100常見的故障類型和問題。JAEALOT2025年5月5日今年,國家政府報告提出要持續(xù)推進(jìn)“人工智能+”行動,大力發(fā)展人工智能行業(yè),市場上對算力的需求持續(xù)
    的頭像 發(fā)表于 05-05 09:03 ?2193次閱讀
    GPU 維修干貨 | 英偉達(dá) GPU <b class='flag-5'>H100</b> 常見故障有哪些?

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應(yīng)用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應(yīng)用 Cognizant將在關(guān)鍵增長領(lǐng)域提供解決方案,包括企業(yè)級AI智能體、定制化行業(yè)大型語言模型及搭載
    的頭像 發(fā)表于 03-26 14:42 ?522次閱讀
    Cognizant將與<b class='flag-5'>NVIDIA</b>合作部署神經(jīng)<b class='flag-5'>人工智能</b>平臺,加速企業(yè)<b class='flag-5'>人工智能</b>應(yīng)用

    英偉達(dá)A100H100比較

    英偉達(dá)A100H100都是針對高性能計算和人工智能任務(wù)設(shè)計的GPU,但在性能和特性上存在顯著差異。以下是對這兩款GPU的比較: 1. 架構(gòu)與核心規(guī)格: A100: 架構(gòu): 基于Amp
    的頭像 發(fā)表于 02-10 17:05 ?1.1w次閱讀
    英偉達(dá)A<b class='flag-5'>100</b>和<b class='flag-5'>H100</b>比較

    芯盾時代榮登“人工智能應(yīng)用標(biāo)桿TOP100”榜單

    近日,備受矚目的第二屆人工智能產(chǎn)業(yè)應(yīng)用大會圓滿落幕。會上,新智引擎與中關(guān)村人工智能研究院攜手發(fā)布了備受關(guān)注的“人工智能應(yīng)用標(biāo)桿TOP100”榜單。這一榜單旨在表彰在
    的頭像 發(fā)表于 01-15 16:50 ?765次閱讀

    芯盾時代榮登2024人工智能應(yīng)用標(biāo)桿TOP100榜單

    近日,新智引擎、中關(guān)村人工智能研究院在第二屆人工智能產(chǎn)業(yè)應(yīng)用大會上,正式發(fā)布了“人工智能應(yīng)用標(biāo)桿TOP100”榜單。芯盾時代“智能業(yè)務(wù)安全解
    的頭像 發(fā)表于 01-15 15:23 ?803次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗】1.初步理解具身智能

    人工智能、機(jī)器人技術(shù)和計算系統(tǒng)交叉領(lǐng)域感興趣的讀者來說不可或缺的書。這本書深入探討了具身智能這一結(jié)合物理機(jī)器人和智能算法的領(lǐng)域,該領(lǐng)域正在塑造自主
    發(fā)表于 12-28 21:12

    Banana Pi 攜手 ArmSoM 推出人工智能加速 RK3576 CM5 計算模塊

    的機(jī)器學(xué)習(xí)和人工智能 (ML 和 AI) 工作負(fù)載,以及 Arm Mali G52-MC3 圖形處理器和支持 H.264/H.265/MJPEG 編碼和 H.265/
    發(fā)表于 12-11 18:38

    嵌入式和人工智能究竟是什么關(guān)系?

    嵌入式和人工智能究竟是什么關(guān)系? 嵌入式系統(tǒng)是一種特殊的系統(tǒng),它通常被嵌入到其他設(shè)備或機(jī)器中,以實現(xiàn)特定功能。嵌入式系統(tǒng)具有非常強(qiáng)的適應(yīng)性和靈活性,能夠根據(jù)用戶需求進(jìn)行定制化設(shè)計。它
    發(fā)表于 11-14 16:39

    華迅光通AI計算加速800G光模塊部署

    ,都需要更多的光模塊來進(jìn)行光纖通信。對于使用gpu的廣泛AI訓(xùn)練應(yīng)用,在NVIDIA的DGX H100服務(wù)器中,集成了8個H100 gpu,對計算和存儲網(wǎng)絡(luò)的需求相當(dāng)于大約12個800G光模塊和18個
    發(fā)表于 11-13 10:16