亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MLPerf是邊緣AI推理的新行業(yè)基準(zhǔn)

星星科技指導(dǎo)員 ? 來(lái)源:嵌入式計(jì)算設(shè)計(jì) ? 作者:嵌入式計(jì)算設(shè)計(jì) ? 2022-07-08 15:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最高額。翻牌。GFLOPS。AI 處理器供應(yīng)商以多種方式計(jì)算其架構(gòu)的最大推理性能。

這些數(shù)字還重要嗎?它們中的大多數(shù)是在實(shí)驗(yàn)室類(lèi)型的環(huán)境中生產(chǎn)的,理想的條件和工作負(fù)載允許被測(cè)設(shè)備 (SUT) 為營(yíng)銷(xiāo)目的生成盡可能高的分?jǐn)?shù)。另一方面,大多數(shù)工程師可能不太關(guān)心這些理論上的可能性。他們更關(guān)心技術(shù)如何影響推理設(shè)備的準(zhǔn)確性、吞吐量和/或延遲。

將計(jì)算元素與特定工作負(fù)載進(jìn)行比較的行業(yè)標(biāo)準(zhǔn)基準(zhǔn)更加有用。例如,圖像分類(lèi)工程師可以識(shí)別出多個(gè)滿足其性能要求的選項(xiàng),然后根據(jù)功耗、成本等因素對(duì)其進(jìn)行縮減。語(yǔ)音識(shí)別設(shè)計(jì)人員可以使用基準(zhǔn)測(cè)試結(jié)果來(lái)分析各種處理器和內(nèi)存組合,然后決定是否合成本地或云中的語(yǔ)音。

但 AI 和 ML 模型、開(kāi)發(fā)框架和工具的快速引入使此類(lèi)比較變得復(fù)雜。如圖 1 所示,AI 技術(shù)堆棧中越來(lái)越多的選項(xiàng)也意味著可用于判斷推理性能的排列呈指數(shù)級(jí)增長(zhǎng)。那是在考慮可以針對(duì)給定系統(tǒng)架構(gòu)優(yōu)化模型和算法的所有方式之前。

poYBAGLH336AIVFpAAIxmy3uin4792.png

圖 1. AI 開(kāi)發(fā)堆棧中越來(lái)越多的選項(xiàng)具有復(fù)雜的行業(yè)標(biāo)準(zhǔn)基準(zhǔn)測(cè)試。

不用說(shuō),開(kāi)發(fā)這樣一個(gè)全面的基準(zhǔn)超出了大多數(shù)公司的能力或愿望。即使有能力完成這一壯舉,工程界真的會(huì)接受它作為“標(biāo)準(zhǔn)基準(zhǔn)”嗎?

MLPerf:更好的 AI 推理基準(zhǔn)

更廣泛地說(shuō),工業(yè)界和學(xué)術(shù)界在過(guò)去幾年中開(kāi)發(fā)了幾個(gè)推理基準(zhǔn),但他們傾向于關(guān)注新生人工智能市場(chǎng)的更多利基領(lǐng)域。一些例子包括 EEMBC 用于嵌入式圖像分類(lèi)和對(duì)象檢測(cè)的 MLMark,蘇黎世聯(lián)邦理工學(xué)院針對(duì) Android 智能手機(jī)上的計(jì)算機(jī)視覺(jué)的 AI 基準(zhǔn),以及哈佛的 Fathom 基準(zhǔn),它強(qiáng)調(diào)各種神經(jīng)網(wǎng)絡(luò)的吞吐量,但不強(qiáng)調(diào)準(zhǔn)確性。

可以在 MLPerf 最近發(fā)布的 Inference v0.5 基準(zhǔn)測(cè)試中找到對(duì) AI 推理環(huán)境的更完整評(píng)估。MLPerf Inference 是一個(gè)社區(qū)開(kāi)發(fā)的測(cè)試套件,可用于測(cè)量 AI 硬件、軟件、系統(tǒng)和服務(wù)的推理性能。這是來(lái)自 30 多家公司的 200 多名工程師合作的結(jié)果。

正如您對(duì)任何基準(zhǔn)測(cè)試所期望的那樣,MLPerf Inference 定義了一套標(biāo)準(zhǔn)化的工作負(fù)載,這些工作負(fù)載被組織成用于圖像分類(lèi)、對(duì)象檢測(cè)和機(jī)器翻譯用例的“任務(wù)”。每個(gè)任務(wù)都由與正在執(zhí)行的功能相關(guān)的 AI 模型和數(shù)據(jù)集組成,圖像分類(lèi)任務(wù)支持 ResNet-50 和 MobileNet-v1 模型,對(duì)象檢測(cè)任務(wù)利用具有 ResNet34 或 MobileNet-v1 主干的 SSD 模型,以及使用 GNMT 模型的機(jī)器翻譯任務(wù)。

除了這些任務(wù)之外,MLPerf 推理開(kāi)始偏離傳統(tǒng)基準(zhǔn)的規(guī)范。由于不同用例對(duì)準(zhǔn)確性、延遲、吞吐量和成本的重要性的權(quán)重不同,MLPerf Inference 通過(guò)根據(jù)移動(dòng)設(shè)備、自動(dòng)駕駛汽車(chē)、機(jī)器人和云這四個(gè)關(guān)鍵應(yīng)用領(lǐng)域的質(zhì)量目標(biāo)對(duì)推理性能進(jìn)行分級(jí)來(lái)進(jìn)行權(quán)衡。

為了在盡可能接近在這些應(yīng)用程序領(lǐng)域運(yùn)行的真實(shí)系統(tǒng)的上下文中有效地對(duì)任務(wù)進(jìn)行評(píng)分,MLPerf Inference 引入了負(fù)載生成器工具,該工具根據(jù)四種不同的場(chǎng)景生成查詢流量:

樣本大小為 1 的連續(xù)單流查詢,在移動(dòng)設(shè)備中很常見(jiàn)

每個(gè)流具有多個(gè)樣本的連續(xù)多流查詢,如在延遲至關(guān)重要的自動(dòng)駕駛汽車(chē)中發(fā)現(xiàn)的那樣

請(qǐng)求隨機(jī)到達(dá)的服務(wù)器查詢,例如在延遲也很重要的 Web 服務(wù)中

執(zhí)行批處理且吞吐量是一個(gè)突出考慮因素的離線查詢

Load Generator 以測(cè)試準(zhǔn)確性和吞吐量(性能)的模式提供這些場(chǎng)景。圖 2 描述了 SUT 如何接收來(lái)自負(fù)載生成器的請(qǐng)求,從而將數(shù)據(jù)集中的樣本加載到內(nèi)存中,運(yùn)行基準(zhǔn)測(cè)試并將結(jié)果返回給負(fù)載生成器。然后,準(zhǔn)確性腳本會(huì)驗(yàn)證結(jié)果。

poYBAGLH34mAYqmFAADz4xaUcpE959.png

圖 2. MLPerf Inference 基準(zhǔn)測(cè)試依賴(lài)于負(fù)載生成器,該負(fù)載生成器根據(jù)許多實(shí)際場(chǎng)景查詢被測(cè)系統(tǒng) (SUT)。

作為基準(zhǔn)測(cè)試的一部分,每個(gè) SUT 必須執(zhí)行最少數(shù)量的查詢以確保統(tǒng)計(jì)可信度。

提高靈活性

如前所述,人工智能技術(shù)市場(chǎng)中使用的各種框架和工具是任何推理基準(zhǔn)測(cè)試的關(guān)鍵挑戰(zhàn)。前面提到的另一個(gè)考慮因素是模型和算法的調(diào)整,以從 AI 推理系統(tǒng)中擠出最高的準(zhǔn)確性、吞吐量或最低的延遲。就后者而言,量化和圖像重塑等技術(shù)現(xiàn)在已成為常見(jiàn)做法。

MLPerf Inference 是語(yǔ)義級(jí)別的基準(zhǔn)測(cè)試,這意味著,雖然基準(zhǔn)測(cè)試提供了特定的工作負(fù)載(或一組工作負(fù)載)和執(zhí)行它的一般規(guī)則,但實(shí)際實(shí)施取決于執(zhí)行基準(zhǔn)測(cè)試的公司。公司可以優(yōu)化提供的參考模型,使用他們想要的工具鏈,并在他們選擇的硬件目標(biāo)上運(yùn)行基準(zhǔn)測(cè)試,只要它們保持在一定的指導(dǎo)范圍內(nèi)。

然而,重要的是要注意,這并不意味著提交公司可以隨意使用 MLPerf 模型或數(shù)據(jù)集,并且仍然有資格獲得主要基準(zhǔn)。MLPerf 推理基準(zhǔn)分為兩個(gè)部分 - 封閉式和開(kāi)放式 - 封閉式部分對(duì)可以使用哪些類(lèi)型的優(yōu)化技術(shù)以及禁止使用其他優(yōu)化技術(shù)有更嚴(yán)格的要求。

要獲得封閉部門(mén)的資格,提交者必須使用提供的模型和數(shù)據(jù)集,但允許量化。為確保兼容性,封閉部門(mén)的參賽者不能使用經(jīng)過(guò)重新訓(xùn)練或修剪的模型,也不能使用經(jīng)過(guò)調(diào)整以具有基準(zhǔn)或數(shù)據(jù)集感知能力的緩存或網(wǎng)絡(luò)。

另一方面,開(kāi)放部門(mén)旨在促進(jìn)人工智能模型和算法的創(chuàng)新。提交給開(kāi)放部門(mén)仍然需要執(zhí)行相同的任務(wù),但可以更改模型類(lèi)型、重新訓(xùn)練和修剪其模型、使用緩存等。

盡管封閉部門(mén)聽(tīng)起來(lái)很?chē)?yán)格,但有 150 多個(gè)條目成功地獲得了 MLPerf Inference v0.5 發(fā)布的資格。圖 3 和圖 4 展示了參賽者使用的 AI 技術(shù)堆棧的多樣性,涵蓋了幾乎所有類(lèi)型的處理器架構(gòu)和軟件框架,從 ONNX 和 PyTorch 到 TensorFlow、OpenVINO 和 Arm NN。

pYYBAGLH35CAeq4XAAElHF4l_eU163.png

圖 3. DSP、FPGA、CPU、ASICGPU 均成功完成了 MLPerf Inference 封閉劃分要求。

poYBAGLH35eAHaYkAAGY_5AozU8613.png

圖 4. AI 軟件開(kāi)發(fā)框架(如 ONNX、PyTorch、TensorFlow、OpenVINO、Arm NN 等)用于開(kāi)發(fā)符合封閉劃分基準(zhǔn)的 MLPerf 推理系統(tǒng)。

將猜測(cè)排除在評(píng)估之外

雖然 MLPerf Inference 的初始版本包含一組有限的模型和用例,但基準(zhǔn)測(cè)試套件是以模塊化、可擴(kuò)展的方式構(gòu)建的。隨著技術(shù)和行業(yè)的發(fā)展,這將使 MLPerf 能夠擴(kuò)展任務(wù)、模型和應(yīng)用領(lǐng)域,并且該組織已經(jīng)計(jì)劃這樣做。

最新的 AI 推理基準(zhǔn)顯然具有重要意義,因?yàn)樗悄壳翱捎玫淖罱咏鎸?shí)世界 AI 推理性能的衡量標(biāo)準(zhǔn)。但隨著它的成熟和吸引更多的提交,它也將成為成功部署技術(shù)堆棧的晴雨表和新實(shí)施的試驗(yàn)場(chǎng)。

為什么不讓技術(shù)自己說(shuō)話,而不是處理特定于供應(yīng)商的數(shù)據(jù)表數(shù)字呢?畢竟,更少的猜測(cè)意味著更強(qiáng)大的解決方案和更快的上市時(shí)間。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20117

    瀏覽量

    244821
  • 嵌入式
    +關(guān)注

    關(guān)注

    5178

    文章

    20061

    瀏覽量

    326702
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    37511

    瀏覽量

    293148
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI推理的存儲(chǔ),看好SRAM?

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃晶晶)近幾年,生成式AI引領(lǐng)行業(yè)變革,AI訓(xùn)練率先崛起,帶動(dòng)高帶寬內(nèi)存HBM一飛沖天。但我們知道AI推理的廣泛應(yīng)用才
    的頭像 發(fā)表于 03-03 08:51 ?2270次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>的存儲(chǔ),看好SRAM?

    工業(yè)視覺(jué)網(wǎng)關(guān):RK3576賦能多路檢測(cè)與邊緣AI

    ~150ms6TOPS NPU 邊緣AI推理易對(duì)接 MES / 追溯系統(tǒng) 一、產(chǎn)線痛點(diǎn):從“人看”到“機(jī)判”的轉(zhuǎn)變· 多工位/多角度同步:?jiǎn)螜C(jī)位覆蓋不足,典型項(xiàng)目需 8~12 路并發(fā),且畫(huà)面時(shí)序一致性要求高
    發(fā)表于 10-16 17:56

    AI 邊緣計(jì)算網(wǎng)關(guān):開(kāi)啟智能新時(shí)代的鑰匙?—龍興物聯(lián)

    在數(shù)字化浪潮的當(dāng)下,AI 邊緣計(jì)算網(wǎng)關(guān)正逐漸嶄露頭角,成為眾多行業(yè)轉(zhuǎn)型升級(jí)的關(guān)鍵力量。它宛如一座智能橋梁,一端緊密連接著各類(lèi)物理設(shè)備,如傳感器、攝像頭、工業(yè)機(jī)器等,負(fù)責(zé)收集豐富的數(shù)據(jù)信息;另一端則
    發(fā)表于 08-09 16:40

    邊緣智能網(wǎng)關(guān)在水務(wù)行業(yè)中的應(yīng)用—龍興物聯(lián)

    ),形成更強(qiáng)大的分布式智能網(wǎng)絡(luò)。 三、未來(lái)發(fā)展趨勢(shì)與潛力? AI模型輕量化與性能提升:? 更高效的邊緣AI推理框架和專(zhuān)用AI加速芯片(NPU
    發(fā)表于 08-02 18:28

    研華科技推出緊湊型邊緣AI推理系統(tǒng)AIR-120

    研華科技隆重宣布,推出緊湊型邊緣AI推理系統(tǒng)——AIR-120。該系統(tǒng)搭載英特爾凌動(dòng)x7433RE(Amston Lake)處理器、酷睿i3-N305處理器、N97(Alder Lake)處理器以及
    的頭像 發(fā)表于 07-17 17:16 ?786次閱讀

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    DeepSeek-R1:強(qiáng)大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司開(kāi)發(fā)的新一代AI大模型。其核心優(yōu)勢(shì)在于強(qiáng)大的推理引擎能力,融合了自然語(yǔ)言處理(
    發(fā)表于 07-16 15:29

    邊緣AI盒子技術(shù)解析:ASIC/FPGA/GPU芯片及邊緣-云端協(xié)同與自適應(yīng)推理

    數(shù)據(jù)上傳到云端,為眾多行業(yè)提供高效、智能的解決方案。它是邊緣AI需要用到的關(guān)鍵邊緣設(shè)備。 邊緣AI
    的頭像 發(fā)表于 07-13 08:25 ?3804次閱讀

    STM32F769是否可以部署邊緣AI?

    STM32F769是否可以部署邊緣AI
    發(fā)表于 06-17 06:44

    華為AI WAN在智算邊緣推理網(wǎng)絡(luò)中的關(guān)鍵優(yōu)勢(shì)

    WAN:智算邊緣推理網(wǎng)絡(luò)架構(gòu)、實(shí)踐及產(chǎn)業(yè)進(jìn)展”的演講,詳細(xì)闡述了AI WAN在智算邊緣推理網(wǎng)絡(luò)中的關(guān)鍵優(yōu)勢(shì)及其對(duì)產(chǎn)業(yè)發(fā)展的深遠(yuǎn)意義。
    的頭像 發(fā)表于 04-09 09:53 ?737次閱讀

    1.9倍性能提升!英特爾至強(qiáng)6在MLPerf基準(zhǔn)測(cè)試中表現(xiàn)卓越

    與第五代至強(qiáng)處理器相比,英特爾至強(qiáng)6性能核的性能平均提高了1.9倍。 今日,MLCommons公布了最新的MLPerf推理v5.0基準(zhǔn)測(cè)試結(jié)果,其中,英特爾??至強(qiáng)??6性能核處理器在本次測(cè)試的六個(gè)
    的頭像 發(fā)表于 04-07 10:58 ?441次閱讀

    2025邊緣AI預(yù)測(cè):昇騰310B邊緣將占工業(yè)推理市場(chǎng)35%的三大動(dòng)因

    據(jù)工信部《2025 智能算力發(fā)展白皮書(shū)》預(yù)測(cè),到 2025 年我國(guó)邊緣 AI 推理芯片市場(chǎng)規(guī)模將突破 580 億元,其中工業(yè)場(chǎng)景占比達(dá) 42%。在這場(chǎng)變革中,昇騰 310B 邊緣
    的頭像 發(fā)表于 03-24 14:09 ?2188次閱讀
    2025<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>預(yù)測(cè):昇騰310B<b class='flag-5'>邊緣</b>將占工業(yè)<b class='flag-5'>推理</b>市場(chǎng)35%的三大動(dòng)因

    使用修改后的基準(zhǔn)C++工具推斷灰度圖像時(shí)的推理速度慢怎么解決?

    修改了 基準(zhǔn)測(cè)試 C++ 工具 ,以加載灰度圖像。 獲得的推理速度非常低。
    發(fā)表于 03-06 07:11

    AI賦能邊緣網(wǎng)關(guān):開(kāi)啟智能時(shí)代的新藍(lán)海

    在數(shù)字化轉(zhuǎn)型的浪潮中,AI邊緣計(jì)算的結(jié)合正掀起一場(chǎng)深刻的產(chǎn)業(yè)變革。邊緣網(wǎng)關(guān)作為連接物理世界與數(shù)字世界的橋梁,在AI技術(shù)的加持下,正從簡(jiǎn)單的數(shù)據(jù)采集傳輸節(jié)點(diǎn),進(jìn)化為具備智能決策能力的
    發(fā)表于 02-15 11:41

    使用NVIDIA推理平臺(tái)提高AI推理性能

    NVIDIA推理平臺(tái)提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬(wàn)美元。
    的頭像 發(fā)表于 02-08 09:59 ?1179次閱讀
    使用NVIDIA<b class='flag-5'>推理</b>平臺(tái)提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    MLCommons推出AI基準(zhǔn)測(cè)試0.5版

    開(kāi)放式機(jī)器學(xué)習(xí)工程聯(lián)盟 MLCommons 在美國(guó)加州當(dāng)?shù)貢r(shí)間公布推出適用于消費(fèi)類(lèi) PC 的 AI 性能的 MLPerf Client 基準(zhǔn)測(cè)試的 0.5 版,這是該測(cè)試的第一個(gè)公開(kāi)版本
    的頭像 發(fā)表于 12-12 16:47 ?1096次閱讀