亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI/ML 解決方案加速驗(yàn)證曲線收斂

jf_pJlTbmA9 ? 來源:jf_pJlTbmA9 ? 作者:jf_pJlTbmA9 ? 2023-07-08 11:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

保證覆蓋率的同時(shí)優(yōu)化仿真回歸

隨著應(yīng)用要求的激增和用戶需求的增加,硬件設(shè)計(jì)變得更加復(fù)雜。市場趨勢的快速變化,以及對電動汽車等技術(shù)的更多關(guān)注,決定了對高效電源管理和高性能處理的需求水漲船高。隨著 SoC 設(shè)計(jì)規(guī)模的擴(kuò)大,復(fù)雜程度的增加,驗(yàn)證吞吐量仍然是一個(gè)瓶頸,單純依靠增加 CPU 核數(shù)量和運(yùn)行更多的并行測試治標(biāo)不治本。上述因素的疊加讓驗(yàn)證工程師面對復(fù)雜設(shè)計(jì)的壓力與日俱增。

驗(yàn)證永遠(yuǎn)不會完成;當(dāng)你的時(shí)間用完時(shí),它就結(jié)束了。目標(biāo)是在你耗盡時(shí)間之前使驗(yàn)證過程收斂。每個(gè)人都希望看到關(guān)鍵指標(biāo)收斂到目標(biāo),并在嚴(yán)格的成本和時(shí)間限制下做到這一點(diǎn)。想象一下,坐在駕駛艙里,向黑匣子輸入信息,然后等待奇跡發(fā)生(按一個(gè)按鈕,你的工作就完成了)。當(dāng)務(wù)之急是人工智能機(jī)器學(xué)習(xí)AI/ML)如何幫助我們更快地完成回歸,節(jié)省調(diào)試時(shí)間,實(shí)現(xiàn)驗(yàn)證/覆蓋率目標(biāo),并管理資源和資金——換句話說,我們?nèi)绾问褂?AI/ML 來提高驗(yàn)證的效率?

瑞薩公司也面臨著類似的挑戰(zhàn)。市場壓力和嚴(yán)格的投片時(shí)間表促使他們尋找一種技術(shù)/方法來優(yōu)化仿真回歸,并在整個(gè)產(chǎn)品開發(fā)過程中加速設(shè)計(jì)驗(yàn)證過程。他們希望減少風(fēng)險(xiǎn),盡早發(fā)現(xiàn)盡可能多的錯(cuò)誤,能夠快速調(diào)試,并滿足其終端用戶的要求。

瑞薩開始探索 Cadence Xcelium 機(jī)器學(xué)習(xí)應(yīng)用。這個(gè)應(yīng)用程序使用機(jī)器學(xué)習(xí)技術(shù)來優(yōu)化仿真回歸,以產(chǎn)生一個(gè)更緊湊的壓縮回歸。然后這個(gè)優(yōu)化的回歸被用來重現(xiàn)與原始回歸幾乎相同的覆蓋率,并通過運(yùn)行現(xiàn)有隨機(jī)測試平臺可能出現(xiàn)的邊界場景,快速找到設(shè)計(jì)錯(cuò)誤。

瑞薩的測試結(jié)果非常完美,整個(gè)隨機(jī)驗(yàn)證回歸的時(shí)間縮短了 66%,大幅節(jié)省了資源,成本和時(shí)間。Xcelium ML App 幫助瑞薩在保證 100%覆蓋率的同時(shí)將壓縮效率提高 2.2 倍。此外,將 ML 回歸用于首次設(shè)計(jì)迭代時(shí),瑞薩再次實(shí)現(xiàn)了 100%覆蓋率下,將時(shí)間縮短 3.6 倍。

1683785065627604.png

基于 ML 的測試回歸次數(shù)僅為 1168,相當(dāng)于 3774 次原始回歸的 1/3。實(shí)現(xiàn)目標(biāo)所需時(shí)間縮短了 30%,滿足了嚴(yán)格的上市需求。

除了利用 Xcelium ML App 節(jié)省資源和時(shí)間,加速實(shí)現(xiàn)設(shè)計(jì)收斂,瑞薩也評估了由 3款 Verisium App 組成,基于 AI 的 Cadence Verisium 平臺,將驗(yàn)證生產(chǎn)力提高了 6 倍,共節(jié)省 27 個(gè)工時(shí)。

瑞薩評估的 App 如下:

1683785059602822.png

Verisium AutoTriage,一款基于 ML 的自動化測試失敗分類程序,可以將相同錯(cuò)誤導(dǎo)致的測試失敗自動分組。失敗分組耗時(shí)降低了 70%,整體效率提升了 3.3 倍。

Verisium SemanticDiff 幫助瑞薩快速識別失敗原因,比傳統(tǒng) diff 工具更加高效。SemanticDiff 專注于設(shè)計(jì)環(huán)境,可以提供更相關(guān)的差異分析。此外,逐條檢查 diff 指令的歷史文件是很繁瑣的,SemanticDiff app 可以大幅縮短糾錯(cuò)時(shí)間,顯著提升效率。

Verisium WaveMiner 可以高效識別差異點(diǎn),用戶可以在 PASS 和 FAIL 中將差異點(diǎn)可視化,便捷地比較 PASS 和 FAIL 的波型及源代碼。瑞薩的糾錯(cuò)時(shí)間得以縮短 89%-97%,帶來 9 倍的效率提升。

Cadence 的 Verisium 平臺和 Xcelium ML 應(yīng)用一起提供了一套利用 AI/ML 的應(yīng)用,以優(yōu)化驗(yàn)證工作負(fù)載,提高覆蓋率,并加速復(fù)雜 SoC 上設(shè)計(jì)錯(cuò)誤的根源分析。瑞薩公司利用人工智能平臺,將其驗(yàn)證生產(chǎn)率提高了 10 倍。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • Cadence
    +關(guān)注

    關(guān)注

    67

    文章

    995

    瀏覽量

    145933
  • 瑞薩
    +關(guān)注

    關(guān)注

    36

    文章

    22419

    瀏覽量

    89475
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    新一代AI/ML加速器新型內(nèi)存解決方案——HBM2E內(nèi)存接口

    近年來,隨著內(nèi)存帶寬逐漸成為影響人工智能持續(xù)增長的關(guān)鍵焦點(diǎn)領(lǐng)域之一,以高帶寬內(nèi)存(HBM、HBM2、HBM2E)和GDDR開始逐漸顯露頭角,成為搭配新一代AI/ML加速器和專用芯片的新型內(nèi)存
    的頭像 發(fā)表于 10-23 15:20 ?6202次閱讀
    新一代<b class='flag-5'>AI</b>/<b class='flag-5'>ML</b><b class='flag-5'>加速</b>器新型內(nèi)存<b class='flag-5'>解決方案</b>——HBM2E內(nèi)存接口

    富士通AI平臺“Fujitsu Kozuchi”加速AIML解決方案交付

    Platform",將面向全球企業(yè)用戶提供一系列強(qiáng)大的AI(人工智能)與ML(機(jī)器學(xué)習(xí))技術(shù)。 基于富士通先進(jìn)的AI技術(shù),通過豐富的工具及軟件組合,該平臺將幫助制造、零售、金融以及醫(yī)療保健等各行業(yè)客戶
    發(fā)表于 05-12 09:20 ?545次閱讀
    富士通<b class='flag-5'>AI</b>平臺“Fujitsu Kozuchi”<b class='flag-5'>加速</b><b class='flag-5'>AI</b>與<b class='flag-5'>ML</b><b class='flag-5'>解決方案</b>交付

    海量干貨分享!XDF(賽靈思開發(fā)者大會)北京站各分論壇演講資料公布

    基礎(chǔ) - Plunify視頻處理或數(shù)據(jù)壓縮 - 恒揚(yáng)數(shù)據(jù)采用 FPGA 實(shí)現(xiàn)深綠 MPP:一個(gè)超動力 Greenplum 數(shù)據(jù)倉庫解決方案 - Vitesse Data數(shù)據(jù)與科學(xué)計(jì)算分論壇數(shù)據(jù)中心 AI 加速
    發(fā)表于 01-03 15:19

    如何加速電信領(lǐng)域AI開發(fā)?

    全流程工作中面臨的各種困難。繼機(jī)械化、電氣化、信息化三次工業(yè)革命后,以人工智能為代表的第四次工業(yè)革命正在到來,驅(qū)動人類社會邁向新紀(jì)元。就在今年的全聯(lián)接大會上,華為發(fā)布了AI戰(zhàn)略與全棧全場景AI解決方案
    發(fā)表于 02-25 06:53

    新思科技發(fā)布業(yè)界首款全棧式AI驅(qū)動型EDA解決方案Synopsys.ai

    摘要:Synopsys.ai可為芯片設(shè)計(jì)提供AI驅(qū)動型解決方案,包含數(shù)字、模擬、驗(yàn)證、測試和制造模塊。AI引擎可顯著提高設(shè)計(jì)效率和芯片質(zhì)量,
    發(fā)表于 04-03 16:03

    基于軟件的Vitis AI 2.0加速解決方案

    Vitis AI 2.0 全面發(fā)布!作為賽靈思 FPGA 和自適應(yīng) SoC 上最綜合全面的基于軟件的 AI 加速解決方案,Vitis AI
    的頭像 發(fā)表于 03-15 17:39 ?2985次閱讀

    AI驅(qū)動芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效

    ? ? ? ? ? 原文標(biāo)題:AI驅(qū)動芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效 文章出處:【微信公眾號:新思科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
    的頭像 發(fā)表于 03-30 20:05 ?1468次閱讀

    下周五|AI驅(qū)動芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效

    ? ? ? ? ? 原文標(biāo)題:下周五|AI驅(qū)動芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效 文章出處:【微信公眾號:新思科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
    的頭像 發(fā)表于 03-31 17:30 ?1068次閱讀

    本周五|AI驅(qū)動芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效

    ? ? ? ? ? 原文標(biāo)題:本周五|AI驅(qū)動芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效 文章出處:【微信公眾號:新思科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
    的頭像 發(fā)表于 04-03 22:20 ?802次閱讀

    統(tǒng)一AI/ML解決方案加速驗(yàn)證曲線收斂

    的增加,驗(yàn)證吞吐量仍然是一個(gè)瓶頸,單純依靠增加 CPU 核數(shù)量和運(yùn)行更多的并行測試治標(biāo)不治本。上述因素的疊加讓驗(yàn)證工程師面對復(fù)雜設(shè)計(jì)的壓力與日俱增。
    的頭像 發(fā)表于 05-11 16:59 ?761次閱讀
    統(tǒng)一<b class='flag-5'>AI</b>/<b class='flag-5'>ML</b><b class='flag-5'>解決方案</b><b class='flag-5'>加速</b><b class='flag-5'>驗(yàn)證</b><b class='flag-5'>曲線</b><b class='flag-5'>收斂</b>

    利用擴(kuò)展型 NAS 存儲加速 AI/ML 工作負(fù)載

    虹科方案1AI&ML變革日常生活AI(人工智能)和ML(機(jī)器學(xué)習(xí))的發(fā)展正逐漸滲透到我們的日常生活中,為我們帶來了翻天覆地的變化。從智能手機(jī)
    的頭像 發(fā)表于 08-05 08:11 ?1088次閱讀
    利用擴(kuò)展型 NAS 存儲<b class='flag-5'>加速</b> <b class='flag-5'>AI</b>/<b class='flag-5'>ML</b> 工作負(fù)載

    深入探討工業(yè)AI/ML技術(shù)的發(fā)展趨勢及相關(guān)解決方案

    芯科科技已經(jīng)創(chuàng)建了一套完整的硬件和軟件解決方案,可支持開發(fā)用于工業(yè)市場的工業(yè)AI/ML解決方案。具體來說,我們的Sub-GHz、藍(lán)牙和802.15.4產(chǎn)品內(nèi)置了硬件
    的頭像 發(fā)表于 01-29 09:42 ?1123次閱讀

    Supermicro推新AI存儲方案,助力AIML應(yīng)用加速

    Supermicro首席執(zhí)行官梁見后先生高瞻遠(yuǎn)矚地指出:針對AIML應(yīng)用的加速處理,我們推薦配置以每機(jī)柜20 PB高速閃存為主,配備四個(gè)NVIDIA HGX H100系列優(yōu)化版8-GPU氣冷服務(wù)器或者八個(gè)同款液冷服務(wù)器。
    的頭像 發(fā)表于 02-03 14:46 ?1185次閱讀

    是德科技推出AI數(shù)據(jù)中心測試平臺旨在加速AI/ML網(wǎng)絡(luò)驗(yàn)證和優(yōu)化的創(chuàng)新

    2024年2月29日,是德科技(Keysight Technologies,Inc.)宣布,針對人工智能(AI)和機(jī)器學(xué)習(xí)(ML)基礎(chǔ)設(shè)施生態(tài)系統(tǒng),推出了 AI數(shù)據(jù)中心測試平臺,旨在加速
    的頭像 發(fā)表于 02-29 09:32 ?1228次閱讀
    是德科技推出<b class='flag-5'>AI</b>數(shù)據(jù)中心測試平臺旨在<b class='flag-5'>加速</b><b class='flag-5'>AI</b>/<b class='flag-5'>ML</b>網(wǎng)絡(luò)<b class='flag-5'>驗(yàn)證</b>和優(yōu)化的創(chuàng)新

    華為AI UBB解決方案加速網(wǎng)絡(luò)邁向高階智能

    解決方案,包括AI FAN、AI OTN、AI WAN和ADN四大部分,端到端覆蓋家庭網(wǎng)絡(luò)、承載網(wǎng)絡(luò)和UBB智能管控系統(tǒng)。AI UBB
    的頭像 發(fā)表于 06-23 15:56 ?1111次閱讀