亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

采用GPU求解大幅提升性能的CFD模型

jf_0T4ID6SG ? 來源:Ansys ? 作者:Steve Defibaugh ? 2022-10-17 09:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

你可以設(shè)想一下,如果每項(xiàng)任務(wù)都能節(jié)省幾分鐘、幾小時甚至幾天的時間,那一整年下來能節(jié)省多少時間啊。如果任務(wù)涉及計(jì)算流體動力學(xué)(CFD)仿真,且希望減少求解時間,那么Ansys Fluent GPU求解器正是您想要的解決方案。

無論是求解10萬個單元還是1億個單元的模型,傳統(tǒng)的減少仿真時間的方法都是使用大量CPU進(jìn)行求解。近年來,另一種方法開始受到行業(yè)的關(guān)注,那就是使用圖形處理單元,簡稱GPU。這種方法首先是將CPU求解的某些部分交給GPU來處理,從而加速整體求解時間,這種做法被稱為“轉(zhuǎn)移”到GPU。

早在2014年,Ansys Fluent就采用了這項(xiàng)“轉(zhuǎn)移”技術(shù),而今年我們則將GPU技術(shù)的使用發(fā)揮到全新的高度,在Fluent中推出了原生多GPU(multi-GPU)求解器。本地部署方案能提供GPU上的所有求解器特性,避免CPU和GPU之間因交換數(shù)據(jù)造成的開銷,從而相對于轉(zhuǎn)移技術(shù)能實(shí)現(xiàn)更好的提速。

釋放GPU對CFD的全部潛力需要將整個代碼運(yùn)行在GPU上。

在系列博客的上半部分中,我們重點(diǎn)介紹了大型汽車外氣動仿真的32倍提速案例,不過并非所有用戶的仿真模型能達(dá)到如此大的規(guī)模。本文作為系列內(nèi)容的下半部分,將重點(diǎn)介紹GPU針對包含更多物理功能的小規(guī)模模型的優(yōu)勢,如多孔介質(zhì)和共軛傳熱(CHT)。

各種不同規(guī)模的CFD仿真提速

從51.2萬個單元到700多萬個單元,本文介紹的模型采用GPU求解都能大幅提升性能。而且無需采用最昂貴的服務(wù)器級GPU就能大幅提升性能,因?yàn)镕luent GPU求解器可以使用您的筆記本或工作站GPU就能顯著縮短求解時間。口說無憑,請繼續(xù)往下看,了解原生多GPU求解器如何實(shí)現(xiàn)提速:

進(jìn)氣系統(tǒng)提速8.32倍

牽引逆變器提速8.6倍

兩種不同的換熱器設(shè)計(jì)分別提速15.47倍和11倍

通過多孔過濾器的氣流

汽車進(jìn)氣系統(tǒng)吸入的氣體通過過濾器清除雜物,讓清潔空氣進(jìn)入引擎。這個仿真涉及710萬個單元,過濾器模型為多孔介質(zhì),粘滯阻力為1e+8m-2,慣性阻力為2,500m-1。空氣流入進(jìn)氣系統(tǒng)的質(zhì)量流率為0.08kg/s。

用一個NVIDIA A100 GPU求解后,優(yōu)化進(jìn)氣系統(tǒng)可實(shí)現(xiàn)8.32倍的提速。

我們采用四種不同的硬件配置求解該模型,三種配置采用Intel Xeon Gold 6242核心,一種配置采用一個NVIDIA A100 Tensor Core GPU。

使用單個NVIDIA A100 GPU相對于采用32個Intel Xeon Gold核心求解而言,能提速8.3倍。

73f90214-4d6d-11ed-a3b6-dac502259ad0.png

使用單個NVIDIA A100 GPU仿真通過多孔介質(zhì)的氣流相對于32個Intel Xeon Gold核心而言,能實(shí)現(xiàn)8.3倍的提速

使用共軛傳熱建模(CHT)進(jìn)行熱管理

在許多工業(yè)應(yīng)用中,考慮到流體流動時造成的熱效應(yīng)至關(guān)重要。為準(zhǔn)確捕獲系統(tǒng)的熱行為,流體的傳熱與相鄰金屬的熱傳導(dǎo)耦合往往非常重要。我們的原生GPU求解器針對這種耦合CHT問題展示出了強(qiáng)大的提速特性。

以下給出三種涉及CHT的不同熱仿真,一個為400萬個單元的水冷式牽引逆變器,一個為140萬個單元的百葉窗翅片換熱器,還有一個為512,000個單元的立式散熱器。

水冷式牽引逆變器

涉及CHT的牽引逆變器仿真采用一個NVIDIA A100 GPU求解,可實(shí)現(xiàn)8.6倍的提速。

牽引逆變器從高壓電池獲得直流電(DC),并將其轉(zhuǎn)為交流電(AC)發(fā)送給電機(jī)。熱管理對牽引逆變器確保安全性和長期使用壽命至關(guān)重要。

以上所示模型為400萬個單元的水冷式牽引逆變器,其具有4個絕緣柵雙極晶體管IGBT),熱負(fù)載為400 W。25℃的水以0.5 kg/s的速度流過外殼實(shí)現(xiàn)制冷,并使用對流邊界條件對周圍空氣的熱消耗進(jìn)行建模。

采用一個NVIDIA A100 GPU求解問題,相對于32個Intel Xeon Gold 6242核心而言,可提速8.6倍。

百葉窗翅片換熱器

換熱器模型通過百葉窗翅片換熱器實(shí)現(xiàn)強(qiáng)制對流。這個待求解的問題涉及20℃的空氣以4 m/s的速度通過鋁制百葉窗翅片,以實(shí)現(xiàn)銅管制冷。

為獲得基準(zhǔn),我們在8個Intel Xeon Gold 6242核心上運(yùn)行了140萬個單元的模型。在一個NVIDIA A100 GPU上運(yùn)行完全相同的模型,可實(shí)現(xiàn)15.5倍的提速。

百葉窗翅片換熱器的溫度分布在一個NVIDIA A100上求解速度快15.47倍。

77f60b28-4d6d-11ed-a3b6-dac502259ad0.png

對百葉窗翅片換熱器而言,單GPU求解可實(shí)現(xiàn)15.47倍的提速

立式散熱器

最后一個問題涉及一個自由對流五翅片鋁制散熱器,基座保持恒溫76.85℃,周邊空氣環(huán)境溫度為16.85℃。

使用安裝有一個NVIDIA Quadro RTX 5000 GPU的一臺筆記本電腦求解包含512,000個單元的外殼,相對于采用六核Intel Core i7-11850H的筆記本電腦而言,可實(shí)現(xiàn)11倍的提速。

即便只采用一個NVIDIA Quadro RTX 5000筆記本顯卡GPU,使用Fluent中的原生多GPU求解器也能大幅縮短求解時間。如果采用類似的工作站圖形卡,還能進(jìn)一步提高性能。

采用一個NVIDIA Quadro RTX 5000 GPU進(jìn)行求解,512,000個單元的散熱器仿真能實(shí)現(xiàn)11倍的提速。

通過GPU實(shí)現(xiàn)CFD仿真變革

Fluent用戶現(xiàn)在能在只有一個GPU的筆記本或工作站上獲得強(qiáng)大功能和靈活性,當(dāng)然也可以擴(kuò)展至多GPU服務(wù)器上。利用您已有的硬件加速CFD仿真,獲得的提速超過您的想象。

Fluent中的原生多GPU求解器能運(yùn)行在2016年之后推出的任何NVIDIA卡上,安裝的驅(qū)動程序版本不低于11.0或更新版本。

Ansys在GPU技術(shù)運(yùn)用于仿真領(lǐng)域一直是領(lǐng)軍者,憑借新型求解器技術(shù),將我們的技術(shù)水平提升到新的高度。原生GPU求解器中的所有特性都采用與Fluent CPU求解器相同的離散和數(shù)值方法,能在更短的時間內(nèi)為用戶提供他們所期待的準(zhǔn)確結(jié)果。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5066

    瀏覽量

    134126
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    10042

    瀏覽量

    90545
  • CFD
    CFD
    +關(guān)注

    關(guān)注

    1

    文章

    165

    瀏覽量

    19404
  • 求解器
    +關(guān)注

    關(guān)注

    0

    文章

    84

    瀏覽量

    4888

原文標(biāo)題:Ansys Fluent:全力釋放GPU的無限潛力(下)

文章出處:【微信號:西莫電機(jī)論壇,微信公眾號:西莫電機(jī)論壇】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Simcenter FLOEFD for Siemens NX:CAD 嵌入式前置計(jì)算流體力學(xué)(CFD)軟件

    設(shè)計(jì)方案,進(jìn)而優(yōu)化產(chǎn)品性能和穩(wěn)定性。SimcenterFLOEFD以智能自動化為核心,使得CFD前置成為現(xiàn)實(shí):直觀的用戶體驗(yàn)–上手速度極快采用原生NXCAD數(shù)據(jù)–無需
    的頭像 發(fā)表于 11-04 17:24 ?398次閱讀
    Simcenter FLOEFD for Siemens NX:CAD 嵌入式前置計(jì)算流體力學(xué)(<b class='flag-5'>CFD</b>)軟件

    ANSA中CFD網(wǎng)格細(xì)化方法

    在上一篇文章中介紹了CFD網(wǎng)格細(xì)化方法之Size Field功能,在本篇文章中我們將繼續(xù)介紹其他CFD網(wǎng)格細(xì)化方法。
    的頭像 發(fā)表于 08-06 15:07 ?2971次閱讀
    ANSA中<b class='flag-5'>CFD</b>網(wǎng)格細(xì)化方法

    如何在Ray分布式計(jì)算框架下集成NVIDIA Nsight Systems進(jìn)行GPU性能分析

    在大語言模型的強(qiáng)化學(xué)習(xí)訓(xùn)練過程中,GPU 性能優(yōu)化至關(guān)重要。隨著模型規(guī)模不斷擴(kuò)大,如何高效地分析和優(yōu)化 GPU
    的頭像 發(fā)表于 07-23 10:34 ?1913次閱讀
    如何在Ray分布式計(jì)算框架下集成NVIDIA Nsight Systems進(jìn)行<b class='flag-5'>GPU</b><b class='flag-5'>性能</b>分析

    如何使用sizefield功能進(jìn)行CFD網(wǎng)格細(xì)化

    本文旨在對ANSA中的CFD網(wǎng)格細(xì)化策略進(jìn)行簡單介紹。首先介紹如何使用sizefield功能進(jìn)行網(wǎng)格細(xì)化,之后在下一篇文章中將繼續(xù)介紹其他CFD網(wǎng)格細(xì)化方法。
    的頭像 發(fā)表于 07-14 09:52 ?561次閱讀
    如何使用sizefield功能進(jìn)行<b class='flag-5'>CFD</b>網(wǎng)格細(xì)化

    為什么無法在GPU上使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4 和 int8,并在 GPU 上使用 OpenVINO? 運(yùn)行推理。 沒有可用的輸出。
    發(fā)表于 06-23 07:11

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發(fā)布Qwen3系列的8款開源混合推理模型。摩爾線程團(tuán)隊(duì)在模型發(fā)布當(dāng)天,率先完成了Qwen3全系列模型在全功能GPU上的高效支持。這一成果充分展現(xiàn)了MUSA架構(gòu)及全功能
    的頭像 發(fā)表于 05-07 15:24 ?783次閱讀

    提升AI訓(xùn)練性能GPU資源優(yōu)化的12個實(shí)戰(zhàn)技巧

    在人工智能與機(jī)器學(xué)習(xí)技術(shù)迅速發(fā)展的背景下,GPU計(jì)算資源的高效利用已成為關(guān)鍵技術(shù)指標(biāo)。優(yōu)化的GPU資源分配不僅能顯著提升模型訓(xùn)練速度,還能實(shí)現(xiàn)計(jì)算成本的有效控制。根據(jù)AI基礎(chǔ)設(shè)施聯(lián)盟2
    的頭像 發(fā)表于 05-06 11:17 ?1036次閱讀
    <b class='flag-5'>提升</b>AI訓(xùn)練<b class='flag-5'>性能</b>:<b class='flag-5'>GPU</b>資源優(yōu)化的12個實(shí)戰(zhàn)技巧

    無法在GPU上運(yùn)行ONNX模型的Benchmark_app怎么解決?

    在 CPU 和 GPU 上運(yùn)行OpenVINO? 2023.0 Benchmark_app推斷的 ONNX 模型。 在 CPU 上推理成功,但在 GPU 上失敗。
    發(fā)表于 03-06 08:02

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    為定點(diǎn)模型,這一過程不僅能有效減少模型存儲空間,還能大幅降低計(jì)算量,顯著提升模型在硬件上的運(yùn)行效率。例如,量化后的
    發(fā)表于 02-14 17:42

    英國政府計(jì)劃大幅提升AI算力

    近日,英國首相斯塔默宣布了一項(xiàng)雄心勃勃的計(jì)劃,承諾到2030年,英國政府將采購多達(dá)10萬塊圖形處理器(GPU),以大幅提升英國的AI算力水平。 據(jù)悉,這一舉措旨在將英國主權(quán)AI算力增加20倍,從而
    的頭像 發(fā)表于 01-14 14:18 ?647次閱讀

    借助NVIDIA GPU提升魯班系統(tǒng)CAE軟件計(jì)算效率

    本案例中魯班系統(tǒng)高性能 CAE 軟件利用 NVIDIA 高性能 GPU,實(shí)現(xiàn)復(fù)雜產(chǎn)品的快速仿真,加速產(chǎn)品開發(fā)和設(shè)計(jì)迭代,縮短開發(fā)周期,提升產(chǎn)品競爭力。
    的頭像 發(fā)表于 12-27 16:24 ?1054次閱讀

    GPU是如何訓(xùn)練AI大模型

    在AI模型的訓(xùn)練過程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何訓(xùn)練AI大模型的。
    的頭像 發(fā)表于 12-19 17:54 ?1130次閱讀

    《CST Studio Suite 2024 GPU加速計(jì)算指南》

    許可證模型的加速令牌或SIMULIA統(tǒng)一許可證模型的SimUnit令牌或積分授權(quán)。 4. GPU計(jì)算的啟用 - 交互式模擬:通過加速對話框啟用,打開求解器對話框,點(diǎn)擊“加速”按鈕,打
    發(fā)表于 12-16 14:25

    《算力芯片 高性能 CPUGPUNPU 微架構(gòu)分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    對卷積核優(yōu)化的思考。 GPU的存儲體系采用了獨(dú)特的倒金字塔結(jié)構(gòu),在我看來這是其計(jì)算性能的關(guān)鍵。大容量寄存器設(shè)計(jì)破解了傳統(tǒng)馮諾依曼架構(gòu)的內(nèi)存瓶頸,合并訪存機(jī)制巧妙解決了內(nèi)存帶寬限制。NVIDIA
    發(fā)表于 11-24 17:12

    使用vLLM+OpenVINO加速大語言模型推理

    隨著大語言模型的廣泛應(yīng)用,模型的計(jì)算需求大幅提升,帶來推理時延高、資源消耗大等挑戰(zhàn)。
    的頭像 發(fā)表于 11-15 14:20 ?2055次閱讀
    使用vLLM+OpenVINO加速大語言<b class='flag-5'>模型</b>推理