要點
?展示AI模型在不同物理環(huán)境下的魯棒性。
?與3GPP Type I CSI反饋相比,測得15%至95%的吞吐量增益。
?展示序列學(xué)習(xí)的靈活性,支持網(wǎng)絡(luò)解碼器優(yōu)先或終端編碼器優(yōu)先的訓(xùn)練方式。
高通技術(shù)公司和諾基亞貝爾實驗室持續(xù)合作,展示了無線網(wǎng)絡(luò)中可互操作的多廠商AI的價值。在2024年世界移動通信大會(MWC 2024)上,我們首次展示了AI增強信道狀態(tài)反饋編碼器和解碼器模型的OTA互操作性,該模型分別運行在搭載高通5G調(diào)制解調(diào)器及射頻系統(tǒng)的參考移動終端和諾基亞原型基站上。
雙方使用被稱為“序列學(xué)習(xí)”的新技術(shù)開發(fā)了這些可互操作的模型。通過序列學(xué)習(xí),多家公司能夠協(xié)同設(shè)計可互操作AI模型,而無需共享各自實現(xiàn)方案的專有細(xì)節(jié),公司之間共享模型輸入/輸出對的訓(xùn)練數(shù)據(jù)集即可。
基于這一概念驗證,我們持續(xù)合作,展示可互操作AI面向信道狀態(tài)反饋(Channel State Feedback, CSF)的價值、靈活性和可擴(kuò)展性。
無線AI在不同物理環(huán)境下的魯棒性
隨著AI技術(shù)在實際網(wǎng)絡(luò)中部署,確保模型在不同環(huán)境中穩(wěn)健運行尤為重要。訓(xùn)練數(shù)據(jù)集應(yīng)具有足夠的多樣性以確保AI模型有效學(xué)習(xí);然而,讓數(shù)據(jù)集涵蓋所有可能場景是不現(xiàn)實的。因此,將訓(xùn)練成果泛化以應(yīng)對新情況的能力,對AI模型至關(guān)重要。在雙方的合作中,我們研究了三個不同的基站站點:一個郊區(qū)室外位置(室外站點)和兩個不同的室內(nèi)環(huán)境(室內(nèi)站點1和室內(nèi)站點2)。
在第一個場景中,我們對使用多元數(shù)據(jù)集訓(xùn)練的通用AI模型和在特定地點訓(xùn)練的超本地化模型進(jìn)行了性能對比。下圖總結(jié)了在室外站點和室內(nèi)站點1實現(xiàn)的平均吞吐量??梢钥闯?,通用AI模型可在不同環(huán)境下工作,性能媲美超本地化模型。
	
	
通用模型 vs. 超本地化AI模型實現(xiàn)的平均吞吐量(Mbps)
隨后,我們對通用模型進(jìn)行調(diào)整,接入了來自室內(nèi)站點2的數(shù)據(jù)(即調(diào)整后的通用模型),然后在室內(nèi)站點2內(nèi)的4個不同位置測量用戶數(shù)據(jù)吞吐量。如圖所示,在所有場景中,通用模型與調(diào)整后的通用模型其性能差異在1%以內(nèi),表明一般通用模型在新場景中穩(wěn)健可靠。
	
通用 vs. 調(diào)整后的通用模型實現(xiàn)的平均吞吐量(Mbps)
相比波束網(wǎng)格反饋實現(xiàn)的吞吐量增益
AI增強CSF讓網(wǎng)絡(luò)能夠以更精確的波束模式進(jìn)行傳輸,從而提高接收信號強度,減少干擾,最終提供更高數(shù)據(jù)吞吐量。我們記錄了移動用戶在站點內(nèi)不同位置移動時,分別基于AI的反饋和基于波束網(wǎng)格的反饋(3GPP Type I)所實現(xiàn)的數(shù)據(jù)吞吐量,以此測量性能提升。
如下列條形圖所示,使用AI反饋實現(xiàn)了更高吞吐量,每個位置的吞吐量增益從15%到95%不等。在實際商用系統(tǒng)中,AI增強CSF下所觀察到的吞吐量增益將取決于諸多因素。然而,這一概念驗證的結(jié)果結(jié)合大量模擬研究表明,通過AI增強實現(xiàn)的吞吐量將始終高于通過傳統(tǒng)方法實現(xiàn)的吞吐量。
	
相比Type I反饋在室外和室內(nèi)測試中的增益百分比
網(wǎng)絡(luò)解碼器優(yōu)先序列學(xué)習(xí)
序列學(xué)習(xí)可以通過兩種方式進(jìn)行,終端編碼器優(yōu)先(device encoder-first)或網(wǎng)絡(luò)解碼器優(yōu)先(network decoder-first),二者在部署和標(biāo)準(zhǔn)化方面具有不同的影響。為了順應(yīng)3GPP對解碼器優(yōu)先方式與日俱增的關(guān)注,今年我們將原本的編碼器優(yōu)先演示替換成了解碼器優(yōu)先模型訓(xùn)練。
在MWC 2024上演示的編碼器優(yōu)先方式中,高通技術(shù)公司設(shè)計了編碼器模型,生成一組輸入/輸出對的訓(xùn)練數(shù)據(jù)集,并將數(shù)據(jù)集分享給諾基亞,后者隨之設(shè)計了可互操作解碼器。今年,通過解碼器優(yōu)先的方式,由諾基亞設(shè)計解碼器模型,生成并共享解碼器輸入/輸出對的訓(xùn)練數(shù)據(jù)集,以供高通技術(shù)公司設(shè)計可互操作編碼器。我們發(fā)現(xiàn),通過這兩種模式設(shè)計出的模型性能相當(dāng),差異在幾個百分點以內(nèi)。
總結(jié)
高通技術(shù)公司和諾基亞貝爾實驗室聯(lián)合展示的原型系統(tǒng)是AI增強通信從概念走向現(xiàn)實的關(guān)鍵一步。結(jié)果表明,通過多種學(xué)習(xí)模式,可以穩(wěn)健地顯著提升用戶體驗。隨著我們學(xué)習(xí)設(shè)計可互操作的多廠商AI系統(tǒng),將能夠?qū)崿F(xiàn)更大的容量、更高的可靠性和更低的能耗。
- 
                                高通
                                +關(guān)注
關(guān)注
78文章
7674瀏覽量
198096 - 
                                無線網(wǎng)絡(luò)
                                +關(guān)注
關(guān)注
6文章
1486瀏覽量
68303 - 
                                AI
                                +關(guān)注
關(guān)注
89文章
37431瀏覽量
292890 
原文標(biāo)題:展示無線網(wǎng)絡(luò)中可互操作的多廠商AI的價值
文章出處:【微信號:Qualcomm_China,微信公眾號:高通中國】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
具備光照魯棒和自適應(yīng)特征剔除的VSLAM前端框架
    
大模型在半導(dǎo)體行業(yè)的應(yīng)用可行性分析
首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手
VirtualLab Fusion應(yīng)用:光柵的魯棒性分析與優(yōu)化
NVIDIA發(fā)布Cosmos平臺,加速物理AI開發(fā)
高通CES 2025展示AI創(chuàng)新成果
NVIDIA推出加速物理AI開發(fā)的Cosmos世界基礎(chǔ)模型
自動駕駛中常提的魯棒性是個啥?
    
          
        
        
高通展示AI模型在不同物理環(huán)境下的魯棒性
                
 
           
            
            
                
            
評論