亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

推薦系統(tǒng)概述/類型/應(yīng)用/優(yōu)勢/工作原理

NVIDIA英偉達(dá) ? 來源:NVIDIA英偉達(dá) ? 作者:NVIDIA英偉達(dá) ? 2022-08-19 14:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

推薦系統(tǒng)是機(jī)器學(xué)習(xí)的一類,它可使用數(shù)據(jù)來幫助預(yù)測、縮小范圍,并找到人們在呈指數(shù)級增長的選項(xiàng)中尋找的內(nèi)容。

什么是推薦系統(tǒng)?

推薦系統(tǒng)是一種人工智能或人工智能算法,通常與機(jī)器學(xué)習(xí)相關(guān),使用大數(shù)據(jù)向消費(fèi)者建議或推薦其他產(chǎn)品。這些推薦可以基于各種標(biāo)準(zhǔn),包括過去的購買、搜索歷史記錄、人口統(tǒng)計信息和其他因素。推薦系統(tǒng)非常有用,因?yàn)樗鼈兛梢詭椭脩袅私庾约簾o法自行找到的產(chǎn)品和服務(wù)。

推薦系統(tǒng)經(jīng)過訓(xùn)練,可使用收集的交互數(shù)據(jù)了解用戶和產(chǎn)品偏好、之前的決策和特征。其中包括展示、點(diǎn)擊、喜歡和購買。推薦系統(tǒng)由于能夠高度個性化地預(yù)測消費(fèi)者興趣和需求,因此受到內(nèi)容和產(chǎn)品提供商的喜愛。從書籍、視頻、健康課程到服裝,它們都可以促使消費(fèi)者選擇其感興趣的任何產(chǎn)品或服務(wù)。

推薦系統(tǒng)類型

雖然有許多推薦算法和技術(shù),但大多數(shù)都屬于以下廣泛類別:協(xié)作過濾、內(nèi)容過濾和上下文過濾。

協(xié)作過濾算法根據(jù)許多用戶的偏好信息(這是協(xié)作部分)推薦物品(這是過濾部分)。此方法使用用戶偏好行為的相似性,并鑒于用戶與物品之間的之前交互,推薦算法便可以學(xué)會預(yù)測未來交互。這些推薦系統(tǒng)基于用戶過去的行為構(gòu)建模型,例如之前購買的物品或給予這些物品的評分以及其他用戶的類似決策。相關(guān)理念在于,如果有些人過去也做出過類似的決策和購買,比如電影選擇,那么他們很有可能會同意未來的其他選擇。例如,如果協(xié)作過濾推薦系統(tǒng)了解您和另一個用戶在電影中有著相似的品味,它可能會向您推薦一部其了解的其他用戶已經(jīng)喜歡的電影。

相比之下,內(nèi)容過濾則使用物品的屬性或特征(這是內(nèi)容部分)來推薦類似于用戶偏好的其他物品。此方法基于物品和用戶特征的相似性,并鑒于用戶及其與之交互過的物品的信息(例如,用戶的年齡、餐廳的菜系、電影的平均評價),來模擬新互動的可能性。例如,如果內(nèi)容過濾推薦系統(tǒng)了解到您喜歡電影《電子情書》和《西雅圖夜未眠》,它可能會向您推薦另一部相同類別和/或演員陣容的電影,例如《跳火山的人》。

混合推薦系統(tǒng)結(jié)合了上述類型系統(tǒng)的優(yōu)勢,以便創(chuàng)建更全面的推薦系統(tǒng)。

上下文過濾包括推薦過程中用戶的背景信息。Netflix 在 NVIDIA GTC 大會上提出,將推薦內(nèi)容框定為上下文序列預(yù)測,以便作出更好的推薦。此方法使用一系列上下文用戶操作和當(dāng)前上下文來預(yù)測下一個操作的概率。在 Netflix 示例中,鑒于每位用戶的序列(用戶在觀看電影時的國家/地區(qū)、設(shè)備、日期和時間),他們訓(xùn)練出一個模型,來預(yù)測用戶接下來要觀看的內(nèi)容。

用例和應(yīng)用

電子商務(wù)與零售:個性化營銷

假設(shè)用戶已經(jīng)購買了一條圍巾。何不提供匹配的帽子,來完善外觀?此功能通常通過基于 AI 的算法實(shí)現(xiàn),如電子商務(wù)平臺(例如 Amazon、沃爾瑪、Target 等)的“搭配造型”或“您可能還喜歡”部分。

智能推薦系統(tǒng)能夠?qū)⒕W(wǎng)頁產(chǎn)品的轉(zhuǎn)換率平均提升 22.66%。

媒體與娛樂:個性化內(nèi)容

基于 AI 的推薦引擎可以分析個人的購買行為并檢測模式,這有助于為他們提供更有可能符合其興趣的內(nèi)容建議。這是 Google 和 Facebook 在推薦廣告時主動應(yīng)用的內(nèi)容,或 Netflix 在推薦電影和電視節(jié)目時在幕后所應(yīng)用的內(nèi)容。

個性化銀行

作為一款由數(shù)百萬人數(shù)字化消費(fèi)的大眾市場產(chǎn)品,銀行是推薦產(chǎn)品的首要選擇。了解客戶的詳細(xì)金融情況及其過去偏好,加上數(shù)千名類似用戶的數(shù)據(jù),這一點(diǎn)非常強(qiáng)大。

推薦系統(tǒng)的優(yōu)勢

推薦系統(tǒng)是推動個性化用戶體驗(yàn)、與客戶更深入互動以及零售、娛樂、醫(yī)療健康、金融等行業(yè)中功能強(qiáng)大的決策支持工具的關(guān)鍵組件。在某些大型商業(yè)平臺上,推薦系統(tǒng)所產(chǎn)生的收入占比高達(dá) 30%。推薦質(zhì)量每提高 1% 可以轉(zhuǎn)化為數(shù)十億美元的收入。

公司出于各種以下原因?qū)嵤┩扑]系統(tǒng):

提高保留率。通過持續(xù)迎合用戶和客戶偏好,企業(yè)更有可能將其保留為忠誠的訂閱者或購物者。如果客戶感覺到品牌真正理解他們且不僅是隨機(jī)地為其提供信息,他們更有可能保持忠誠度,并繼續(xù)在您的網(wǎng)站購物。

增加銷量。各種研究表明,“您可能還喜歡”準(zhǔn)確的產(chǎn)品推薦導(dǎo)致銷售收入增加 10% 到 50%。只需在購買確認(rèn)函中添加匹配的產(chǎn)品推薦內(nèi)容、收集廢棄電子購物車的信息、分享有關(guān)“客戶現(xiàn)在購買的產(chǎn)品的信息”以及分享其他買家的購買和評論,推薦系統(tǒng)策略就可以提高銷量。

幫助形成客戶習(xí)慣和趨勢。持續(xù)提供準(zhǔn)確且相關(guān)的內(nèi)容可以觸發(fā)線索,從而建立客戶的良好的習(xí)慣并影響其使用模式。

加快工作進(jìn)度。當(dāng)為進(jìn)一步研究所需資源和其他材料提供定制建議時,分析師和研究人員可以節(jié)省高達(dá) 80% 的時間。

提升購物車價值。擁有成千上萬商品出售的公司將面臨的挑戰(zhàn)是,需針對這種庫存提供硬編碼產(chǎn)品建議。通過使用各種過濾方法,這些電子商務(wù)巨頭可以找到合適時間,以建議客戶通過網(wǎng)站、電子郵件或其他方式想購買的新產(chǎn)品。

推薦系統(tǒng)的工作原理

推薦模型如何進(jìn)行推薦將取決于您擁有的數(shù)據(jù)類型。如果您只擁有過去發(fā)生的交互數(shù)據(jù),您可能有興趣使用協(xié)作過濾。如果您有描述用戶及其與之交互過的物品的數(shù)據(jù)(例如,用戶的年齡、餐廳的菜系、電影的平均評價),您可以通過添加內(nèi)容和上下文過濾,對當(dāng)前給定這些屬性下新交互的可能性進(jìn)行建模。

推薦矩陣分解

矩陣分解(MF)技術(shù)是許多熱門算法(包括詞嵌入和主題建模)的核心,已成為基于協(xié)作過濾的推薦中的主要方法。MF 可用于計算用戶的評分或交互中的相似度,以提供推薦。在下方簡單的用戶物品矩陣中,Ted 和 Carol 喜歡電影 B 和 C。Bob 喜歡電影 B。為了向 Bob 推薦電影,矩陣分解計算喜歡 B 的用戶也喜歡 C,因此 C 是 Bob 的一個可能建議。

4d7b3b6c-1f81-11ed-ba43-dac502259ad0.png

使用交替最小二乘法(ALS)算法的矩陣分解將稀疏用戶物品評價矩陣 u-by-i 近似為用戶和物品因素矩陣的兩個密集矩陣的乘積,其大小分別為 u × f 和 f × i(其中 u 表示用戶數(shù),i 表示物品數(shù),f 表示潛在特征數(shù))。因素矩陣表示算法嘗試發(fā)現(xiàn)的潛在特征或隱藏特征。一個矩陣試圖描述每個用戶的潛在特征或隱藏特征,另一個矩陣則試圖描述每部電影的潛在特性。對于每個用戶和每個物品,ALS 算法會迭代學(xué)習(xí)(f)數(shù)字,“factors”表示用戶或物品。在每一次迭代中,算法可以交替地修復(fù)一個因子矩陣并針對另一個矩陣進(jìn)行優(yōu)化,并且此過程會一直持續(xù)到其收斂。

4d92be7c-1f81-11ed-ba43-dac502259ad0.png

CuMF是基于 NVIDIA CUDA的矩陣因子庫,可優(yōu)化替代最小二乘法 (ALS) 方法,以求解大規(guī)模的 MF。CuMF 使用一系列技術(shù),以便在單個和多個 GPU 上更大限度地提高性能。這些技術(shù)包括利用 GPU 顯存層次結(jié)構(gòu)對稀疏數(shù)據(jù)進(jìn)行智能訪問、將數(shù)據(jù)并行與模型并行結(jié)合使用,以最大限度減少 GPU 之間的通信用度以及全新的拓?fù)涓兄筒⑿袦p少方案。

用于推薦的深度神經(jīng)網(wǎng)絡(luò)模型

人工神經(jīng)網(wǎng)絡(luò) (ANN) 存在不同變體,如下所示:

只將信息從一層向前饋送至下一層的人工神經(jīng)網(wǎng)絡(luò)稱為前饋神經(jīng)網(wǎng)絡(luò)。多層感知器 (MLP) 是一種前饋 ANN,由至少三層節(jié)點(diǎn)組成:輸入層、隱藏層和輸出層。MLP 是可應(yīng)用于各種場景的靈活網(wǎng)絡(luò)。

卷積神經(jīng)網(wǎng)絡(luò)是識別物體的圖像處理器。

時間遞歸神經(jīng)網(wǎng)絡(luò)是解析語言模式和序列數(shù)據(jù)的數(shù)學(xué)工具。

深度學(xué)習(xí) (DL) 推薦模型基于現(xiàn)有技術(shù)(例如,分解)而構(gòu)建,以便對變量和嵌入之間的交互進(jìn)行建模,從而處理類別變量。嵌入是表示實(shí)體特征的已學(xué)習(xí)的數(shù)字向量,因此相似的實(shí)體(用戶或物品)在向量空間中具有相似的距離。例如,協(xié)作過濾深度學(xué)習(xí)方法基于用戶和物品與神經(jīng)網(wǎng)絡(luò)的交互來學(xué)習(xí)用戶和物品嵌入(潛在特征向量)。

DL 技術(shù)還利用龐大且快速發(fā)展的新穎網(wǎng)絡(luò)架構(gòu)和優(yōu)化算法,對大量數(shù)據(jù)進(jìn)行訓(xùn)練,利用深度學(xué)習(xí)的強(qiáng)大功能進(jìn)行特征提取,并構(gòu)建更具表現(xiàn)力的模型。

當(dāng)前基于 DL 的推薦系統(tǒng)模型:DLRM、Wide and Deep (W&D)、神經(jīng)協(xié)作過濾 (NCF)、b變分自動編碼器 (VAE)和 BERT(適用于 NLP)構(gòu)成了 NVIDIA GPU 加速 DL 模型產(chǎn)品組合的一部分,并涵蓋推薦系統(tǒng)以外的許多不同領(lǐng)域的各種網(wǎng)絡(luò)架構(gòu)和應(yīng)用程序,包括圖像、文本和語音分析。這些模型專為使用 TensorFlow 和 PyTorch 進(jìn)行訓(xùn)練而設(shè)計和優(yōu)化。

神經(jīng)協(xié)作過濾

神經(jīng)協(xié)作過濾(NCF) 模型是一個神經(jīng)網(wǎng)絡(luò),可基于用戶和物品交互提供協(xié)作過濾。該模型從非線性角度處理矩陣分解。NCF TensorFlow 以一系列(用戶 ID、物品 ID)對作為輸入,然后分別將其輸入到矩陣分解步驟(其中嵌入成倍增加)并輸入到多層感知器 (MLP) 網(wǎng)絡(luò)中。

然后,將矩陣分解和 MLP 網(wǎng)絡(luò)的輸出將組合到一個密集層中,以預(yù)測輸入用戶是否可能與輸入物品交互。

4db01a44-1f81-11ed-ba43-dac502259ad0.png

用于協(xié)作過濾的變分自動編碼器

自動編碼器神經(jīng)網(wǎng)絡(luò)使用隱藏層中獲取的表征,來重建輸出層的輸入層。用于協(xié)作過濾的自動編碼器可以學(xué)習(xí)用戶物品矩陣的非線性表征,并可通過確定缺失值重建該矩陣。

用于協(xié)作過濾(VAE-CF)的NVIDIA GPU 加速變分自動編碼器是一種優(yōu)化的架構(gòu)實(shí)現(xiàn),首先在用于協(xié)作過濾的變分自動編碼器中介紹。VAE-CF 是一個神經(jīng)網(wǎng)絡(luò),可基于用戶和物品交互提供協(xié)作過濾。此模型的訓(xùn)練數(shù)據(jù)由用戶和物品之間的每次交互的用戶項(xiàng) ID 對組成。

模型包含兩部分:編碼器和解碼器。編碼器是一個前饋全連接神經(jīng)網(wǎng)絡(luò),可將輸入向量(包含特定用戶的交互)轉(zhuǎn)換為 n 維變分分布。這種變分分布用于獲取用戶(或嵌入)的潛在特征表征。然后,將這種潛在表征輸入到解碼器中,解碼器也是一個與編碼器結(jié)構(gòu)相似的前饋網(wǎng)絡(luò)。結(jié)果為特定用戶的物品交互概率向量。

4dd569a2-1f81-11ed-ba43-dac502259ad0.png

上下文序列學(xué)習(xí)

時間遞歸神經(jīng)網(wǎng)絡(luò)(RNN) 是具有記憶或反饋回路的一類神經(jīng)網(wǎng)絡(luò),允許其更好地識別數(shù)據(jù)中的模式。RNN 可以解決處理上下文和序列(例如自然語言處理)的艱巨任務(wù),還可用于上下文序列推薦。序列學(xué)習(xí)與其他任務(wù)的區(qū)別是,序列學(xué)習(xí)需要使用具有主動數(shù)據(jù)存儲的模型(例如 LSMS(長短期記憶模型)或 GRU 門控循環(huán)單元)來學(xué)習(xí)輸入數(shù)據(jù)的時間依賴關(guān)系。這種對過往輸入的記憶對于順利進(jìn)行序列學(xué)習(xí)至關(guān)重要。Transformer 深度學(xué)習(xí)模型,如 BERT(Transformer 雙向編碼器表征模型),是 RNN 的一個替代方案,它應(yīng)用了一種注意力技術(shù) – 通過將注意力集中在前后最相關(guān)的詞上來解析一個句子?;?Transformer 的深度學(xué)習(xí)模型不需要按順序處理連續(xù)數(shù)據(jù),與 RNN 相比,可以在 GPU 上實(shí)現(xiàn)更多的并行化,并減少訓(xùn)練時間。

4de2edac-1f81-11ed-ba43-dac502259ad0.png

在 NLP 應(yīng)用中,會使用詞嵌入等技術(shù)將輸入文本轉(zhuǎn)換為詞向量。借助詞嵌入,可將句子中的每個詞翻譯成一組數(shù)字,然后再輸入到RNN變體、Transformer 或BERT中,以理解上下文。神經(jīng)網(wǎng)絡(luò)在訓(xùn)練自身時,這些數(shù)字會隨時發(fā)生變化,編碼每個單詞的語義和上下文信息等獨(dú)特屬性,這意味著,相似詞在此數(shù)字空間中彼此接近,不同詞則相距遙遠(yuǎn)。這些 DL 模型為特定語言任務(wù)(例如下一詞語預(yù)測和文本摘要)提供適當(dāng)?shù)妮敵?,這些任務(wù)用于生成輸出序列。

4e0906ea-1f81-11ed-ba43-dac502259ad0.png

基于會話上下文的推薦將深度學(xué)習(xí)和 NLP 序列建模方面的進(jìn)步應(yīng)用于推薦內(nèi)容?;谟脩魰捴械氖录蛄杏?xùn)練的 RNN 模型(例如,查看的產(chǎn)品、數(shù)據(jù)和交互時間)會學(xué)習(xí)預(yù)測會話中的下一個物品。會話中的用戶物品交互類似于句子中的詞嵌入。例如,在將觀看的電影輸入 RNN 變體(例如 LSTM、GRU 或 Transformer)之前,需要將其轉(zhuǎn)換為一組數(shù)字,以理解上下文。

Wide & Deep

Wide & Deep是指使用并行處理兩個部分(Wide 模型和 Deep 模型)的輸出,并對其輸出進(jìn)行求和以創(chuàng)建交互概率的網(wǎng)絡(luò)類別。Wide 模型是特征及其轉(zhuǎn)換的一個廣義線性模型。Deep 模型是一個密集神經(jīng)網(wǎng)絡(luò) (DNN),由 5 個隱藏 MLP 層(包含 1024 個神經(jīng)元)組成,每個層都從密集特征嵌入開始。分類變量會嵌入到連續(xù)向量空間中,然后通過學(xué)習(xí)的嵌入或用戶確定的嵌入輸入到 DNN 中。

為何模型能夠成功執(zhí)行推薦任務(wù),原因之一是提供數(shù)據(jù)中的兩種學(xué)習(xí)模式:“deep”和“shallow”。復(fù)雜的非線性 DNN 能夠?qū)W習(xí)數(shù)據(jù)中豐富的關(guān)系表征,并可通過嵌入來推廣到相似的物品,但需要查看相關(guān)關(guān)系的多種示例才能做得更好。另一方面,線性部分能夠“記住”可能僅在訓(xùn)練集內(nèi)發(fā)生幾次的簡單關(guān)系。

綜合來說,這兩種表征信道通常比單種表征信道提供更多的建模能力。NVIDIA 與許多使用離線和在線指標(biāo)報告改進(jìn)的行業(yè)合作伙伴合作,他們使用 Wide & Deep 替代傳統(tǒng)機(jī)器學(xué)習(xí)模型。

4e2409fe-1f81-11ed-ba43-dac502259ad0.png

DLRM

DLRM是一種基于 DL 的模型,適用于推薦,由 Facebook 研究院提出。它旨在同時使用推薦系統(tǒng)訓(xùn)練數(shù)據(jù)中通常呈現(xiàn)的分類輸入和數(shù)值輸入。要處理分類數(shù)據(jù),嵌入層將每個類別映射到密集表征,然后再將其輸入到多層感知器 (MLP)。數(shù)值特征可直接輸入到 MLP。

在下一級別中,通過在所有嵌入向量對和已處理的密集特征之間取點(diǎn)積,顯式計算不同特征的二次交互。并將這些成對交互輸入到頂層 MLP 中,以計算用戶和物品對之間的交互概率。

4e52d2d4-1f81-11ed-ba43-dac502259ad0.png

與其他基于 DL 的推薦方法相比,DLRM 有兩種差異。首先,它可以對特征交互進(jìn)行顯式計算,同時將交互順序限制為成對交互。其次,DLRM 將每個嵌入式特征向量(對應(yīng)分類特征)視為一個單元,而其他方法(如 Deep 和 Cross)則將特征向量中的每個元素視為應(yīng)生成不同交叉項(xiàng)目的新單元。這些設(shè)計選項(xiàng),有助于降低計算/內(nèi)存成本,同時保持競爭的準(zhǔn)確性。

DLRM 是NVIDIAMerlin的一部分,后者是一個基于 DL 所構(gòu)建的高性能推薦系統(tǒng)框架,我們下面將介紹這一框架。

為何推薦系統(tǒng)在 GPU 上表現(xiàn)更出色

推薦系統(tǒng)能夠提高消費(fèi)者在熱門平臺上的參與度。隨著數(shù)據(jù)規(guī)模變得越來越大(數(shù)千萬到數(shù)十億的示例),DL 技術(shù)正展現(xiàn)出傳統(tǒng)方法所不具備的優(yōu)勢。因此,更復(fù)雜的模型與數(shù)據(jù)的快速增長相結(jié)合,提高了計算資源的標(biāo)準(zhǔn)。

許多機(jī)器學(xué)習(xí)算法的基礎(chǔ)數(shù)學(xué)運(yùn)算通常是矩陣乘法。這些類型的運(yùn)算具有高度并行性,并且可以使用 GPU 大幅加速。

一個由數(shù)百個核心組成的 GPU,可以并行處理數(shù)千個線程。由于神經(jīng)網(wǎng)絡(luò)由大量相同的神經(jīng)元構(gòu)建而成,因此本質(zhì)上具有高度并行性。這種并行性自然地映射到 GPU,GPU 的性能比僅依賴 CPU 的平臺高 10 倍。因此,GPU 已成為訓(xùn)練基于神經(jīng)網(wǎng)絡(luò)的大型復(fù)雜系統(tǒng)的首選平臺,推理運(yùn)算的并行性質(zhì)也有助于在 GPU 上執(zhí)行。

4e63931c-1f81-11ed-ba43-dac502259ad0.jpg

為何選擇 NVIDIA Merlin 推薦系統(tǒng)應(yīng)用程序框架?

大型推薦系統(tǒng)解決方案的性能存在多種挑戰(zhàn),包括大型數(shù)據(jù)集、復(fù)雜的數(shù)據(jù)預(yù)處理和特征工程流程,以及大量重復(fù)實(shí)驗(yàn)。為滿足大規(guī)模 DL 推薦系統(tǒng)訓(xùn)練和推理的計算需求,推薦您使用 GPU 解決方案,可為您提供快速的特征工程和高訓(xùn)練吞吐量(以實(shí)現(xiàn)快速實(shí)驗(yàn)和生產(chǎn)再訓(xùn)練)。它們還可為您提供低延遲、高吞吐量的推理。

NVIDIA Merlin 是一個開源應(yīng)用程序框架和生態(tài)系統(tǒng),旨在促進(jìn)從實(shí)驗(yàn)到生產(chǎn)的推薦系統(tǒng)開發(fā)的所有階段,并由 NVIDIA GPU 加速。

該框架可為推薦數(shù)據(jù)集中常見的運(yùn)算符提供快速的特征工程和預(yù)處理,以及為其提供多個基于深度學(xué)習(xí)的典型推薦模型的高訓(xùn)練吞吐量。其中包括 Wide & Deep、Deep Cross Networks、DeepFM 和 DLRM,這些模型可實(shí)現(xiàn)快速實(shí)驗(yàn)和生產(chǎn)再訓(xùn)練。對于生產(chǎn)部署,Merlin 還提供低延遲、高吞吐量和生產(chǎn)推理。這些組件相結(jié)合,為在 GPU 上的訓(xùn)練和部署深度學(xué)習(xí)推薦系統(tǒng)模型提供端到端框架,該框架既易于使用,又具有高性能。

4e779646-1f81-11ed-ba43-dac502259ad0.png

Merlin 還包括用于構(gòu)建基于深度學(xué)習(xí)的推薦系統(tǒng)的工具,并可提供比傳統(tǒng)方法更準(zhǔn)確的預(yù)測。管線的每個階段都經(jīng)過優(yōu)化,可支持?jǐn)?shù)百 TB 的數(shù)據(jù),您可通過易于使用的 API 訪問所有這些數(shù)據(jù)。

NVTabular 通過 GPU 加速特征轉(zhuǎn)換和預(yù)處理來縮短數(shù)據(jù)準(zhǔn)備時間。

HugeCTR 是一種 GPU 加速深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練框架,旨在跨多個 GPU 和節(jié)點(diǎn)分發(fā)訓(xùn)練。它支持模型并行嵌入表和數(shù)據(jù)并行神經(jīng)網(wǎng)絡(luò)及其變體,例如Wide and Deep Learning (WDL)、Deep Cross Network (DCN)、DeepFM和深度學(xué)習(xí)模型 (DLRM)。

4e8e3cb6-1f81-11ed-ba43-dac502259ad0.png

NVIDIA Triton推理服務(wù)器和 NVIDIA TensorRT加速 GPU 上的生產(chǎn)推理,以便實(shí)現(xiàn)特征轉(zhuǎn)換和神經(jīng)網(wǎng)絡(luò)執(zhí)行。

NVIDIA GPU 加速的端到端數(shù)據(jù)科學(xué)和 DL

NVIDIA Merlin 基于 NVIDIA RAPIDS構(gòu)建。通過基于 CUDA 構(gòu)建的 RAPIDS開源軟件庫套件,您能夠完全在 GPU 上執(zhí)行端到端數(shù)據(jù)科學(xué)和分析流程,同時仍然使用 Pandas 和 Scikit-Learn API 等熟悉的界面。

4e9ef420-1f81-11ed-ba43-dac502259ad0.png

NVIDIA GPU 加速的深度學(xué)習(xí)框架

GPU 加速深度學(xué)習(xí)框架能夠?yàn)樵O(shè)計和訓(xùn)練自定義深度神經(jīng)網(wǎng)絡(luò)帶來靈活性,并為 Python 和 C/C++ 等常用編程語言提供編程接口。MXNet、PyTorch、TensorFlow 等廣泛使用的深度學(xué)習(xí)框架依賴于 NVIDIA GPU 加速庫,能夠提供高性能的多 GPU 加速訓(xùn)練。

4eba5e90-1f81-11ed-ba43-dac502259ad0.png

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5449

    瀏覽量

    108682
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49563

    瀏覽量

    259795
  • 推薦系統(tǒng)
    +關(guān)注

    關(guān)注

    1

    文章

    44

    瀏覽量

    10383

原文標(biāo)題:NVIDIA 大講堂 | 什么是推薦系統(tǒng)?

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    土壓力計的類型工作原理

    土壓力計是測量土體內(nèi)部應(yīng)力或結(jié)構(gòu)與土體接觸壓力的專用傳感器,廣泛應(yīng)用于水利工程、土木建筑、交通隧道等領(lǐng)域。了解其類型劃分和工作原理,對正確選擇和使用儀器至關(guān)重要。一、儀器類型與適用場景根據(jù)測量對象
    的頭像 發(fā)表于 10-30 15:40 ?136次閱讀
    土壓力計的<b class='flag-5'>類型</b>與<b class='flag-5'>工作原理</b>

    深入了解接觸式調(diào)壓器的幾種類型工作原理

    接觸式調(diào)壓器是一種廣泛應(yīng)用于工業(yè)、電力、新能源及科研等領(lǐng)域的電力設(shè)備,其核心功能是通過物理接觸方式調(diào)節(jié)輸出電壓,以滿足不同場景下的電壓需求。本文將詳細(xì)介紹接觸式調(diào)壓器的類型及其工作原理,為相關(guān)領(lǐng)域的人員提供參考。
    的頭像 發(fā)表于 09-17 17:25 ?511次閱讀

    機(jī)器人關(guān)節(jié)模組:類型、設(shè)計、工作原理及應(yīng)用

    機(jī)器人關(guān)節(jié)模組是一種用于驅(qū)動機(jī)器人關(guān)節(jié)轉(zhuǎn)動、輪子旋轉(zhuǎn)或控制夾爪運(yùn)動的裝置。根據(jù)負(fù)載需求,機(jī)器人關(guān)節(jié)模組有多種類型。負(fù)載通常涉及扭矩、精度、操作速度、功耗等因素。機(jī)器人關(guān)節(jié)模組的工作原理是將能量轉(zhuǎn)化為物理運(yùn)動,通常產(chǎn)生線性或旋轉(zhuǎn)運(yùn)動。
    的頭像 發(fā)表于 08-29 14:22 ?2112次閱讀
    機(jī)器人關(guān)節(jié)模組:<b class='flag-5'>類型</b>、設(shè)計、<b class='flag-5'>工作原理</b>及應(yīng)用

    氧化鋅避雷器工作原理優(yōu)勢特點(diǎn)

    氧化鋅避雷器是現(xiàn)代電力系統(tǒng)中廣泛應(yīng)用的關(guān)鍵過電壓保護(hù)設(shè)備,其核心是氧化鋅(ZnO)電阻片。其工作原理優(yōu)勢特點(diǎn)如下: 工作原理 1. ?非線性伏安特性:氧化鋅電阻片的核心在于其獨(dú)特的高
    的頭像 發(fā)表于 07-10 16:37 ?937次閱讀

    電壓傳感器是什么?工作原理是哪樣

    傳感器廣泛應(yīng)用于電力系統(tǒng)、工業(yè)自動化、電子設(shè)備測試、新能源汽車等領(lǐng)域,用于監(jiān)測電壓變化、保護(hù)電路安全、優(yōu)化系統(tǒng)性能等。 電壓傳感器的工作原理 電壓傳感器的工作原理根據(jù)其
    的頭像 發(fā)表于 06-13 18:00 ?1749次閱讀

    電動調(diào)壓器的工作原理

    電壓調(diào)壓器是一種用于控制電路中電壓的裝置,其工作原理類型而異,以下是幾種常見電壓調(diào)壓器的工作原理
    的頭像 發(fā)表于 05-12 13:46 ?759次閱讀
    電動調(diào)壓器的<b class='flag-5'>工作原理</b>

    液壓伺服系統(tǒng)工作原理液及優(yōu)缺點(diǎn)

    液壓伺服系統(tǒng)是一種通過調(diào)節(jié)液壓元件的流量和壓力來實(shí)現(xiàn)對負(fù)載的位置、速度和力的精確控制的系統(tǒng)。以下是對其工作原理及優(yōu)缺點(diǎn)的詳細(xì)分析: 一、工作原理 液壓伺服
    的頭像 發(fā)表于 03-16 16:43 ?1089次閱讀
    液壓伺服<b class='flag-5'>系統(tǒng)</b><b class='flag-5'>工作原理</b>液及優(yōu)缺點(diǎn)

    陀螺傳感器激磁工作原理有哪些不用類型的激磁方式

    陀螺傳感器作為精確測量角速度的關(guān)鍵元件,其激磁工作原理至關(guān)重要。不同類型的陀螺儀擁有不同的激磁方式,但核心目標(biāo)一致:為敏感結(jié)構(gòu)提供持續(xù)的、穩(wěn)定的激勵,使其能夠?qū)撬俣鹊淖兓龀鲮`敏反應(yīng)。
    的頭像 發(fā)表于 03-14 16:25 ?623次閱讀

    換熱器的工作原理是什么 不同類型換熱器的優(yōu)缺點(diǎn)

    流體。這個過程中,流體之間不發(fā)生直接接觸,而是通過間壁進(jìn)行熱量交換。具體來說,高溫物體的熱量總是向低溫物體傳遞,直到兩者達(dá)到熱平衡。 不同類型的換熱器在工作原理上可能略有差異,但總體上都是利用這一基本原理進(jìn)
    的頭像 發(fā)表于 01-31 15:06 ?2840次閱讀

    氣壓傳感器的工作原理和主要類型

    都在默默地為我們的生活和工作提供著重要的支持。本文將深入探討氣壓傳感器的發(fā)展歷程、工作原理、主要類型以及在各個領(lǐng)域的廣泛應(yīng)用。
    的頭像 發(fā)表于 12-16 14:24 ?3534次閱讀

    光伏發(fā)電儲能系統(tǒng)工作原理 光伏發(fā)電與儲能系統(tǒng)優(yōu)勢對比

    光伏發(fā)電儲能系統(tǒng)工作原理 1. 光伏發(fā)電原理 光伏發(fā)電系統(tǒng)主要由太陽能電池板(光伏電池)、控制器、逆變器和支架等組成。其工作原理是利用太陽能電池板將太陽光能直接轉(zhuǎn)換為電能。 太陽能電
    的頭像 發(fā)表于 12-06 14:55 ?3966次閱讀

    不同傳感器類型工作原理 傳感器類型與數(shù)據(jù)采集系統(tǒng)的關(guān)系

    一、不同傳感器類型工作原理 溫度傳感器 工作原理:基于熱敏元件,如熱電阻和熱敏電阻。當(dāng)溫度發(fā)生變化時,熱敏元件的電阻值也相應(yīng)變化,通過測量電阻值的變化可以推算出溫度。 濕度傳感器 工作原理
    的頭像 發(fā)表于 12-06 14:18 ?1730次閱讀

    發(fā)電機(jī)的基本工作原理 發(fā)電機(jī)交流和直流工作原理

    generator)的主要部件包括轉(zhuǎn)子(rotor)、定子(stator)和勵磁系統(tǒng)。以下是其工作原理的詳細(xì)步驟: 勵磁系統(tǒng) :勵磁系統(tǒng)為轉(zhuǎn)子提供直流電,產(chǎn)生磁場。這個磁場可以是永磁
    的頭像 發(fā)表于 11-29 09:17 ?6387次閱讀

    增量式編碼器:工作原理、應(yīng)用與優(yōu)勢解析

    深入探討增量式編碼器的工作原理、應(yīng)用領(lǐng)域及其顯著優(yōu)勢,幫助您更好地理解這一技術(shù)的重要性。 工作原理揭秘 增量式編碼器通過檢測旋轉(zhuǎn)軸的相對位置變化來輸出脈沖信號。其核心部件包括光源(如LED)、光柵盤和光電接收器。
    的頭像 發(fā)表于 11-27 08:57 ?3789次閱讀
    增量式編碼器:<b class='flag-5'>工作原理</b>、應(yīng)用與<b class='flag-5'>優(yōu)勢</b>解析

    深入解析激光焊縫跟蹤器的工作原理與應(yīng)用優(yōu)勢

    解析激光焊縫跟蹤器的工作原理與應(yīng)用優(yōu)勢。 ??一、激光焊縫跟蹤器的工作原理 ??創(chuàng)想智控激光焊縫跟蹤器的核心功能是實(shí)時檢測焊縫位置并引導(dǎo)焊接設(shè)備進(jìn)行精準(zhǔn)焊接。其工作流程通常包括以下幾個
    的頭像 發(fā)表于 11-26 15:48 ?860次閱讀
    深入解析激光焊縫跟蹤器的<b class='flag-5'>工作原理</b>與應(yīng)用<b class='flag-5'>優(yōu)勢</b>