亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

FRNet:上下文感知的特征強化模塊

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:汪方野 ? 2022-11-24 11:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

論文標(biāo)題:Enhancing CTR Prediction with Context-Aware Feature Representation Learning

收錄會議:

SIGIR 2022

論文鏈接:

https://arxiv.org/abs/2204.08758

簡介與主要貢獻

目前大多數(shù)提升點擊率預(yù)估效果的模型主要是通過建模特征交互,但是如何設(shè)計有效的特征交互結(jié)構(gòu)需要設(shè)計人員對數(shù)據(jù)特點以及結(jié)構(gòu)設(shè)計等方面有很強的要求。目前的以建模特征交互為主的模型可以總結(jié)為三層范式:embedding layer, feature interaction layer, 以及 prediction layer。大多數(shù)論文改進集中在 Featrue interaction layer。

eab4ef38-6ba6-11ed-8abf-dac502259ad0.png

然而大部分的模型都存在一個問題:對于一個相同的特征,他們僅僅學(xué)到了一個固定的特征表示,而沒有考慮到這個特征在不同實例中不同上下文環(huán)境下的重要性。例如實例 1:{female, white, computer, workday} 和實例 2:{female, red, lipstick, workday} 中,特征 “female” 在這兩個實例中的重要性(對最后的預(yù)測結(jié)果的影響或者與其他特征的關(guān)系)是不同的,因此在輸入特征交互層之前我們就可以調(diào)整特征 “female” 的重要性或者是表示。

現(xiàn)有的工作已經(jīng)注意到了這個問題,例如 IFM、DIFM 等,但是他們僅僅在不同的實例中為相同特征賦予不同的權(quán)重(vector-level weights),導(dǎo)致不同實例中的相同特征的表示存在嚴格的線性關(guān)系,而這顯然是不太合理的。

另一方面,本文希望一個理想的特征細化模塊應(yīng)該識別重要的跨實例上下文信息,并學(xué)習(xí)不同上下文下顯著不同的表示。

給出了一個例子:{female, red, lipstick, workday} and {female, red, lipstick, weekend},在這兩個實例匯總,如果使用self-attention(在 CTR 中很常用的模塊,來識別特征之間的關(guān)系),那么因為 “female”和“red”以及“l(fā)ipstick”的關(guān)系比“workday”或者“weekend”的更加緊密,所以在兩個實例中,都會賦予“red”和“l(fā)ipstick”更大的注意力權(quán)重,而對“workday”或者“weekend”的權(quán)重都很小。但是用戶的行為會隨著“workday”到“weekend”的變化而變化。

因此本文提出了一個模型無關(guān)的模塊 Feature Refinement Network(FRNet)來學(xué)習(xí)上下文相關(guān)的特征表示,能夠使得相同的特征在不同的實例中根據(jù)與共現(xiàn)特征的關(guān)系以及完整的上下文信息進行調(diào)整。主要貢獻如下:

本文提出了一個名為 FRNet 的新模塊,它是第一個通過將原始和互補的特征表示與比特級權(quán)值相結(jié)合來學(xué)習(xí)上下文感知特征表示的工作。

FRNet 可以被認為是許多 CTR 預(yù)測方法的基本組成部分,可以插入在 embedding layer 之后,提高 CTR 預(yù)測方法的性能。

FRNet 表現(xiàn)出了極強集兼容性和有效性。

FRNet模塊

FRNet模型主要包含兩個模塊:

Information Extraction Unit (IEU):IEU 主要是來捕獲上下文相關(guān)的信息(Self-Attention unit)以及特征之間的關(guān)系信息(Contextual Information Extractor)來共同學(xué)習(xí)上下文相關(guān)的信息。再 Integration unit 進行融合。

Complementary Selection Gate (CSGate):CSGate 可以自適應(yīng)融合原始的和互補的特征表示,這種融合是在 bit-level 級別上的。

eadf05fc-6ba6-11ed-8abf-dac502259ad0.png

2.1 IEU

通過對以往模型的總結(jié),F(xiàn)RNet 主要通過學(xué)習(xí)特征間的關(guān)系(vector-level)以及上下文相關(guān)的信息(bit-level)的信息來學(xué)習(xí)最后的 context-aware representation。首先在在 IEU 中使用以下兩個模塊:

Self-Attention unit:self-attention 善于學(xué)習(xí)特征之間的關(guān)聯(lián)信息。FRNet 中使用了一個基本的 Self-attention 結(jié)構(gòu)。

eaef793c-6ba6-11ed-8abf-dac502259ad0.png

Contextual Information Extractor:在 motivation 部分提到過,self-attention 雖然擅長學(xué)習(xí)特征之間的關(guān)系,但是無法學(xué)習(xí)整體的上下文信息。所以特地使用了一個簡單的 DNN 模塊來提取不同實例的上下文信息。一個之間的理由是 DNN 可以關(guān)注到所有的特征信息(bit-level 信息)。

eb306492-6ba6-11ed-8abf-dac502259ad0.png

以上兩個單元分別學(xué)習(xí)了特征之間的關(guān)系,對輸入信息進行壓縮,保存了特征的上下文信息。接下來通過一個 Integration unit 對這兩部分信息進行融合:

eb405708-6ba6-11ed-8abf-dac502259ad0.png

可以看到每個實例只有一個上下文信息維度為 d,而經(jīng)過 self-attention 之后的關(guān)系信息維度是 f*d。所以融合之后相當(dāng)于賦予了每個特征上下文信息,而這部分信息僅僅 self-attention 是無法獲取的。

eb4e2900-6ba6-11ed-8abf-dac502259ad0.png

2.2 CSGate

從圖 2 中可以看到,本文使用了兩個 IEU 模型,其中 模塊學(xué)習(xí)了一組 complementary feature representaion , 學(xué)習(xí)了一組權(quán)重矩陣 ?;?、 以及原始的特征表示 ,F(xiàn)RNet 通過一個選擇門獲得了最后的 context-aware feature representation:

eb6e39c0-6ba6-11ed-8abf-dac502259ad0.png

公式主要分為兩部分:

Selected features:首先最后的結(jié)果并沒有完全舍棄原有的特征表示 E,但是也沒有像 ResNet 那樣將原始表示 E 直接保留,而是通過權(quán)重矩陣進行自適應(yīng)的選擇。

Complementary features:另一方面,如果僅僅使用原有的特征也會導(dǎo)致模型的表達能力受限。現(xiàn)有的一些方法也僅僅通過分配一個權(quán)重的方法來對特征進行調(diào)整。同時僅僅分配權(quán)重沒有考慮哪些 unselected information。在計算權(quán)重的時候使用可 sigmoid 方式,如果只使用選擇的一部分信息,會導(dǎo)致最后的信息

“不完整”(這里有點借鑒 GRU 以及 LSTM 的設(shè)計思路)。因為我們從互補矩陣 上選擇互補的信息。

實驗分析

實驗數(shù)據(jù)集:

3.1 整體分析

主要將 FRNet 應(yīng)用到 FM 模型中說明 FRNet 的效果。 這一部分說明了 FRNet 的效果和效率。

eb8f89cc-6ba6-11ed-8abf-dac502259ad0.png

3.2 兼容性分析

將 FRNet 應(yīng)用到其他模型中查看效果。 和其他模塊進行對比。

ebaf3a88-6ba6-11ed-8abf-dac502259ad0.png

3.3 超參數(shù)分析

對 IEU 模塊中的兩個超參數(shù)進行了分析:

DNN 的層數(shù)

Self-attention 的 attention size

ebcb93fe-6ba6-11ed-8abf-dac502259ad0.png

3.4 消融分析

通過消融實驗來說明 FRNet 中的設(shè)計都是有效的:

Learning context-aware feature representations是有效的。這里面所有的變式都對原始的特征進行改進,從而獲得了更好的效果(和#1對比)

Cross-feature relationships and contextual information 是必要的。#2中學(xué)習(xí)了特征之間的關(guān)系,超過了 #1。#13 和 #3 學(xué)習(xí)了 contextual information,分別超過了 #4 和 #2。

Assigning weights to original features 是合理的。#5 移除了權(quán)重信息,發(fā)現(xiàn) #10 和 #11 超過了 #5。同時 #6 和 #7 超過了 #1 也說明了相同的結(jié)論。

Learning bit-level weights is more effective than learning vector-level。(#7, #9, #11, #13)超過了對應(yīng)的(#6, #8, #10, #12),前者學(xué)習(xí)位級別的權(quán)重,而后者學(xué)習(xí)向量級別的權(quán)重。

Complementary Features 也是很關(guān)鍵的. 添加了輔助特征 之后 #10,#11 分別超過了 #6 和 #7。而且 #12 和 #13 分別超過了 #10 和 #11,說明給輔助特征分配權(quán)重也是必要的。

ebda0df8-6ba6-11ed-8abf-dac502259ad0.png

3.5 特征表示可視化分析

本文的 context-aware feature representation 總結(jié)起來就是一句話:相同的特征在不同的實例下應(yīng)該有不同的表示,而且不同實例下的表示不應(yīng)該有嚴格的線性關(guān)系。為了說明這一點,本文通過可視化的方式進行了說明。圖中都是同一個特征的原始表示和 1000 個不同實例中經(jīng)過 FRNet(或者其他模塊)之后的表示。

EGate 無法學(xué)習(xí)不同的表示;DIFM 學(xué)到的表示存在嚴格的線性關(guān)系。而 FRNet 學(xué)到的表示同時解決了這些問題。

#6 也是學(xué)習(xí)向量級別的權(quán)重,但是和 DIFM 比可以看到,使用 IEU 學(xué)到的權(quán)重可以使得特征空間更加分明。#6 中沒有添加輔助特征,所以可以看到還是存在線性關(guān)系的,而 FRNet-vec 中添加了輔助特征,消除了線性關(guān)系。

FRNet 是學(xué)習(xí) bit-level 的權(quán)重,而 FRNet-vec 是學(xué)習(xí)向量級別的權(quán)重,從分區(qū)的形狀可以看到 FRNet 的非線性特征更加顯著,即更加集中。

ebed139e-6ba6-11ed-8abf-dac502259ad0.png

3.6 IEU可視化分析

前面說到 Self-attention 中存在的問題:在大部分特征都相同的情況下,無法區(qū)分某些不重要的特征表示。在這個實驗中,選擇了兩個特征(只有一個特征是不同的,其他特征都相同),在經(jīng)過 self-attention 之后,獲得的表示都是相同的。 但是在經(jīng)過 CIE(DNN)壓縮之后,可以看到僅僅因為這一個特征的不同,最后獲得的表示是權(quán)重不同的,而這就是 self-attention 無法學(xué)習(xí)的上下文信息。最后 IEU 將上下文信息融合到 self-attention 中獲得了圖 8(c)的效果:兩個實例中的每一組對應(yīng)特征都有顯著的差別。

ec20e3fe-6ba6-11ed-8abf-dac502259ad0.png

3.7 bit-level權(quán)重分析

匯總分析了權(quán)重矩陣 在 100K 個實例中分布情況。通過均值可以看出來 57.8% 的概率選擇原始特征表示,而 42.2% 的概率選擇互補特征。

ec67155e-6ba6-11ed-8abf-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3622

    瀏覽量

    51591
  • CTR
    CTR
    +關(guān)注

    關(guān)注

    0

    文章

    39

    瀏覽量

    14462
  • dnn
    dnn
    +關(guān)注

    關(guān)注

    0

    文章

    61

    瀏覽量

    9429

原文標(biāo)題:FRNet:上下文感知的特征強化模塊

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    請問riscv中斷還需要軟件保存上下文和恢復(fù)嗎?

    以下是我拷貝的文檔里的說明,這個中斷處理還需要軟件來寫上下文保存和恢復(fù),在使用ARM核的單片機都不需要考慮這些的,使用過的小伙伴能解答嗎? 3.8. 進出中斷的上下文保存和恢復(fù) RISC-V架構(gòu)
    發(fā)表于 10-20 09:56

    HarmonyOSAI編程智能問答

    多線程? 指定上下文問答 在對話框中輸入@符號,或點擊上方@Add Context按鈕,可指定對單個或多個代碼文件進行分析。點擊圖標(biāo)開啟光標(biāo)上下文功能,該功能可識別光標(biāo)位置和選中的代碼片段,讓CodeGenie分析指定文件和選中的代碼片段。 本文主要從參考引用自Har
    發(fā)表于 09-03 16:17

    HarmonyOSAI編程編輯區(qū)代碼續(xù)寫

    利用AI大模型分析并理解開發(fā)者在代碼編輯區(qū)的上下文信息或自然語言描述信息,智能生成符合上下文的ArkTS或C++代碼片段。 使用約束 建議在編輯區(qū)內(nèi)已有較豐富上下文,能夠使模型對編程場景有一定
    發(fā)表于 08-21 15:43

    HarmonyOS AI輔助編程工具(CodeGenie)智能問答

    DeepSeek-R1智能體,快速體驗智能問答能力。 一、對話示例 在對話區(qū)域輸入需要查詢的問題,開始問答。示例如下: ArkTS如何實現(xiàn)多線程? 二、指定上下文問答 在對話框中輸入@符號,或點擊上方@Add
    發(fā)表于 08-15 11:07

    HarmonyOS AI輔助編程工具(CodeGenie)代碼續(xù)寫

    利用AI大模型分析并理解開發(fā)者在代碼編輯區(qū)的上下文信息或自然語言描述信息,智能生成符合上下文的ArkTS或C++代碼片段。 一、使用約束 建議在編輯區(qū)內(nèi)已有較豐富上下文,能夠使模型對編程場景有一定
    發(fā)表于 07-15 16:15

    鴻蒙NEXT-API19獲取上下文,在class中和ability中獲取上下文,API遷移示例-解決無法在EntryAbility中無法使用最新版

    摘要:隨著鴻蒙系統(tǒng)API升級至16版本(modelVersion5.1.1),多項API已廢棄。獲取上下文需使用UIContext,具體方法包括:在組件中使用getUIContext(),在類中使
    的頭像 發(fā)表于 07-01 10:57 ?508次閱讀
    鴻蒙NEXT-API19獲取<b class='flag-5'>上下文</b>,在class中和ability中獲取<b class='flag-5'>上下文</b>,API遷移示例-解決無法在EntryAbility中無法使用最新版

    Transformer架構(gòu)中編碼器的工作流程

    編碼器是Transformer體系結(jié)構(gòu)的基本組件。編碼器的主要功能是將輸入標(biāo)記轉(zhuǎn)換為上下文表示。與早期獨立處理token的模型不同,Transformer編碼器根據(jù)整個序列捕獲每個token的上下文
    的頭像 發(fā)表于 06-10 14:27 ?691次閱讀
    Transformer架構(gòu)中編碼器的工作流程

    UIAbility組件基本用法說明

    實例的上下文 let context = this.context; ...}} 在頁面中獲取UIAbility實例的上下文信息,包括導(dǎo)入依賴資源context模塊和在組件中定義一個context變量
    發(fā)表于 05-16 06:32

    S32K在AUTOSAR中使用CAT1 ISR,是否需要執(zhí)行上下文切換?

    如果我們在 AUTOSAR 中使用 CAT1 ISR,是否需要執(zhí)行上下文切換?另外,是否需要返回指令才能跳回到作系統(tǒng)?您有沒有帶有 CAT1 ISR 的 S32K3x4 微控制器的示例?
    發(fā)表于 03-27 07:34

    為什么深度學(xué)習(xí)中的Frame per Second高于OpenVINO?演示推理腳本?

    在 DL Workbench 上使用 Microsoft 通用對象上下文 (MS COCO) 數(shù)據(jù)集運行 YOLOv4 對象檢測模型,并獲得 50 - 60 FPS。 OpenVINO?演示推理腳本運行,并獲得更高的 FPS。
    發(fā)表于 03-06 07:27

    DeepSeek推出NSA機制,加速長上下文訓(xùn)練與推理

    的特性,專為超快速的長上下文訓(xùn)練和推理而設(shè)計。 NSA通過針對現(xiàn)代硬件的優(yōu)化設(shè)計,顯著加快了推理速度,并大幅度降低了預(yù)訓(xùn)練成本,同時保持了卓越的性能表現(xiàn)。這一機制在確保效率的同時,并未犧牲模型的準(zhǔn)確性或功能。 在廣泛的基準(zhǔn)測試、涉及長上下文的任務(wù)以及基于指令的推理場景中,
    的頭像 發(fā)表于 02-19 14:01 ?849次閱讀

    dbForge Studio for PostgreSQL:PostgreSQL數(shù)據(jù)庫多功能集成開發(fā)環(huán)境

    什么是 dbForge Studio for PostgreSQL?是一個集成工具包中包含 PostgreSQL 所需的一切 上下文感知SQL代碼補全、智能格式化和語法驗證 消除性能瓶頸的查詢優(yōu)化器
    的頭像 發(fā)表于 01-16 17:26 ?816次閱讀

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    的應(yīng)用。MAML算法通過二階優(yōu)化找到對任務(wù)變化敏感的模型參數(shù),實現(xiàn)了快速適應(yīng)。上下文學(xué)習(xí)則引入了注意力機制,使模型能夠根據(jù)當(dāng)前場景動態(tài)調(diào)整行為策略。在預(yù)訓(xùn)練-微調(diào)范式中,我們要注意任務(wù)表示的重要性:好的表示
    發(fā)表于 12-24 15:03

    Kaggle知識點:使用大模型進行特征篩選

    方法依賴于數(shù)據(jù)集中的樣本點進行統(tǒng)計推斷,而基于文本的方法需要描述性的上下文以更好地在特征和目標(biāo)變量之間建立語義關(guān)聯(lián)。這種方法利用了大型語言模型(LLMs)中豐富的語
    的頭像 發(fā)表于 12-03 01:06 ?2132次閱讀
    Kaggle知識點:使用大模型進行<b class='flag-5'>特征</b>篩選

    阿里通義千問發(fā)布Qwen2.5-Turbo開源AI模型

    近日,阿里通義千問官方宣布,經(jīng)過數(shù)月的精心優(yōu)化與改進,正式推出了Qwen2.5-Turbo開源AI模型。這款新模型旨在滿足社區(qū)對更長上下文長度的迫切需求,為用戶帶來更加便捷、高效的AI
    的頭像 發(fā)表于 11-19 18:07 ?1841次閱讀