亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于Entity-Linking及基于Retreval的方法

深度學(xué)習(xí)自然語言處理 ? 來源:圓圓的算法筆記 ? 作者:圓圓的算法筆記 ? 2022-07-13 14:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NLP預(yù)訓(xùn)練模型需要非常大的參數(shù)量以及非常多的語料信息,這些都是希望能盡可能多的記住文本中的知識,以此提升下游任務(wù)效果。相比而言,直接從數(shù)據(jù)庫、知識圖譜、搜索引擎等引入外部知識進行知識增強,是一種更直接、節(jié)省資源的方法。知識增強也是NLP未來的重要發(fā)展方向,由于在NLU這種需要理解、常識性知識的領(lǐng)域,知識增強更加重要。

ACL 2022的一篇Tutorial:Knowledge-Augmented Methods for Natural Language Understanding,對知識增強在NLU中的方法進行了詳細(xì)匯總。本文整理了這篇Tutorial中重點介紹知識增強模型的10篇工作,包括基于Entity-Linking的方法以及基于Retreval的方法兩大類。

Entity-Linking based methodsERNIE: Enhanced Language Representation with Informative Entities(ACL 2019)

ERNIE利用知識圖譜中的實體信息給BERT模型引入外部知識,提升預(yù)訓(xùn)練語言模型效果。模型主要包括Text-Encoder和Knowledge-Encoder兩個部分。在輸入部分,除了原始的文本維度embedding,還會引入實體embedding,實體embedding利用TrasE算法基于知識圖譜進行預(yù)訓(xùn)練。Text-Encoder和BERT相同,對原始的文本輸入進行處理生成文本表示。Knowledge-Encoder將文本和對應(yīng)位置的entity表示進行融合,得到實體知識增強的表示。Knowledge-Encoder的整個計算過程如下圖,首先利用兩個獨立的multi-head attention生成文本word embedding和entity embedding,再將實體和對應(yīng)位置的文本進行對齊,輸入到融合層,再通過融合層生成新的word embedding和entity embedding,這樣循環(huán)多層得到最終結(jié)果。

eeee622a-026d-11ed-ba43-dac502259ad0.png

在預(yù)訓(xùn)練階段,ERNIE增加了一個entity denoising的任務(wù):mask掉或者隨機打亂某些word和entity之間的對齊關(guān)系,讓模型去預(yù)測。這種預(yù)訓(xùn)練任務(wù)起到了將實體知識融入到語言模型中的作用。

KEAR: Augmenting Self-Attention with External Attention(IJCAI 2022)

為了讓Transformer存儲更多的知識來提升下游任務(wù)效果,一般都會采用更大的模型尺寸、更多的訓(xùn)練數(shù)據(jù)。而KEAR提出引入外部知識的方法,這樣即使在中等尺寸的Transformer上也能由于這些外部知識增益帶來顯著效果提升。

本文主要關(guān)注QA任務(wù),給定一個問題和一組答案,從中選擇正確答案。模型的結(jié)構(gòu)比較簡單,將輸入的文本,以及從各種外部知識庫中檢索到和原始輸入相關(guān)的知識信息,都以文本的形式拼接到一起,輸入到Transformer中。

外部知識主要來源于三個渠道,第一個渠道是知識圖譜,從問題和答案中提取entity,然后從ConcepNet中提取包含對應(yīng)entity的三元組;第二個渠道是從字典中檢索相應(yīng)實體的描述性定義,來彌補模型對于低頻詞的embedding可能學(xué)的不好的情況;第三個渠道是從訓(xùn)練數(shù)據(jù)中檢索和當(dāng)前輸入相關(guān)的信息作為補充,緩解模型由于對某些訓(xùn)練數(shù)據(jù)中的信息記憶不全導(dǎo)致的信息缺失。

ef101f00-026d-11ed-ba43-dac502259ad0.png

Entities as Experts: Sparse Memory Access with Entity Supervision(2020,EaE)

這篇文章在Transformer模型中引入了一個Entity Memory Layer組件,用來從已經(jīng)訓(xùn)練好的entity embedding memory中引入和輸入相關(guān)的外部知識。Entity Memory Layer模塊可以非常靈活的嵌套在Transformer等序列模型中。

具體做法為,首先要有一個已經(jīng)訓(xùn)練好的entity embedding存儲起來。在Transformer的一層輸出結(jié)果后,對于輸入文本中的每個entity mention,使用這個entity span的起始位置和終止位置的embedding拼接+全連接得到一個虛擬的entity embedding。利用這個虛擬的entity embedding去entity embedding memory中,利用內(nèi)積檢索出最相關(guān)的top K個實體的embedding,最后加權(quán)融合,得到這個entity對應(yīng)的實體表示,公式如下。這個表示會和Transformer上層輸入融合,作為下一層的輸入。

ef54f6c0-026d-11ed-ba43-dac502259ad0.png

預(yù)訓(xùn)練任務(wù)除了MLM外,還包括Mention Detection和Entity Linking兩個優(yōu)化任務(wù)。其中,Mention Detection用來預(yù)測每個實體的start和end,采用BIO classification的方式;而Entity Limking任務(wù)主要為了拉近Transformer生成的虛擬entity embedding和其對應(yīng)的entity embedding memory的距離。

ef84dec6-026d-11ed-ba43-dac502259ad0.png

FILM: Adaptable and Interpretable Neural Memory Over Symbolic Knowledge(NAACL 2021)

FILM在上一篇文章中的entity embedding memory基礎(chǔ)上,引入了Fact Memory模塊,entity embedding layer部分的實現(xiàn)和EaE中相同。

Fact Memory模塊和Entity Memory使用的是相同的embedding。Fact Memory模塊由Keys和Values兩個部分組成,Keys對應(yīng)的是知識圖譜中的subject和relation,而Values是同一個subject和relation下的所有object的集合。使用subject和relation的表示拼接轉(zhuǎn)換得到每個Keys的embedding表示。當(dāng)需要預(yù)測輸入文本被mask部分的答案時,使用Transformer在mask位置生成的embedding作為query,在Fact Memory中和各個Keys的embedding做內(nèi)積,檢索相關(guān)的object。這些檢索出的object信息的embedding會和被mask部分的embedding融合,用于進行答案的預(yù)測。

下圖是一個例子,被mask部分的embedding包含了句子中的關(guān)鍵信息,利用該embedding在fact memory中可以實現(xiàn)相關(guān)信息的檢索,對于QA有比較大的幫助。

efd36ed8-026d-11ed-ba43-dac502259ad0.png

K-BERT: Enabling Language Representation with Knowledge Graph(2019)

K-BERT首先將輸入文本的實體識別出來,然后去知識圖譜中搜索和該實體相關(guān)的子圖,用這個子圖插入到輸入句子的對應(yīng)位置,形成一個句子樹。比如下面的圖中,Tim Cook從知識圖譜檢索出是蘋果CEO,就將對應(yīng)文本插入到Tim Cook后面的位置。

f003fdd2-026d-11ed-ba43-dac502259ad0.png

一個核心問題在于,新引入的知識圖譜文本會影響原來輸入句子的語義。另外,文中采用的是將知識圖譜引入的文本直接插入到對應(yīng)實體后面,其他文本位置對應(yīng)后移,如何設(shè)置position embedding也是個問題。如果直接按照順序設(shè)定position embedding,會讓原本距離比較近的單詞之間的position embedding變遠(yuǎn),也會影響原始語義。為了解決這個問題,插入的知識圖譜文本不會影響原來句子各個單詞的posistion編號。同時引入了Visible Matrix,讓原始輸入中和引入的知識信息不相關(guān)的文本在計算attention時不可見。通過這種方式,引入的知識信息只會直接影響與其相關(guān)的實體的表示生成,不會直接影響原始句子中其他文本的表示生成。引入的知識通過影響對應(yīng)實體的表示生成,間接影響其他文本的表示生成過程。

2

Retrieval based methodsDense Passage Retrieval for Open-Domain Question Answering(2020)

這篇文章采用的是一種最基礎(chǔ)的基于檢索的QA解決方法。離線訓(xùn)練一個passage encoder和一個question encoder,目標(biāo)是讓question和包含其答案的passage的表示的內(nèi)積最大。訓(xùn)練過程中的負(fù)樣本構(gòu)造采用了隨機采樣、BM25和question高相關(guān)性但不包含答案的passage、訓(xùn)練樣本中包含答案但不包含當(dāng)前question答案的passage三種方法。在在線使用時,通過計算question和passage表示內(nèi)積的方式,檢索出高相關(guān)性的passage解析出問題答案。

REALM: Retrieval-Augmented Language Model Pre-Training(2020)

REALM在預(yù)訓(xùn)練語言模型中引入了外部知識檢索模塊,讓模型在進行預(yù)測時,不僅能夠根據(jù)自身參數(shù)保存的信息,也能根據(jù)豐富的外部信息給出答案。整個預(yù)測過程包括兩個部分:檢索階段和預(yù)測階段。檢索階段根據(jù)輸入句子從外部知識中檢索相關(guān)的文檔;預(yù)測階段根據(jù)輸入句子以及檢索到的信息進行最終結(jié)果的預(yù)測。

在檢索階段,跟上一篇文章類似,使用預(yù)訓(xùn)練的兩個BERT的表示計算內(nèi)積求得輸入和各個文檔的相關(guān)性,并進行高相關(guān)文檔的檢索。檢索到的文檔和原始輸入拼接到一起,輸入到BERT模型中進行結(jié)果預(yù)測。

f01f3ca0-026d-11ed-ba43-dac502259ad0.png

RETRO: Improving language models by retrieving from trillions of tokens(2022)

RETRO相比REALM,采用的是chunks維度的檢索。首先構(gòu)造一個數(shù)據(jù)庫,存儲文本chunks以及它們的embedding,embedding是由一個預(yù)訓(xùn)練BERT產(chǎn)出的。接下來在訓(xùn)練語言模型時,對于每個輸入文本,將其切分成多個chunk,每個chunk利用向量檢索從數(shù)據(jù)庫中檢索出k個最近鄰chunks。這些被檢索出來的相關(guān)chunks會利用attention和原始輸入進行融合,增強原始輸入信息。原始輸入的每個chunk都和該chunk檢索出的chunks以及其鄰居檢索出的chunks進行attention。

f0af4962-026d-11ed-ba43-dac502259ad0.png

WebGPT: Browser-assisted question-answering with human feedback(2022)

WebGPT實現(xiàn)了利用GPT模型使用搜索引擎檢索答案。人們在瀏覽器中搜索的操作可以表述成例如下面的這些文本。預(yù)先定義一些下表中的command,訓(xùn)練GPT模型讓它根據(jù)已經(jīng)進行的搜索操作,生成下一個command。這個過程一直執(zhí)行到某個終止條件位置(例如生成end command、執(zhí)行次數(shù)超過一定長度)。某些command代表著采用這些文檔作為reference。在執(zhí)行完所有command后,根據(jù)收集到的reference以及問題,生成最終的答案。比如下圖b中就是已經(jīng)執(zhí)行的command以及問題等信息,這些信息組成了當(dāng)前搜索的上下文,以文本形式輸入GPT中,讓模型生成下一個command。

f0ee15d4-026d-11ed-ba43-dac502259ad0.png

f1577b50-026d-11ed-ba43-dac502259ad0.png

Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data(2022)

這篇文章通過檢索+拼接的方法擴充原始輸入文本的信息,提升多項任務(wù)上的效果。整個檢索過程在訓(xùn)練數(shù)據(jù)中進行,將訓(xùn)練數(shù)據(jù)構(gòu)造成key-value對。對于輸入樣本,從訓(xùn)練數(shù)據(jù)中檢索出高相關(guān)性的樣本,作為知識信息拼接到原始輸入中。不同任務(wù)會采用不同的檢索對象以及拼接方法,如下圖。

f197d2d6-026d-11ed-ba43-dac502259ad0.png

3

總結(jié)知識增強方法是解決自然語言理解的核心方法,重點在于研究從哪獲取知識、如何獲取知識以及如何融合知識。使用知識增強的方法可以幫助模型更直接獲取預(yù)測需要用到的外部知識,也能緩解需要越來越大的預(yù)訓(xùn)練模型提升下游任務(wù)效果的問題。知識增強+預(yù)訓(xùn)練語言模型起到互補的作用,知識增強方法可以給模型提供預(yù)訓(xùn)練階段沒見過或者忘記的信息,提升預(yù)測效果。

原文標(biāo)題:ACL 2022 Tutorial解析——知識增強自然語言理解

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3622

    瀏覽量

    51596
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23140
  • 知識圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    8233

原文標(biāo)題:ACL 2022 Tutorial解析——知識增強自然語言理解

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    利用軟件的方法解決EMC問題

    一前言隨著信息技術(shù)和半導(dǎo)體技術(shù)的快速發(fā)展,電子產(chǎn)品的類型和功能模塊日益多樣化,提訊傳輸速率也日益提高,產(chǎn)品的EMC問題也是越來越多樣化,解決EMC問題的方法多種多樣,常見的方法硬件層面的居多,然而
    的頭像 發(fā)表于 10-28 11:35 ?99次閱讀
    利用軟件的<b class='flag-5'>方法</b>解決EMC問題

    studio編譯過程中報錯:syntax error: unexpected如何解決?

    make -j4 all linking... e:/rt-threadstudio/platform/env_released/env/tools/buildtools
    發(fā)表于 09-17 06:06

    車機DAB功能驗證方法論及測試三神器簡介

    本文不拘泥于某個具體的功能點進行討論,譬如Linking、Announcement、Reconfiguration、SLS、SPI、EPG或是DLS等,而是從更高一維度來分析DAB功能驗證的方法
    的頭像 發(fā)表于 08-10 15:29 ?3970次閱讀
    車機DAB功能驗證<b class='flag-5'>方法</b>論及測試三神器簡介

    ANSA中CFD網(wǎng)格細(xì)化方法

    在上一篇文章中介紹了CFD網(wǎng)格細(xì)化方法之Size Field功能,在本篇文章中我們將繼續(xù)介紹其他CFD網(wǎng)格細(xì)化方法。
    的頭像 發(fā)表于 08-06 15:07 ?2937次閱讀
    ANSA中CFD網(wǎng)格細(xì)化<b class='flag-5'>方法</b>

    multisim的基本界面與操作方法

    電子發(fā)燒友網(wǎng)站提供《multisim的基本界面與操作方法.pdf》資料免費下載
    發(fā)表于 06-24 16:53 ?0次下載

    【HarmonyOS 5】App Linking 應(yīng)用間跳轉(zhuǎn)詳解

    ? 目錄 什么是 App Linking 使用場景 工作原理 如何開發(fā) 1.開通 App Linking 2.確定域名 3.服務(wù)端部署 applinking.json 文件 4.AGC綁定域名
    發(fā)表于 05-16 16:24

    精密空調(diào)操作使用方法詳解

    精密空調(diào)操作使用方法詳解
    的頭像 發(fā)表于 02-10 14:44 ?1676次閱讀
    精密空調(diào)操作使用<b class='flag-5'>方法</b>詳解

    電源浪涌測試方法

    電源浪涌測試是評估電氣設(shè)備在電源浪涌條件下的性能表現(xiàn)的重要手段。以下是電源浪涌測試的一些常用方法
    的頭像 發(fā)表于 01-27 11:31 ?2203次閱讀

    焊接技術(shù)流程優(yōu)化方法

    焊接是現(xiàn)代制造業(yè)中不可或缺的一部分,廣泛應(yīng)用于建筑、汽車、航空、船舶等領(lǐng)域。隨著科技的發(fā)展,對焊接技術(shù)的要求越來越高,優(yōu)化焊接流程顯得尤為重要。 1. 焊接工藝的優(yōu)化 1.1 選擇合適的焊接方法
    的頭像 發(fā)表于 01-19 13:52 ?1676次閱讀

    網(wǎng)線的接入方法有哪些

    網(wǎng)線的接入方法主要可以分為以下幾種: 一、基本接入方法 纏繞法: 將網(wǎng)線中的8芯線分別剝線,每一芯線擰結(jié)實。 將兩根相同線序的網(wǎng)線相互纏繞在一起,并通過絕緣膠布進行纏繞固定。 此方法簡單原始,但信號
    的頭像 發(fā)表于 01-16 10:24 ?2209次閱讀

    淺談制備精細(xì)焊粉(超微焊粉)的方法

    制備精細(xì)焊粉的方法有多種,以下介紹五種常用的方法
    的頭像 發(fā)表于 01-07 16:00 ?616次閱讀
    淺談制備精細(xì)焊粉(超微焊粉)的<b class='flag-5'>方法</b>

    氦質(zhì)譜檢漏方法簡介及方法選擇

    氦質(zhì)譜檢漏儀的檢漏方法,主要包括負(fù)壓法(真空法、噴氦法)、正壓法(吸氣法、吸槍法)、背壓法(壓氦法),以及根據(jù)實際待檢產(chǎn)品的不同,衍生出很多氦檢漏方法
    的頭像 發(fā)表于 01-03 16:40 ?1613次閱讀
    氦質(zhì)譜檢漏<b class='flag-5'>方法</b>簡介及<b class='flag-5'>方法</b>選擇

    聲明式資源管理方法

    1、管理k8s核心資源的三種基礎(chǔ)方法 陳述式管理方法:主要依賴命令行CLI工具進行管理 聲明式管理方法:主要依賴統(tǒng)一資源配置清單(manifest)進行管理 GUI式管理方法:主要依賴
    的頭像 發(fā)表于 12-31 10:16 ?949次閱讀

    AB伺服軟件使用方法

    AB伺服軟件使用方法
    發(fā)表于 12-24 14:45 ?1次下載

    EDA與傳統(tǒng)設(shè)計方法的區(qū)別

    在電子設(shè)計領(lǐng)域,隨著技術(shù)的發(fā)展,EDA(電子設(shè)計自動化)工具已經(jīng)成為工程師們不可或缺的助手。與傳統(tǒng)的設(shè)計方法相比,EDA工具提供了更為高效、精確的設(shè)計流程。 1. 設(shè)計流程的自動化程度 EDA
    的頭像 發(fā)表于 11-08 13:47 ?1782次閱讀