亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖模型在方面級情感分析任務(wù)中的應(yīng)用

深度學(xué)習(xí)自然語言處理 ? 來源:復(fù)旦DISC ? 作者:吳焜 ? 2022-11-24 10:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

方面級情感分析(Aspect-based Sentiment Analysis, ABSA)是一項細粒度的情感分析任務(wù),主要針對句子級別的文本,分析文本中相關(guān)的方面項(Aspect Term)、觀點項(Opinion Term)、方面類別(Aspect Category)和情感極性(Sentiment Polarity),在不同的場景下對應(yīng)著不同的子任務(wù)。

本次Fudan DISC實驗室將分享ACL 2022中關(guān)于方面級情感分析的三篇論文,其中兩篇介紹基于圖模型的方面級情感分析研究,一篇介紹用生成的方法進行ABSA的相關(guān)研究。

文章概覽

BiSyn-GAT+: 用于方面級情感分析的雙重語法感知圖注意網(wǎng)絡(luò)(BiSyn-GAT+: Bi-Syntax Aware Graph Attention Network for Aspect-based Sentiment Analysis)

論文地址:https://aclanthology.org/2022.findings-acl.144.pdf

該篇文章提出了一種雙語法感知圖注意網(wǎng)絡(luò)(BiSyn-GAT+),利用句子的短語結(jié)構(gòu)樹和依存結(jié)構(gòu)樹來建模每個方面詞的情感感知上下文(稱為上下文內(nèi))和跨方面的情感關(guān)系(稱為上下文間) 信息,首次在ABSA任務(wù)中引入了句子的短語結(jié)構(gòu)樹的語法信息,四個基準數(shù)據(jù)集的實驗表明,BiSyn-GAT+ 始終優(yōu)于最先進的方法。

用于方面情感三元組提取的增強多通道圖卷積網(wǎng)絡(luò)(Enhanced Multi-Channel Graph Convolutional Network for Aspect Sentiment Triplet Extraction)

論文地址:https://aclanthology.org/2022.acl-long.212.pdf

該篇文章旨在抽取句子中的情感三元組,提出了一個增強多通道圖卷積網(wǎng)絡(luò)模型來充分利用單詞之間的關(guān)系。該模型為 ASTE 任務(wù)定義了 10 種類型的關(guān)系,通過將單詞和關(guān)系鄰接張量分別視為節(jié)點和邊,將句子轉(zhuǎn)換為多通道圖,從而學(xué)習(xí)關(guān)系感知節(jié)點表示,同時設(shè)計了一種有效的詞對表示細化策略,顯著提高了模型的有效性和魯棒性。

Seq2Path:生成情感元組作為樹的路徑(Seq2Path: Generating Sentiment Tuples as Paths of a Tree)

該篇文章提出了 Seq2Path 來生成情感元組作為樹的路徑,通過生成的方法來解決ABSA中的多種子任務(wù)。樹結(jié)構(gòu)可以用于表示“1對n”的關(guān)系,并且樹的路徑是獨立的并且沒有順序。通過引入額外的判別標(biāo)記并應(yīng)用數(shù)據(jù)增強技術(shù),可以自動選擇有效路徑,從而解決ABSA中常見的五類子任務(wù)。

論文細節(jié)

5b415d3c-3d84-11ed-9e49-dac502259ad0.png

動機

該篇文章中的ABSA旨在識別句子中給定方面的情感極性。之前的許多工作主要是用有注意力機制的RNN、CNN提取序列特征,這些模型通常假設(shè)更接近目標(biāo)方面詞的單詞更可能與其情緒相關(guān)。但這種假設(shè)很可能并不成立,在圖1中可以看到,“service”更接近“great”而不是“dreadful”,所以這些方法可能會錯誤地將不相關(guān)的意見詞“great”分配給“service”,導(dǎo)致情感判斷錯誤。

5cca11c6-3d84-11ed-9e49-dac502259ad0.png

近期的工作主要研究如何通過GNN利用依存結(jié)構(gòu)樹等非序列信息來建模方面詞,然而依存結(jié)構(gòu)樹的固有性質(zhì)可能會引入噪聲,如圖 2中“great”和“dreadful”之間的“conj”關(guān)系,conjunct表示連接兩個并列的詞,這可能會影響到對great和dreadful的建模,即上下文內(nèi)建模,此外,依存結(jié)構(gòu)樹僅僅揭示了單詞之間的關(guān)系,因此在大多數(shù)情況下無法模擬句子間的復(fù)雜關(guān)系,例如條件、協(xié)同、反義等關(guān)系,也就無法捕捉方面詞之間的情感關(guān)系,即上下文間建模。

5cfda2fc-3d84-11ed-9e49-dac502259ad0.png

基于以上的兩個發(fā)現(xiàn),在本文中,作者考慮利用短語結(jié)構(gòu)樹的句法信息來解決這兩個問題。短語結(jié)構(gòu)樹中通常包含短語分割和分層組合結(jié)構(gòu),有助于正確對齊方面和表示方面情感的單詞。前者可以自然地將一個復(fù)雜的句子分成多個子句,后者可以區(qū)分方面詞之間的不同關(guān)系來推斷不同方面之間的情感關(guān)系。

如圖 3 所示,“but”等短語分割詞可以很自然地將原句切分為兩個子句,同時,在Layer-1中,“and”可以體現(xiàn)出“service”和“environment”的協(xié)同關(guān)系,而Layer-3中的“but”可以體現(xiàn)出“food”和“service”或“environment”之間的反義關(guān)系。

5d60c436-3d84-11ed-9e49-dac502259ad0.png

任務(wù)定義

在給定方面詞,判斷情感極性的設(shè)定中,表示長度為的句子,表示預(yù)定義的方面詞集合。對于每個句子,表示句子中包含的方面詞,任務(wù)目標(biāo)就是輸入句子和句子中的若干方面詞,得到每一個對應(yīng)的情感極性。

模型

本文提出的模型如圖4所示:

5d96c5f4-3d84-11ed-9e49-dac502259ad0.png

該模型以句子和文本中出現(xiàn)的所有方面詞作為輸入,輸出方面詞的預(yù)測情感。其中一共包含三個組件:

一是上下文內(nèi)模塊(Intra-Context Module),對輸入文本進行編碼以獲得針對目標(biāo)方面詞的方面特定表示,其中包含兩個編碼器,分別是上下文編碼器和利用短語結(jié)構(gòu)樹和依存結(jié)構(gòu)樹中句法信息的句法編碼器。

二是上下文間模塊(Inter-Context Module),其中包含一個關(guān)系編碼器,用于從構(gòu)建的方面-上下文圖中得到關(guān)系增強的表示,方面-上下文圖是由給定句子的所有方面詞以及短語分割項組成,短語分割項是通過規(guī)則方法從短語構(gòu)成樹中得到的。

三是情感分類器,綜合利用上述兩個模塊的輸出表示預(yù)測情感。

1. 上下文內(nèi)模塊

上下文內(nèi)模塊利用上下文編碼器和句法編碼器對每個方面詞的情感感知上下文進行建模,并為每個目標(biāo)方面詞生成方面特定表示。對于多方面詞的句子將多次使用此模塊,每次處理一個目標(biāo)方面詞。

上下文編碼器利用BERT進行編碼,輸入序列如式1所示,經(jīng)過BERT可以得到如式2所示的文本表示,由于BERT分詞后每個單詞可能被拆分為多個子詞,因此通過式3對多個子詞的表示取平均,得到每個單詞對應(yīng)的文本表示。句法編碼器由幾個分層圖注意力塊堆疊而成,每個塊中由多個圖注意力層組成,這些層在短語結(jié)構(gòu)樹和依存結(jié)構(gòu)樹上對句法信息進行分層編碼,關(guān)鍵在于圖的構(gòu)建。

5df2a9c8-3d84-11ed-9e49-dac502259ad0.png

5e32b5fe-3d84-11ed-9e49-dac502259ad0.png

5ea6504a-3d84-11ed-9e49-dac502259ad0.png

根據(jù)短語結(jié)構(gòu)樹的句法結(jié)構(gòu),本文以自底向上的方式進行編碼,短語結(jié)構(gòu)樹的每一層由組成輸入文本的幾個短語組成,每個短語代表一個獨立的語義單元。

例如,圖3中的就是{The food is great, but, the service and the environment are dreadful},根據(jù)這些短語,可以通過式4構(gòu)造顯示單詞連接的鄰接矩陣CA,如果兩個單詞在該層的同一短語中,則矩陣對應(yīng)位置為1,否則為0。具體的模塊圖如圖5所示,左邊這一列就是得到的鄰接矩陣CA。

5ebe83cc-3d84-11ed-9e49-dac502259ad0.png

5ee0b5c8-3d84-11ed-9e49-dac502259ad0.png

接著介紹 HGAT 塊,一個 HGAT 塊由幾個 GAT 層堆疊,這些 GAT 層利用掩碼自注意力機制聚合來自鄰居的信息,并使用全連接層將表示映射到相同的語義空間。注意力機制可以分配給具有更多相關(guān)詞的鄰居更高的權(quán)重。其表示如式 5,6,7 所示,其中表示第層中的鄰居集合,是衡量兩個詞相關(guān)性的評分函數(shù),式 7 就是將層中兩個詞之間的相關(guān)性進行歸一化得到第 l 層中使用的權(quán)重,式 6 中的是經(jīng)過掩碼自注意機制后的表示。

||表示向量連接。是注意力頭的數(shù)量。是第層中的最終表示,式 5 就是將層中的最終表示和層中經(jīng)過掩碼自注意機制后的表示拼接起來再過一個全連接層。堆疊的 HGAT 塊將前一層塊的輸出作為輸入,第一個 HGAT 塊的輸入是式 3 中得到的。

5f1bb4a2-3d84-11ed-9e49-dac502259ad0.png

本文還探索了結(jié)構(gòu)和依存兩種句法信息的融合,可以將依存結(jié)構(gòu)樹視為無向圖并構(gòu)造鄰接矩陣 DA,如果兩個詞在依存結(jié)構(gòu)樹中直接連接,那矩陣中的元素為1,否則為0。通過逐位點乘、逐位相加和條件逐位相加三種方式拼接兩個矩陣信息。最終上下文內(nèi)模塊的輸出如式12所示,包含了上下文信息和句法信息。

5f5517a6-3d84-11ed-9e49-dac502259ad0.png

2. 上下文間模塊

上下文內(nèi)模塊中沒有考慮方面詞之間的相互影響。因此,在上下文間模塊中,本文構(gòu)建了一個方面-上下文圖來對各方面詞之間的關(guān)系建模。該模塊僅適用于多方面詞句子,將來自上下文內(nèi)模塊的所有方面詞的方面特定表示作為輸入,并輸出每個方面詞的關(guān)系增強表示。

方面詞之間的關(guān)系可以通過一些短語分割詞來表示,比如連詞。因此,本文設(shè)計了一個基于規(guī)則的映射函數(shù) PS,可以返回兩個方面詞的短語分割詞。具體來說,給定兩個方面詞,PS函數(shù)首先在短語結(jié)構(gòu)樹中找到它們的最近共同祖先(LCA),它包含兩個方面詞的信息并且具有最少的無關(guān)的上下文。我們將來自 LCA 的,在兩個方面分開的子樹之間的分支,稱為“Inner branches”。PS函數(shù)就會返回“Inner branches”中的所有文本詞。否則將返回輸入文本中兩個方面詞之間的單詞。在圖3中,給定方面詞food和service,LCA節(jié)點是第四層中的S,具有三個分支,此時的inner branch就是中間的but,反映兩個方面詞之間的情感關(guān)系。

5f83db72-3d84-11ed-9e49-dac502259ad0.png

在方面上下文圖構(gòu)建中,本文認為一個方面詞的影響范圍應(yīng)該是連續(xù)的,方面詞之間的相互影響會隨著距離增加而衰減,考慮所有方面對會引入由長距離引起的噪聲并增加計算開銷,所以本文只對相鄰的方面詞之間的關(guān)系進行建模。在通過 PS 函數(shù)得到相鄰方面詞之間的短語分割詞后,本文通過將方面詞與相應(yīng)的短語分割詞相連接以構(gòu)建方面上下文圖。為區(qū)分方面上下文之間的雙向關(guān)系,本文構(gòu)建了兩個對應(yīng)的鄰接矩陣。第一個處理句子中所有奇數(shù)索引方面詞到相鄰的偶數(shù)索引方面詞的影響,第二個反之。用之前從上下文內(nèi)模塊中學(xué)到的和經(jīng)過BERT編碼的短語分割詞為輸入,將上述介紹的HGAT塊作為關(guān)系編碼器,輸出為每個方面詞對應(yīng)的關(guān)系增強表示。

5fa2b362-3d84-11ed-9e49-dac502259ad0.png

將上下文內(nèi)模塊和上下文間模塊的輸出組合起來形成最終表示,然后將其送入全連接層,即情感分類器中,得到三種情感極性的概率。損失函數(shù)就是情感標(biāo)簽和預(yù)測結(jié)果之間的交叉熵損失。

5fcbe23c-3d84-11ed-9e49-dac502259ad0.png

5ffb01b6-3d84-11ed-9e49-dac502259ad0.png

結(jié)果

本文的實驗在四個英文數(shù)據(jù)集上進行,分別是SemEval2014的laptop、restaurant和MAMS、Twitter數(shù)據(jù)集。其中l(wèi)aptop和restaurant數(shù)據(jù)集中的句子有包含多方面詞的,也有包含單方面詞的。MAMS 中的每個句子至少包含兩個不同情感的方面詞。Twitter中的句子只包含一個方面詞。數(shù)據(jù)集統(tǒng)計數(shù)據(jù)如表 1 所示。

601a34d2-3d84-11ed-9e49-dac502259ad0.png

解析器使用SuPar,利用CRF constituency parser (Zhang et al., 2020)得到短語結(jié)構(gòu)樹,利用deep Biaffine Parser (Dozat and Manning, 2017)得到依存結(jié)構(gòu)樹。

Baseline一共分為三組,分別是無句法信息的基線模型,有句法信息的基線模型和建模了方面詞之間關(guān)系的基線模型。

606197a0-3d84-11ed-9e49-dac502259ad0.png

最終的實驗結(jié)果如表2所示,本文的完整模型有一個加號,沒有加號的是去掉上下文間模塊后的模型。本文提出的模型要優(yōu)于所有基線模型。具有句法信息的模型要優(yōu)于沒有句法信息的模型,本文的模型優(yōu)于僅使用依賴信息的模型,說明組成樹可以提供有用的信息。從最后兩行的比較中可以看出,建模方面詞之間的關(guān)系可以顯著提高性能。

60b36e04-3d84-11ed-9e49-dac502259ad0.png

此外,作者還做了許多消融實驗,探索了模型中各個模塊的作用,比較了不同解析器帶來的影響和不同的方面上下文圖構(gòu)建方式帶來的影響,最終的結(jié)果就是每個模塊都有其用處,把各類模塊都加上得到的結(jié)果才是最優(yōu)的。

2

60fcb2e4-3d84-11ed-9e49-dac502259ad0.png

動機

情感三元組抽取任務(wù)旨在從句子中提取方面情感三元組,每個三元組包含三個元素,即方面詞、觀點詞以及對應(yīng)情感。如圖1所示,藍色代表方面詞,黃色代表觀點詞,紅色和綠色表示情感,輸入為句子,期待的輸出為下面的三元組。先前的方法主要為Pipeline方法,或者將其建模為多輪閱讀理解任務(wù),再或者通過新的標(biāo)注方案進行聯(lián)合抽取來解決。盡管之前的工作取得了顯著成果,但仍然存在一些挑戰(zhàn)。

在ASTE任務(wù)中,很自然地會面臨兩個問題,一是如何利用單詞之間的各種關(guān)系來幫助 ASTE 任務(wù),詞對(“food”,“delicious”),“food”是“delicious”的觀點目標(biāo),被賦予了積極的情感極性,需要基于單詞之間的關(guān)系來學(xué)習(xí)任務(wù)相關(guān)的單詞表示。二是如何利用語言特征來幫助 ASTE 任務(wù),可以觀察到方面詞通常是名詞,觀點詞通常是形容詞,因此名詞和形容詞組成的詞對往往形成方面-觀點對,從句法依存樹的角度觀察,food是delicious的名詞性主語,依存類型為nsubj,說明不同的依存類型可以幫助方面詞、觀點詞的抽取和匹配。基于以上兩點觀察,本文提出了一種增強多通道圖卷積網(wǎng)絡(luò)模型來解決上述問題,設(shè)計了十種單詞關(guān)系來建模單詞之間的關(guān)系概率分布,充分利用了四種語言特征并細化詞對表示。

61441616-3d84-11ed-9e49-dac502259ad0.png

任務(wù)定義

給定一個輸入句子,包含個單詞,目標(biāo)是從中抽取出一批三元組,其中和分別表示方面項和意見項,表示情感極性。

除了任務(wù)形式定義,本文為 ASTE 定義了句子中單詞之間的十種關(guān)系,如表1所示。

61896acc-3d84-11ed-9e49-dac502259ad0.png

與前人的工作相比,本文定義的關(guān)系引入了更準確的邊界信息,其中的四個關(guān)系或標(biāo)簽 {B-A, I-A, B-O, I-O} 旨在提取方面詞和意見詞,B 和 I 分別表示術(shù)語的開頭和內(nèi)部。A 和 O 子標(biāo)簽旨在確定詞語的作用,即為方面詞或意見詞。表 1 中的 A 和 O 關(guān)系用于檢測由兩個不同的詞組成的詞對是否分別屬于同一個方面或意見詞。三個情感關(guān)系檢測詞對是否匹配,同時判斷了詞對的情感極性,可以使用表格填充的方法構(gòu)建關(guān)系表,圖3就是一個例子,每個單元格對應(yīng)一個具有關(guān)系的詞對。

61f3a932-3d84-11ed-9e49-dac502259ad0.png

在得到表格后需要對其進行解碼,ASTE 任務(wù)的解碼細節(jié)如算法1所示。為簡單起見,此處使用上三角表來解碼三元組,因為是標(biāo)準情況下關(guān)系是對稱的。首先僅使用基于主對角線的所有詞對之間的預(yù)測關(guān)系來提取方面詞和觀點詞。其次,需要判斷提取的方面詞和觀點詞是否匹配。具體來說,對于方面項和意見項,我們計算所有單詞對的預(yù)測關(guān)系,其中和。如果預(yù)測關(guān)系中存在任何情感關(guān)系,則認為方面詞和觀點詞是配對的,否則這兩個不配對。最后,為了判斷方面-觀點對的情感極性,將預(yù)測最多的情感關(guān)系視為情感極性。經(jīng)過這樣的流程,可以收集到一個三元組。

62381ad6-3d84-11ed-9e49-dac502259ad0.png

模型

接著介紹一下本文提出的模型架構(gòu)。首先利用BERT編碼輸入,接著利用一個biaffine attention模塊來對句子中單詞之間的關(guān)系概率分布進行建模,并使用一個向量來表示它。接著每種關(guān)系對應(yīng)一個通道,形成一個多通道的GCN模型,同時,為增強模型,為每個詞對引入了四種類型的語言特征,并對biaffine 模塊中獲得的鄰接張量添加約束,最后利用方面和意見提取的隱含結(jié)果精煉詞對表示并進行分類。

6261919a-3d84-11ed-9e49-dac502259ad0.png

1.輸入與編碼層 & 雙仿射注意模塊

在輸入與編碼層,利用BERT 作為句子編碼器來提取隱藏上下文表示。接著利用Biaffine Attention模塊來捕獲句子中每個詞對的關(guān)系概率分布,其過程如式1234所示。經(jīng)過BERT后的隱藏上下文表示經(jīng)過兩個MLP層分別得到和,通過式3得到表示,其中的、和是可訓(xùn)練的權(quán)重和偏差,中間的加號表示連接。表示詞對的第個關(guān)系類型的分數(shù),這里就是做了一個歸一化。鄰接張量就是上面這個過程的矩陣化表示,其形狀為,為關(guān)系類型的數(shù)量,每個通道就對應(yīng)著一個關(guān)系類型。

62a159b0-3d84-11ed-9e49-dac502259ad0.png

2. 多通道GCN

多通道的GCN模型則是沿著每個通道為Biaffine Attention 模塊得到的中的每個節(jié)點聚合信息。表示的第個通道切片,和是可學(xué)習(xí)的權(quán)重和偏差。是激活函數(shù)。是平均池化函數(shù),可以將所有通道的隱藏節(jié)點表示聚合起來。

62cf9d0c-3d84-11ed-9e49-dac502259ad0.png

3. 語言特征

為增強EMC-GCN 模型,本文為每個詞對引入了四種類型的語言特征,如圖 4 所示,包括詞性組合、句法依賴類型、基于樹的距離和相對位置距離。對于句法依賴類型,需要為每個詞對添加一個自依賴類型。一開始隨機初始化這四個鄰接張量,以以句法依賴類型特征為例,如果和之間存在依賴弧,并且依賴類型為 nsubj,則通過一個可訓(xùn)練的嵌入查找表,將初始化為 nsubj 的嵌入,否則用維零向量進行初始化。隨后,使用這些鄰接張量重復(fù)圖卷積操作以獲得節(jié)點表示、、和,最后分別將平均池化函數(shù)和連接操作應(yīng)用于所有節(jié)點表示和所有邊。

62eb64ba-3d84-11ed-9e49-dac502259ad0.png

632bbd9e-3d84-11ed-9e49-dac502259ad0.png

4.關(guān)系損失 & 細化策略

為了精確捕捉單詞之間的關(guān)系,我們對從 biaffine 模塊獲得的鄰接張量添加了一個損失,同樣,對語言特征產(chǎn)生的四個其他鄰接張量也添加了約束損失。

637823dc-3d84-11ed-9e49-dac502259ad0.png

為了獲得用于標(biāo)簽預(yù)測的詞對的表示,我們將它們的節(jié)點表示、和它們的邊表示連接起來。受多標(biāo)簽分類任務(wù)中的分類器鏈方法啟發(fā),在判斷詞對是否匹配時又引入了方面和意見提取的隱含結(jié)果,具體來說,假設(shè)是方面詞,是意見詞,那么詞對更有可能被預(yù)測為情感關(guān)系,因此引入了和來細化詞對的表示。最后將詞對表示輸入線性層,然后使用 softmax 函數(shù)生成標(biāo)簽概率分布。

63b5b3be-3d84-11ed-9e49-dac502259ad0.png

63d56b28-3d84-11ed-9e49-dac502259ad0.png

訓(xùn)練時的損失函數(shù)如式13所示,其中的是用于ASTE任務(wù)的標(biāo)準交叉熵損失函數(shù),如式14所示,系數(shù)和用于調(diào)整對應(yīng)關(guān)系約束損失的影響。

6401ec0c-3d84-11ed-9e49-dac502259ad0.png

642a1510-3d84-11ed-9e49-dac502259ad0.png

結(jié)果

本文實驗的數(shù)據(jù)集也是在SemEval挑戰(zhàn)賽的數(shù)據(jù)集基礎(chǔ)上,D1由[Wu et al. (2020a)],D2由[Xu et al. (2020)]做了進一步的標(biāo)注,這兩組數(shù)據(jù)集的統(tǒng)計數(shù)據(jù)如表2所示。

644f853e-3d84-11ed-9e49-dac502259ad0.png

本文實驗比較的基線模型主要流水線模型、一些端到端方法的模型和基于機器閱讀理解的模型。

649b054a-3d84-11ed-9e49-dac502259ad0.png

在 F1 指標(biāo)下,EMC-GCN 模型在兩組數(shù)據(jù)集上優(yōu)于所有其他方法。端到端和基于 MRC 的方法比流水線方法取得了更顯著的改進,因為它們建立了這些子任務(wù)之間的相關(guān)性,并通過聯(lián)合訓(xùn)練多個子任務(wù)來緩解錯誤傳播的問題。

64c448ba-3d84-11ed-9e49-dac502259ad0.png

650ffc6a-3d84-11ed-9e49-dac502259ad0.png

此外,文章還進行了一些消融實驗分析,實驗發(fā)現(xiàn)提出的十種關(guān)系和細化策略都對性能提升有幫助。作者通過可視化通道信息和語言特征信息,發(fā)現(xiàn)這些模塊都如預(yù)期一樣有效,有助于傳遞詞之間的信息,通過樣例分析對比其他模型,發(fā)現(xiàn)EMC-GCN模型可以更好地提取句子中的情感三元組。

3

6543d238-3d84-11ed-9e49-dac502259ad0.png

動機

在本文中,作者以 ASTE 為默認任務(wù)來說明想法。ABSA任務(wù)方面最近的趨勢是設(shè)計一個統(tǒng)一的框架來同時處理多個 ABSA 任務(wù),而不是為每個 ABSA 任務(wù)使用單獨的模型,如Seq2Seq 模型已被充分應(yīng)用到其中。輸入文本后,輸出是一系列情感元組,但這種設(shè)計仍存在兩種問題,一是順序,元組之間的順序并不自然存在,二是依賴關(guān)系,的生成不應(yīng)該以為條件。也就是說,為什么必須是第一個元組而不是?為什么后面必須跟而不是或結(jié)束符?

基于以上發(fā)現(xiàn),作者認為樹結(jié)構(gòu)是表示輸出的更好選擇。樹可以表示一對多的關(guān)系,其中一個token在生成期間其后可以跟隨多個有效token,而在序列中只能表示一對一的關(guān)系,一個token在生成期間其后緊跟一個token,也就是貪心的策略。如圖 1 中的示例,兩個情感元組(“rolls”、“big”、“positive”)和(“rolls”、“not good”、“negative”)共享相同的方面詞“rolls”,體現(xiàn)了一對多的關(guān)系。

660c2b52-3d84-11ed-9e49-dac502259ad0.png

在本文中,作者將 ABSA 任務(wù)形式化為樹的路徑序列問題,提出了Seq2Path方法,其中的每個情感元組都是樹的路徑,可以獨立生成。只要給定輸入文本,就可以獨立確定任何有效的情感元組。例如,可以在不知道是一個有效的情感元組的情況下,確定是一個有效的情感元組。具體來說,在訓(xùn)練時,將每個情感元組視為一個獨立的目標(biāo),使用普通的 Seq2Seq 模型來學(xué)習(xí)每個目標(biāo)并計算平均損失。在推理時,使用Beam Search來生成多條路徑及其概率。此外,本文還引入了一個判別標(biāo)記來自動從Beam Search中選擇正確的路徑,為數(shù)據(jù)集擴充了判別標(biāo)記的負樣本數(shù)據(jù)。

任務(wù)定義

方面級情感分析的輸入為文本,在五個子任務(wù)上輸出的目標(biāo)序列為:

66c02684-3d84-11ed-9e49-dac502259ad0.png

其中,a表示方面項,o表示觀點項,s表示情感極性。

模型

Seq2Path的框架如圖2所示。里面的編碼器-解碼器架構(gòu)就是普通的 Seq2Seq 架構(gòu),主要有以下幾點區(qū)別:一是每個情感元組將被視為一個獨立的目標(biāo),會訓(xùn)練一個普通的 Seq2Seq 模型并計算平均損失。二是token的生成過程會形成一棵樹,將Beam Search用于并行和獨立地生成路徑。三是輸入是文本,輸出是帶有判別標(biāo)記v的情感元組。由于判別標(biāo)記沒有負樣本,因此還必須構(gòu)建一個增強數(shù)據(jù)集進行訓(xùn)練。

66e4e622-3d84-11ed-9e49-dac502259ad0.png

對于輸入句子,期望輸出一組元組,如前面所述,集合可以表示為一棵樹,其中的每個對應(yīng)樹的一條路徑,就是路徑的總數(shù)。訓(xùn)練的損失函數(shù)定義為這條路徑上的平均損失。就是普通的 Seq2Seq 損失,是每個時間步的損失。

6735d08c-3d84-11ed-9e49-dac502259ad0.png

6759e0bc-3d84-11ed-9e49-dac502259ad0.png

在推理階段,我們應(yīng)用帶有約束解碼的束搜索方法。束搜索算法根據(jù)條件概率在每一步為輸入序列選擇多個備選方案。通過束搜索,我們輸出概率遞減的 top-k 路徑,這些路徑表示路徑有效的可能性。在解碼期間也使用約束解碼,不去搜索整個詞匯表,而是在輸入文本和任務(wù)特定標(biāo)記中選擇token進行輸出。首先,我們刪除了一些重疊的預(yù)測,如果束搜索同時返回了“”和“”,選擇序列概率較高的那個。如果同時返回“”和““,其中和重疊,也選擇序列概率較高的那個。然后輸出判別標(biāo)記為true的,過濾其他無效路徑。

由于判別標(biāo)記沒有負樣本,因此數(shù)據(jù)增強步驟是必要的。為了自動選擇有效路徑,在每個負樣本的末尾附加一個判別標(biāo)記 v = “false”。本文用以下兩種方式生成負樣本,D1數(shù)據(jù)集是為了提高模型匹配元組元素的能力,隨機替換元組中的元素,生成“rolls, was not fresh, positive, false”, “sashimi, big,negative, false”等。D2數(shù)據(jù)集是為提高模型過濾大部分不良泛化情況的能力,首先用幾個小epoch訓(xùn)練模型,然后使用束搜索生成負樣本。增廣數(shù)據(jù)集就是正負樣本的并集。

67862b4a-3d84-11ed-9e49-dac502259ad0.png

67aabea6-3d84-11ed-9e49-dac502259ad0.png

我們希望判別標(biāo)記 v 能夠過濾無效路徑,又不希望模型的生成模仿負樣本,因此這里應(yīng)用了一個技巧性的損失掩碼。假設(shè),如果 y 是負樣本,即 y 的驗證標(biāo)記為“false”,則損失掩碼為如式7所示,如果 y 是正樣本,即 y 的驗證標(biāo)記為“true”,則損失掩碼如式8所示。損失掩碼意味著在損失計算中跳過了一些token,如下圖所示。除了判別令牌和“”令牌之外的所有令牌都被屏蔽。為帶有損失掩碼的損失,其中只有的標(biāo)記參與損失計算,可以得到如式9所示的損失函數(shù),最終數(shù)據(jù)集的總體損失如式10所示。

67c41f18-3d84-11ed-9e49-dac502259ad0.png

67d96f6c-3d84-11ed-9e49-dac502259ad0.png

68206ac0-3d84-11ed-9e49-dac502259ad0.png

6838e258-3d84-11ed-9e49-dac502259ad0.png

Seq2Path 的流程總結(jié)為算法1,首先生成負樣本數(shù)據(jù)進行數(shù)據(jù)增強。其次用普通的Seq2Seq方法訓(xùn)練模型,使用損失掩碼。在推理時使用束搜索,生成前k條路徑并剪枝。

684b681a-3d84-11ed-9e49-dac502259ad0.png

結(jié)果

該篇文章在四個廣泛使用的基準數(shù)據(jù)集上進行,分別為SemEval2014 Restaurant, Laptop,SemEval2015 Restaurant和SemEval2016 Restaurant,根據(jù)ABSA的不同子任務(wù),采取了以下的基線方法進行比較。

692273dc-3d84-11ed-9e49-dac502259ad0.png

整體的實驗結(jié)果如表2、3、4、5、6所示,總體而言,本文提出的方法幾乎所有子任務(wù)上的F1 分數(shù)都達到了SOTA。

69455604-3d84-11ed-9e49-dac502259ad0.png

6975ef3a-3d84-11ed-9e49-dac502259ad0.png

69a0b184-3d84-11ed-9e49-dac502259ad0.png

69d85562-3d84-11ed-9e49-dac502259ad0.png

6a2b4c2c-3d84-11ed-9e49-dac502259ad0.png

最后作者也進行了一些實驗分析。首先分析束尺寸對性能的影響,總體而言,較小的束尺寸會導(dǎo)致更差的召回率,較大的束尺寸會導(dǎo)致更差的精度。然而,通過剪枝過程,無論 k 的選擇如何,在前面幾張實驗表中得到的性能相比其他方法都是最優(yōu)的,而最佳k的選擇則取決于任務(wù)和數(shù)據(jù)集。盡管束搜索需要更大的 GPU 內(nèi)存,但 Seq2Path 可以使用更短的最大輸出序列長度,從而減少內(nèi)存消耗。其次是數(shù)據(jù)增強的消融研究,數(shù)據(jù)集 D1 對 F1 分數(shù)的影響較小,數(shù)據(jù)集 D2 對 F1 分數(shù)有重大影響,說明利用少量epoch訓(xùn)練得到的模型得到負樣本可以有效提高模型性能。

總結(jié)

此次 Fudan DISC 解讀的三篇論文圍繞方面級情感分析展開,介紹了圖模型在方面級情感分析任務(wù)中的應(yīng)用,利用依存解析圖和句子結(jié)構(gòu)圖,可以為建模方面表示提供更精細的信息。最后,本文還介紹了一種Seq2Path的模型,改善了先前Seq2Seq方法解決ABSA任務(wù)時面臨的順序、依賴等問題。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3885

    瀏覽量

    141029
  • ACL
    ACL
    +關(guān)注

    關(guān)注

    0

    文章

    61

    瀏覽量

    12705
  • GAT
    GAT
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    6495
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23195

原文標(biāo)題:ACL'22 | 基于圖模型的方面級情感分析研究

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    廣和通發(fā)布端側(cè)情感對話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的端側(cè)情感對話大模型FiboEmo-LLM。該模型專注于情感計算與自然語言交互融合,致力于為AI玩具、智能陪伴設(shè)備等終端場景提供“
    的頭像 發(fā)表于 09-26 13:37 ?1515次閱讀

    Task任務(wù):LuatOS實現(xiàn)“任務(wù)并發(fā)”的核心引擎

    Task任務(wù)通過其強大的并發(fā)處理能力,使LuatOS能夠單線程環(huán)境模擬多線程執(zhí)行,通過協(xié)程的掛起與恢復(fù)機制,實現(xiàn)任務(wù)的并行操作,顯著提
    的頭像 發(fā)表于 08-28 13:49 ?278次閱讀
    Task<b class='flag-5'>任務(wù)</b>:LuatOS實現(xiàn)“<b class='flag-5'>任務(wù)</b><b class='flag-5'>級</b>并發(fā)”的核心引擎

    用快手電商 API 實現(xiàn)快手小店商品評論情感分析

    ? 電商運營,商品評論是用戶反饋的核心來源,它能直接影響購買決策和產(chǎn)品優(yōu)化。通過情感分析,商家可以自動識別評論的正面、負面或中性情緒,
    的頭像 發(fā)表于 08-26 15:08 ?261次閱讀
    用快手電商 API 實現(xiàn)快手小店商品評論<b class='flag-5'>情感</b><b class='flag-5'>分析</b>

    ANSA設(shè)置ABAQUS獨立非線性分析步的方法

    搭建Abaqus有限元模型時,經(jīng)常需要設(shè)置多分析步。設(shè)置Abaqus多分析步的常用方法為仿真分析
    的頭像 發(fā)表于 08-06 15:14 ?929次閱讀
    <b class='flag-5'>在</b>ANSA<b class='flag-5'>中</b>設(shè)置ABAQUS獨立非線性<b class='flag-5'>分析</b>步的方法

    模型半導(dǎo)體行業(yè)的應(yīng)用可行性分析

    的應(yīng)用,比如使用機器學(xué)習(xí)分析數(shù)據(jù),提升良率。 這一些大模型是否真的有幫助 能夠解決工程師的知識斷層問題 本人純小白,不知道如何涉足這方面 應(yīng)該問什么大
    發(fā)表于 06-24 15:10

    TaskPool和Worker的對比分析

    ,存在創(chuàng)建耗時以及不支持設(shè)置調(diào)度優(yōu)先,故性能方面使用TaskPool會優(yōu)于Worker,因此大多數(shù)場景推薦使用TaskPool。 TaskPool偏向獨立任務(wù)維度,該
    發(fā)表于 06-18 06:43

    PID串控制同步發(fā)電機勵磁控制的應(yīng)用

    對自并勵勵磁系統(tǒng)進行了仿真分析,通過仿真結(jié)果的對比分析,說明神經(jīng)網(wǎng)絡(luò)預(yù)測-PID串控制勵磁控制的應(yīng)用提高了勛磁系統(tǒng)的動態(tài)性、穩(wěn)定性和抗
    發(fā)表于 06-16 21:56

    FA模型卡片和Stage模型卡片切換

    ,Stage卡片配置module.json5和form_config.json(如下圖1和2)。 卡片業(yè)務(wù)邏輯:FA模型和Stage模型
    發(fā)表于 06-06 08:10

    NVIDIA大語言模型推薦系統(tǒng)的應(yīng)用實踐

    推薦系統(tǒng)的主要任務(wù)在于根據(jù)用戶的過往行為預(yù)測其潛在興趣點,并據(jù)此推薦相應(yīng)的商品。傳統(tǒng)的推薦系統(tǒng),當(dāng)處理用戶請求時,會觸發(fā)多個召回模塊,例如熱門商品召回、個性化召回以及深度召回等,從而召回大量候選
    的頭像 發(fā)表于 03-05 09:30 ?1294次閱讀
    NVIDIA大語言<b class='flag-5'>模型</b><b class='flag-5'>在</b>推薦系統(tǒng)<b class='flag-5'>中</b>的應(yīng)用實踐

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應(yīng)用選擇

    ); 二者均支持API調(diào)用,可根據(jù)業(yè)務(wù)需求混合部署(如用V3處理前端交互,R1負責(zé)后端計算)。 電子工程領(lǐng)域選用哪個模型最合適,有其他更好的模型推薦嗎? 電子工程領(lǐng)域的電路設(shè)計與
    發(fā)表于 02-14 02:08

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    的應(yīng)用。MAML算法通過二階優(yōu)化找到對任務(wù)變化敏感的模型參數(shù),實現(xiàn)了快速適應(yīng)。上下文學(xué)習(xí)則引入了注意力機制,使模型能夠根據(jù)當(dāng)前場景動態(tài)調(diào)整行為策略。預(yù)訓(xùn)練-微調(diào)范式
    發(fā)表于 12-24 15:03

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應(yīng)用大模型

    內(nèi)為企業(yè)帶來效益。選擇模型時,需要評估其性能表現(xiàn)。這包括模型的準確性、響應(yīng)速度、對話流暢性、情感理解能力等方面。可以通過對比不同
    發(fā)表于 12-17 16:53

    復(fù)雜光波導(dǎo)器件控制MTF分析的精度和速度間的平衡

    摘要 增強現(xiàn)實和混合現(xiàn)實應(yīng)用(AR/MR)領(lǐng)域的波導(dǎo)器件的設(shè)計過程,準確計算可實現(xiàn)的光學(xué)性能是其主要任務(wù)之一。除了空間和角度均勻性外,一個非常重要的量是調(diào)制傳遞函數(shù)(MTF),它可以評估最終
    發(fā)表于 12-17 08:50

    基于LSTM神經(jīng)網(wǎng)絡(luò)的情感分析方法

    情感分析是自然語言處理(NLP)領(lǐng)域的一項重要任務(wù),旨在識別和提取文本的主觀信息,如情感傾向、情感
    的頭像 發(fā)表于 11-13 10:15 ?1548次閱讀

    soc人工智能的創(chuàng)新應(yīng)用

    的應(yīng)用變得越來越廣泛和深入。 1. 社交媒體分析 社交媒體平臺已經(jīng)成為人們交流和分享信息的主要渠道。AI技術(shù),特別是自然語言處理(NLP)和機器學(xué)習(xí)(ML),分析社交媒體數(shù)據(jù)方面發(fā)揮
    的頭像 發(fā)表于 11-10 09:30 ?1306次閱讀