91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP:面向方面級情感分類的注意力轉(zhuǎn)移網(wǎng)絡(luò)

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:趙飛 ? 2021-02-10 16:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

01

研究動機(jī)

方面級情感分類(英文叫Aspect-level Sentiment Classification,簡稱ASC)旨在檢測句子中給定意見目標(biāo)的情感極性。意見目標(biāo)(也稱為方面術(shù)語)是指評論中描述實體方面的單詞或短語。如圖1所示,"服務(wù)很好,但食物卻很糟糕"這句話包含兩個意見目標(biāo),即"食物"和"服務(wù)"。用戶對目標(biāo)"服務(wù)"的看法是正面的,而對目標(biāo)"食物"的看法卻是負(fù)面的。

94d22b88-603d-11eb-8b86-12bb97331649.png

圖1: 包含多個意見目標(biāo)的句子示例

從上面的例子中我們可以看到,一個句子有時會包含多個意見目標(biāo),并且它們可能表達(dá)不同的情感極性,因此ASC的一個主要挑戰(zhàn)是如何為不同的意見目標(biāo)獲取到不同的情感上下文。為此,大多數(shù)方法運用注意力機(jī)制(Bahdanau et al., 2014)來捕獲與給定目標(biāo)相關(guān)的情感詞,然后將其匯總以進(jìn)行情感預(yù)測。盡管注意力機(jī)制是有效的,但我們認(rèn)為由于ASC標(biāo)注數(shù)據(jù)是有限的,因此它未能充分發(fā)揮注意力機(jī)制的潛力。眾所周知,深度學(xué)習(xí)的結(jié)果很大程度上取決于訓(xùn)練數(shù)據(jù)的多少。但是,在實際情況中,ASC數(shù)據(jù)的注釋費時且昂貴,因為注釋者不僅需要識別句子中所有的意見目標(biāo),而且還需要判斷其相應(yīng)的情感極性。注釋困難導(dǎo)致現(xiàn)有公開的數(shù)據(jù)集都相對較小,這嚴(yán)重限制了注意力機(jī)制的潛力。

盡管缺少ASC數(shù)據(jù),但是在線評論網(wǎng)站(例如Amazon和Yelp)可以提供大量的文檔級情感分類(DSC)標(biāo)記數(shù)據(jù)。這些評論中包含了大量的情感知識和語義模式。因此,一個有意義但具有挑戰(zhàn)性的研究問題是如何利用資源豐富的DSC數(shù)據(jù)來提升低資源任務(wù)ASC。為此,He et al. (2018) 設(shè)計了PRET + MULT框架,通過共享淺層的embedding嵌入和LSTM層將情感知識從DSC數(shù)據(jù)傳遞到ASC任務(wù)。受膠囊網(wǎng)絡(luò)的啟發(fā)(Sabour et al., 2017),Chen and Qian (2019)提出TransCap模型,它共享底部的三個膠囊層,然后僅在最后一個ClassCap層中分離了兩個任務(wù)。從根本上說,PRET + MULT和Transcap通過共享參數(shù)和多任務(wù)學(xué)習(xí)來提升ASC,但是它們不能準(zhǔn)確地控制和解釋要傳輸?shù)闹R。

為了解決上述提到的兩個問題,在這項工作中,我們提出了一種新穎的框架,即注意力轉(zhuǎn)移網(wǎng)絡(luò)(ATN),它從DSC任務(wù)中顯式的轉(zhuǎn)移注意力知識,以提高ASC任務(wù)中意見目標(biāo)的注意力能力。與PRET + MULT和Transcap相比,我們的模型獲得了更好的結(jié)果并保留了良好的可解釋性。

02

解決方案

圖1顯示了注意轉(zhuǎn)移網(wǎng)絡(luò)(ATN)的總體組織結(jié)構(gòu)。在ATN框架中,我們分別采用了兩個基于注意力的BiLSTM網(wǎng)絡(luò)作為DSC和ASC的基礎(chǔ)模塊,并提出了兩種將DSC中的注意力知識遷移到ASC的新方法。

953fa7bc-603d-11eb-8b86-12bb97331649.png

圖2: 注意力遷移網(wǎng)絡(luò)(ATN)的整體架構(gòu)

第一種遷移方法稱為注意力引導(dǎo)。具體來說,我們首先在大規(guī)模的DSC數(shù)據(jù)集上預(yù)訓(xùn)練一個基于注意力的BiLSTM網(wǎng)絡(luò),然后利用DSC模塊中的注意力權(quán)重作為學(xué)習(xí)信號來引導(dǎo)ASC模塊更準(zhǔn)確地捕捉情感線索,從而取得很好的結(jié)果。注意力引導(dǎo)通過輔助監(jiān)督信號學(xué)習(xí)DSC模塊的注意力能力,但是,它不能在測試階段利用DSC模塊的注意力權(quán)重,并且浪費了預(yù)先訓(xùn)練的知識。為了充分利用額外的注意能力,我們進(jìn)一步提出了注意力融合方法來直接將它們合并。

這兩種方法雖然工作方式不同,但是都有各自的優(yōu)點。注意力引導(dǎo)的目的是學(xué)習(xí)DSC模塊的注意力能力,由于在測試階段不使用DSC的外部注意力,因此具有更快的推理速度,而注意力融合可以利用DSC模塊在測試階段的注意力知識,做出更全面的預(yù)測。

03

實驗

我們在SemEval 2014 Task 44 (Pontiki et al., 2014)的兩個ASC基準(zhǔn)數(shù)據(jù)集上評估了模型的性能。 它們分別包含來自laptop和restaurant領(lǐng)域的商品評論。我們在所有數(shù)據(jù)集中刪除了極性沖突的樣本。ASC數(shù)據(jù)集的統(tǒng)計數(shù)據(jù)如表1所示:

表1:ASC數(shù)據(jù)集的統(tǒng)計信息

95e0cab6-603d-11eb-8b86-12bb97331649.png

為了對DSC模塊進(jìn)行預(yù)訓(xùn)練,我們使用了兩個DSC數(shù)據(jù)集,分別是YelpReview和AmazonReview(Li et al., 2018a)。DSC數(shù)據(jù)集Yelp Review包含的注意力知識遷移到ASC數(shù)據(jù)集Restaurant。而laptop的注意力知識來自AmazonReview。表2顯示了它們的統(tǒng)計信息。在這項工作中,我們采用Accuracy和Macro-F1作為評估ASC任務(wù)中不同方法的性能指標(biāo)。

表2:DSC數(shù)據(jù)集的統(tǒng)計信息

995f13c8-603d-11eb-8b86-12bb97331649.png

主要結(jié)果如表3所示。我們將結(jié)果分為三類:第一類列出了ASC任務(wù)的經(jīng)典方法,第二類給出了兩種基于遷移的現(xiàn)有方法,最后一類是我們的基礎(chǔ)ASC模型和兩個增強(qiáng)版本。我們分別使用ATN-AG和ATN-AF來表示使用了注意力引導(dǎo)和注意力融合的ATN。

表3:主實驗結(jié)果(%)

9caeff02-603d-11eb-8b86-12bb97331649.png

我們的基礎(chǔ)ASC模型-基于注意力的BiLSTM通過位置嵌入得到了增強(qiáng),其性能優(yōu)于某些基于注意力的模型(如ATAE-LSTM和IAN)。這個結(jié)果表明位置嵌入對于在ASC任務(wù)中建模目標(biāo)信息是有益的。在此基礎(chǔ)上,我們的注意力轉(zhuǎn)移模型ATN-AG和ATN-AF在restaurant數(shù)據(jù)集上的Accuracy分別提高了約1%和2%,在laptop數(shù)據(jù)集上提高了2.8%。此外,它們超過了兩種使用了轉(zhuǎn)移知識的現(xiàn)有方法,即PRET + MULT和Transcap。

這些結(jié)果證明了我們提出的將注意力知識從資源豐富的DSC數(shù)據(jù)轉(zhuǎn)移到ASC任務(wù)的有效性。與ATN-AG相比,ATN-AF在restaurant數(shù)據(jù)集上具有更好的性能。這是合理的,因為在測試階段,ATN-AG無法利用DSC模塊的注意力權(quán)重。盡管如此,ATN-AG仍在laptop數(shù)據(jù)集上獲得了有競爭力的結(jié)果,并且推理速度比ATN-AF快。

為了研究DSC數(shù)據(jù)集大小對我們方法的影響,我們將DSC數(shù)據(jù)的百分比從0%更改為100%,以報告ATN-AG和ATN-AF的結(jié)果。臨界值0%和100%分別表示無DSC數(shù)據(jù)和使用完整的DSC數(shù)據(jù)集。結(jié)果如圖2所示:

a08d5c18-603d-11eb-8b86-12bb97331649.png

圖3: 在不同百分比的DSC數(shù)據(jù)下ATN-AG和ATN-AF的性能

為了分析超參數(shù)λ對ATN-AG的影響,我們在[0,1]中對其進(jìn)行調(diào)整以進(jìn)行實驗,步長為0.1。 圖3顯示了restaurant和laptop數(shù)據(jù)集上具有不同λ的ATN-AG的性能:

a511fe10-603d-11eb-8b86-12bb97331649.png

圖4: 超參數(shù)λ對ATN-AG的影響

在ATN模型中,我們提出了注意力指導(dǎo)和注意力融合的方法,以幫助ASC模塊更準(zhǔn)確地捕獲情感線索。為了驗證這一點,我們分析了數(shù)十個測試集中的示例。與基礎(chǔ)ASC模型相比,我們發(fā)現(xiàn)注意力轉(zhuǎn)移方法可以處理低頻情感詞和諸如否定之類的復(fù)雜情感模式。表4顯示了兩個示例的注意力可視化結(jié)果以及在模型ATN-AG和ATN-AF下的相應(yīng)情感預(yù)測。

a5b0606e-603d-11eb-8b86-12bb97331649.png

圖5: ATN-AG和ATN-AF的注意力可視化結(jié)果,較深的顏色表示較高的注意力權(quán)重

04

總結(jié)

標(biāo)注數(shù)據(jù)不足會限制基于注意力的模型對ASC任務(wù)的有效性。 本文提出了一種新穎的注意力轉(zhuǎn)移框架,其中設(shè)計了兩種不同的注意力轉(zhuǎn)移方法,以利用資源豐富的文檔級情感分類語料庫中的注意力知識來增強(qiáng)資源貧乏的方面級情感分類的注意力過程,最終達(dá)到改善ASC性能的目標(biāo)。 實驗結(jié)果表明,我們的方法優(yōu)于最新技術(shù)。 進(jìn)一步的分析驗證了從DSC數(shù)據(jù)轉(zhuǎn)移注意力知識到ASC任務(wù)的有效性和好處。

責(zé)任編輯:xj

原文標(biāo)題:【COLING2020】面向方面級情感分類的注意力轉(zhuǎn)移網(wǎng)絡(luò)

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 情感識別
    +關(guān)注

    關(guān)注

    1

    文章

    10

    瀏覽量

    7732
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13992
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23282

原文標(biāo)題:【COLING2020】面向方面級情感分類的注意力轉(zhuǎn)移網(wǎng)絡(luò)

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    三相準(zhǔn)單變換器:面向 8kW-12kW AI 電源設(shè)計

    計算的根本性范式轉(zhuǎn)移。隨著大規(guī)模語言模型(LLM)、多模態(tài)生成式人工智能以及深度學(xué)習(xí)推薦系統(tǒng)參數(shù)量呈指數(shù)爆發(fā),AI 集群的單節(jié)點算需求急劇攀升,直接導(dǎo)致了數(shù)據(jù)中心供電架構(gòu)(Power Delivery Network, PD
    的頭像 發(fā)表于 03-06 09:13 ?502次閱讀
    三相準(zhǔn)單<b class='flag-5'>級</b>變換器:<b class='flag-5'>面向</b> 8kW-12kW AI 電源設(shè)計

    Everspin EMD4E001G-1Gb自旋轉(zhuǎn)移扭矩MRAM內(nèi)存芯片

    作為自旋轉(zhuǎn)移扭矩MRAM技術(shù)的先行者,Everspin推出的EMD4E001G芯片將MRAM容量提升至1Gb密度,為企業(yè)SSD、計算存儲及網(wǎng)絡(luò)加速器提供了全新的數(shù)據(jù)緩沖區(qū)選擇。
    的頭像 發(fā)表于 03-04 15:55 ?108次閱讀
    Everspin EMD4E001G-1Gb自旋<b class='flag-5'>轉(zhuǎn)移</b>扭矩MRAM內(nèi)存芯片

    算法工程師需要具備哪些技能?

    ResNet、VGG)。RNN/LSTM:序列建模(如時間序列預(yù)測、NLP中的文本生成)。Transformer:自注意力機(jī)制(如BERT、GPT)。 模型調(diào)優(yōu)正則化:L1/L2正則化防止過擬合。超參數(shù)
    發(fā)表于 02-27 10:53

    如何基于P300個性化調(diào)控ADHD?

    HUIYINGADHD機(jī)理概述注意力缺陷多動障礙(ADHD)的核心機(jī)理涉及注意力資源分配缺陷,這反映在事件相關(guān)電位(ERP)中P300成分的振幅降低上。ADHD患者(包括成人和兒童)在執(zhí)行
    的頭像 發(fā)表于 01-28 18:24 ?321次閱讀
    如何基于P300個性化調(diào)控ADHD?

    從云端集中到邊緣分布:邊緣智算如何重塑算網(wǎng)絡(luò)布局

    隨著大模型推理延遲進(jìn)入毫秒時代,整個科技行業(yè)都意識到:算網(wǎng)絡(luò)的規(guī)則正在被改寫。這場變革的核心,正是從云端集中式計算向邊緣分布式智能的范式轉(zhuǎn)移。據(jù)行業(yè)多家分析機(jī)構(gòu)綜合預(yù)測,全球AI基
    的頭像 發(fā)表于 12-25 11:34 ?459次閱讀
    從云端集中到邊緣分布:邊緣智算如何重塑算<b class='flag-5'>力</b><b class='flag-5'>網(wǎng)絡(luò)</b>布局

    單片機(jī)的條件轉(zhuǎn)移指令

    條件轉(zhuǎn)移指令是指在滿足一定條件時進(jìn)行相對轉(zhuǎn)移。 判A內(nèi)容是否為0轉(zhuǎn)移指令 JZ rel JNZ rel 第一指令的功能是:如果(A)=0,則轉(zhuǎn)移,不然次序執(zhí)行(執(zhí)行本指令的下一條指令)
    發(fā)表于 12-15 08:01

    自然場景下注意力如何耳周腦電可靠監(jiān)測

    HUIYING自然聽覺注意力概述聽覺注意力是大腦在復(fù)雜聽覺場景中選擇相關(guān)信息、抑制無關(guān)信息的重要認(rèn)知功能。傳統(tǒng)研究多在實驗室內(nèi)使用笨重設(shè)備與人工刺激進(jìn)行,限制了其生態(tài)效度。本研究采用語音包絡(luò)跟蹤、被
    的頭像 發(fā)表于 12-05 18:03 ?4055次閱讀
    自然場景下<b class='flag-5'>注意力</b>如何耳周腦電可靠監(jiān)測

    湘軍,讓算變成生產(chǎn)?

    腦極體
    發(fā)布于 :2025年11月25日 22:56:58

    華為發(fā)布面向移動網(wǎng)絡(luò)的多智能體系統(tǒng)創(chuàng)新成果

    近日,華為無線MAE產(chǎn)品線總裁趙振龍在主題發(fā)言《AgenticRAN,多智能體協(xié)同激發(fā)無線網(wǎng)絡(luò)數(shù)智化生產(chǎn)》中正式向業(yè)界發(fā)布面向移動網(wǎng)絡(luò)的多智能體系統(tǒng)(RAN Multi-Agent
    的頭像 發(fā)表于 10-09 16:44 ?2504次閱讀

    廣和通發(fā)布端側(cè)情感對話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的端側(cè)情感對話大模型FiboEmo-LLM。該模型專注于情感計算與自然語言交互融合,致力于為AI玩具、智能陪伴設(shè)備等終端場景提供“情感理解-情感響應(yīng)”一體化
    的頭像 發(fā)表于 09-26 13:37 ?1913次閱讀

    小白學(xué)大模型:大模型加速的秘密 FlashAttention 1/2/3

    在Transformer架構(gòu)中,注意力機(jī)制的計算復(fù)雜度與序列長度(即文本長度)呈平方關(guān)系()。這意味著,當(dāng)模型需要處理更長的文本時(比如從幾千個詞到幾萬個詞),計算時間和所需的內(nèi)存會急劇增加。最開始
    的頭像 發(fā)表于 09-10 09:28 ?4839次閱讀
    小白學(xué)大模型:大模型加速的秘密 FlashAttention 1/2/3

    華為面向拉美地區(qū)發(fā)布全新星河AI數(shù)據(jù)中心網(wǎng)絡(luò)方案

    在華為數(shù)據(jù)通信創(chuàng)新峰會2025拉美站期間,以“星河AI數(shù)據(jù)中心網(wǎng)絡(luò),賦AI時代新動能”為主題的分論壇上,華為面向拉美地區(qū)發(fā)布全新升級的星河AI數(shù)據(jù)中心網(wǎng)絡(luò)方案。該方案依托AI大腦、AI聯(lián)接、AI網(wǎng)元三層
    的頭像 發(fā)表于 08-11 10:42 ?2347次閱讀

    華為面向中東中亞地區(qū)升級星河AI網(wǎng)絡(luò)

    面向中東中亞地區(qū)發(fā)布星河AI網(wǎng)絡(luò)最新產(chǎn)品及解決方案,通過全面升級園區(qū)、廣域、數(shù)據(jù)中心及網(wǎng)絡(luò)安全等場景的產(chǎn)品與方案,以“AI-Powered智慧聯(lián)接”助力當(dāng)?shù)匕盐罩悄芑l(fā)展新機(jī)遇,提升數(shù)智生產(chǎn)
    的頭像 發(fā)表于 05-21 15:55 ?956次閱讀

    華為面向中東中亞地區(qū)發(fā)布全新星河AI數(shù)據(jù)中心網(wǎng)絡(luò)

    近日,在華為數(shù)據(jù)通信創(chuàng)新峰會2025中東中亞站期間,以“星河AI數(shù)據(jù)中心網(wǎng)絡(luò),賦AI時代新動能”為主題的分論壇上,華為面向中東中亞地區(qū)發(fā)布全新升級的星河AI數(shù)據(jù)中心網(wǎng)絡(luò)方案。該方案基于AI大腦、AI
    的頭像 發(fā)表于 05-21 15:49 ?892次閱讀

    經(jīng)顱電刺激適應(yīng)癥之tDCS治療注意力缺陷ADHD

    ADHD是常見神經(jīng)行為障礙,癥狀包括注意力不集中、多動和沖動,兒童和青少年患病率為5%-7.2%,成人在1%-10%,男孩多于女孩,成年后部分癥狀會持續(xù),引發(fā)多種并發(fā)癥,給個人、家庭和社會帶來
    的頭像 發(fā)表于 04-22 19:49 ?143次閱讀
    經(jīng)顱電刺激適應(yīng)癥之tDCS治療<b class='flag-5'>注意力</b>缺陷ADHD