91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

面向?qū)嶓w對象的文本描述情感極性及色彩強(qiáng)度分析

深度學(xué)習(xí)自然語言處理 ? 來源:ChallengeHub ? 作者:ChallengeHub ? 2022-07-05 14:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

之前沒認(rèn)真打過煉丹的比賽,這次機(jī)緣巧合碰上了三個牛逼又靠譜的隊(duì)友,就堅(jiān)持把這次比賽打完了。剛開始的時候沒想到這次能拿下第一,趁著剛答辯完就順帶把這次NLP賽道的方案開源出來,歡迎各位同學(xué)參考和討論。

賽題分析

賽題介紹

這次的比賽由NLP和推薦兩部分組成,推薦的特征工程實(shí)在是做不明白,這次主要還是做NLP的部分。

抄一下官網(wǎng)的NLP賽題介紹:面向?qū)嶓w對象的文本描述情感極性及色彩強(qiáng)度分析。情感極性和強(qiáng)度分為五種情況:極正向、正向、中立、負(fù)向、極負(fù)向。選手需要針對給定的每一個實(shí)體對象,從文本描述的角度,分析出對該實(shí)體的情感極性和強(qiáng)度。

NLP任務(wù)的評價指標(biāo)為macro-F1,在計(jì)算準(zhǔn)確和召回的時候,是按照分析的實(shí)體數(shù)進(jìn)行計(jì)數(shù)的,而非樣本數(shù)。

拿一條數(shù)據(jù)來舉例子(截取部分文本):

{ "content": "離婚之后的林慶昆本以為會有一番更大的天地,沒想到離開了吳敏自己什么都不是......", "entity": {"吳敏": 1, "林慶昆": -1} }

這條數(shù)據(jù)里有一段文本和兩個實(shí)體,需要預(yù)測出這兩個實(shí)體在文本中的情感極性,情感標(biāo)簽為-2, -1, 0, 1, 2五個。

簡單分析可以知道這題可以定義為Aspect-level Sentiment Classification。

數(shù)據(jù)分析

在正式建模之前需要進(jìn)行一些簡單的數(shù)據(jù)分析來挖掘賽題的特點(diǎn)。在這里截取一張和隊(duì)友一起做的PPT的圖:

e1d7f98e-fc23-11ec-ba43-dac502259ad0.jpg

數(shù)據(jù)分析

我們對數(shù)據(jù)中的文本長度、實(shí)體數(shù)量和標(biāo)簽分布進(jìn)行了簡單的分析,這提示我們:

有部分文本長度超過BERT的512最大長度,或許可以考慮長文本處理的常用技巧;

實(shí)體的情感標(biāo)簽分布不平衡,最少的類只有2%左右,或許可以考慮不平衡分類問題的技巧。

但實(shí)驗(yàn)證明上面這些考慮最后都只會成為掉分點(diǎn),具體的思考在后文論述。

模型構(gòu)建

Baseline

官方公布了賽題的Baseline,NLP賽道的Baseline大致是如下思路:將一段文本和文本中的一個實(shí)體拼成一條數(shù)據(jù),一段文本對應(yīng)N個實(shí)體就會有N條數(shù)據(jù)。將一條數(shù)據(jù)輸入BERT-based分類器后輸出一個實(shí)體。

仍然以上一節(jié)的case為例,按Baseline的做法這條數(shù)據(jù)會被拆成兩條數(shù)據(jù)輸入到BERT:

[CLS] 吳敏 [SEP] 離婚之后的林慶昆本以為會有一番更大的天地,沒想到離開了吳敏自己什么都不是... [SEP] [CLS] 林慶昆 [SEP] 離婚之后的林慶昆本以為會有一番更大的天地,沒想到離開了吳敏自己什么都不是... [SEP]

然后以BERT輸出的[CLS]位置的語義向量通過MLP分類器得到情感極性。

實(shí)際上我想思路的時候我還沒看到Baseline,看到Baseline的做法之后我就搖頭。

這里再截一張PPT的圖說明Baseline有什么問題:

e1f8fae4-fc23-11ec-ba43-dac502259ad0.jpg

就是說,一方面預(yù)期效果不好,因?yàn)锽aseline構(gòu)造數(shù)據(jù)的方式使分布發(fā)生了變化(有一個實(shí)體的文本模型會看它一次,有30個實(shí)體的文本模型就會看它30次,但是這點(diǎn)也存疑,因?yàn)榇疝q過程中有選手表示發(fā)現(xiàn)了數(shù)據(jù)的leak,后續(xù)的方法可能是使用了這個leak所以效果才會好的);另一方面把一段文本復(fù)制了好多遍顯然會導(dǎo)致效率大大下降;還有一點(diǎn)在PPT里沒說的是沒有考慮到實(shí)體之間可能存在的潛在關(guān)系。

設(shè)計(jì)思路

再從PPT里截一張圖:

e20777a4-fc23-11ec-ba43-dac502259ad0.jpg

在做這題的時候我就會思考如何做得優(yōu)雅,最好方法是simple yet effective的。最好就是使用以預(yù)訓(xùn)練BERT為backbone的分類器,不對模型結(jié)構(gòu)做太大修改,而且還要能在一次輸入之內(nèi)就并行分類所有實(shí)體。

除了BERT還考慮使用XLNet,因?yàn)閄LNet使用了相對位置編碼,可以原生支持超長文本的輸入,而且XLNet的Tokenizer是字詞結(jié)合的,可以適應(yīng)本次比賽文本長度較長的情況。

模型架構(gòu)

大概想了不到一個小時,想到了如下的方案:

e21221ea-fc23-11ec-ba43-dac502259ad0.jpg

如圖所示,模型的整體架構(gòu)就是一個普通的分類模型,在預(yù)訓(xùn)練的BERT或XLNet模型基礎(chǔ)上增加了簡單的MLP分類器。這個思路的要點(diǎn)在于改變數(shù)據(jù)輸入的方式,利用BERT和XLNet作為Masked Language Model的性質(zhì),以[SEP]符號為界,第一段為文本輸入,第二段按順序輸入所有實(shí)體,實(shí)體之間以[MASK]進(jìn)行分隔,這個[MASK]標(biāo)簽通過BERT Encoder得到的語義向量就代表對應(yīng)實(shí)體的情感極性。將所有[MASK]位置的語義向量通過分類器即可并行對所有的實(shí)體進(jìn)行分類。

這套思路不加Trick的情況下線上F1就可以到69+,讓我在比賽前期就能超過大部分使用Baseline的團(tuán)隊(duì)。

另外根據(jù)線下指標(biāo)推測最終Accuracy在90+,說明這題訓(xùn)練和測試集基本上同分布。

一些補(bǔ)充的思考

要說這個方法為什么會有用,我一開始推測是因?yàn)榭紤]了實(shí)體之間的潛在關(guān)系,而且對數(shù)據(jù)分布的假設(shè)更加合理。

后來決賽答辯的時候聽到有選手提到這個數(shù)據(jù)存在leak,也就是在數(shù)據(jù)中標(biāo)簽非0的實(shí)體會被排在前面,標(biāo)簽為0的實(shí)體會被排在后面。我突然就覺得這可能就是這個方法提升巨大的真正原因,用了這個方法之后,相當(dāng)于模型從中學(xué)到了一個bias,就是靠近文本末尾的實(shí)體,標(biāo)簽為0的可能性更大。

另外,在比賽中期,“靈境”組在討論區(qū)公開了一個方案,我們發(fā)現(xiàn)該方案的核心思路和我們不謀而合。在該方案公開后很多隊(duì)伍的分?jǐn)?shù)都追上來了,在決賽答辯過程中我也發(fā)現(xiàn)很多高分團(tuán)隊(duì)都搬運(yùn)了這套方案。公開的方案和我們做法基本一致,不過使用了一個含有MLM的全套BERT類模型,第二段文本(在該方案中被稱為Prompt)的形式為:“在這句話中,<實(shí)體1>是[MASK],<實(shí)體2>是[MASK]......”,然后MLM頭輸出詞表大小維度(21128)的向量,取五個Token作為Verbalizer(壞、差、平、行、好),分別對應(yīng)五個情感極性標(biāo)簽,忽略其他的Token。

然而,這套方案和我們的做法還存在一定差別,這也是我認(rèn)為該方案在這個任務(wù)上存在的一些問題:

我們不稱輸入的第二段文本為"Prompt",因?yàn)檫@容易和Prompt Tuning概念中的Prompt混淆。該任務(wù)并不適合Prompt Tuning范式,而仍然是采用普通的對全模型進(jìn)行參數(shù)更新的Full Tuning范式。因此在該題中,“Prompt”的形式如何并不重要,增加一些沒什么用的詞反而會擠占第一段文本的輸入長度。

該方案使用了BERT的MLM頭進(jìn)行分類,21128維的詞表中只有五個Token映射到有效標(biāo)簽,其余Token都被忽略。這和我們的方案在結(jié)構(gòu)上基本等價,唯一的區(qū)別是該方案有MLM頭的參數(shù)初始化而我們的分類層為隨機(jī)初始化,這個區(qū)別是否會帶來性能提升不知道,但是直觀的是模型增加了至少768*21123=16M(或者1024*21123=22M)的無用參數(shù)量,在題目有模型總大小限制的情況下這意味著可以融合的模型變少了。

模型優(yōu)化

針對上述提出的模型,我們進(jìn)行了很多優(yōu)化嘗試,下面主要討論上分較多的技巧,沒什么用的東西就在最后放一小節(jié)補(bǔ)充說明。很多優(yōu)化技巧都會導(dǎo)致訓(xùn)練或測試階段時空開銷大大提升,比賽時還是應(yīng)該視情況使用。

線下數(shù)據(jù)劃分方式

隊(duì)友發(fā)現(xiàn),初賽階段使用前90%數(shù)據(jù)訓(xùn)練,后10%驗(yàn)證,可以取得最好的線上效果,隨機(jī)10%效果會變差一些,增加訓(xùn)練數(shù)據(jù)也不能使效果變好。復(fù)賽階段使用了同樣的數(shù)據(jù)劃分方式。

對抗訓(xùn)練(FGM)

在各類文本分類任務(wù)中,常用的提升NLP模型訓(xùn)練魯棒性和泛化能力的有效方法。簡單來說是在Embedding層的參數(shù)有一定程度擾動時也盡量保證模型能分類正確。事后估計(jì)初賽線上提升1%左右。

參考了這篇知乎文章的實(shí)現(xiàn)方法:Nicolas:【煉丹技巧】功守道:NLP中的對抗訓(xùn)練 + PyTorch實(shí)現(xiàn)

模型平均 (SWA)

對訓(xùn)練過程中的多個checkpoint進(jìn)行權(quán)重平均,或許可以有助于模型收斂到loss landscape平坦區(qū)域的中心,提升模型的泛化能力。具體而言,我們在驗(yàn)證指標(biāo)的最高點(diǎn)開始,將這一輪和到Early Stopping之前的各輪驗(yàn)證時,驗(yàn)證指標(biāo)與最高點(diǎn)差值小于一定值的模型權(quán)重放進(jìn)來平均。事后估計(jì)初賽線上提升1%左右。

模型融合

沒什么好說的,幾個模型預(yù)測的logits平均得到最終結(jié)果。值得注意的是這題有2G的模型總大小限制,因此我們需要考慮融合模型的異構(gòu)度不能盲目做K折,最后融合了2個稍微異構(gòu)的XLNet-Mid + 1個MacBERT-Large + 1個RoBERTa-Large,全部保存為FP16格式,模型文件總大小2043M正好小于2G。估計(jì)初賽提升大約1%,復(fù)賽提升大約2%。

偽標(biāo)簽

在模型融合的基礎(chǔ)上,使用融合模型預(yù)測的測試集標(biāo)簽作為偽標(biāo)簽,將測試集數(shù)據(jù)加入訓(xùn)練集中再次訓(xùn)練模型。在復(fù)賽中,我們?yōu)榱吮苊舛嗄P驮跍y試集上的預(yù)測結(jié)果失去異構(gòu)性,我們沒有把全部測試數(shù)據(jù)都加入訓(xùn)練集,而是四個模型預(yù)測結(jié)果投票,大于等于三個模型預(yù)測一致的數(shù)據(jù)才會被加入訓(xùn)練集。這個訓(xùn)練集會重新被用于訓(xùn)練四個模型,然后重新進(jìn)行融合。復(fù)賽在模型融合基礎(chǔ)上還有1%左右的提升。

復(fù)賽數(shù)據(jù)適配

e22e019e-fc23-11ec-ba43-dac502259ad0.jpg

如圖所示。在復(fù)賽開始的時候,起初我們使用初賽訓(xùn)練集+復(fù)賽訓(xùn)練集的全量訓(xùn)練數(shù)據(jù)對模型進(jìn)行訓(xùn)練,結(jié)果發(fā)現(xiàn)效果不好。后來發(fā)現(xiàn)復(fù)賽數(shù)據(jù)相比初賽數(shù)據(jù)的分布可能發(fā)生了較大的偏移,因此我們考慮用初賽訓(xùn)練好的模型的權(quán)重來對模型進(jìn)行初始化,然后只在復(fù)賽數(shù)據(jù)集上訓(xùn)練。相比全量數(shù)據(jù)訓(xùn)練提升近3%,驗(yàn)證了我們的猜想。

沒什么用的

R-Drop:在有了FGM,SWA等東西的情況下沒有什么提升,而且還慢。

PGD:慢而且相比FGM沒什么提升。

EMA:有了SWA之后也顯得沒用。

數(shù)據(jù)增強(qiáng):嘗試了EDA和AEDA,本來以為會有用實(shí)際上沒用。

長文本處理:估計(jì)是沒有什么用,某次偶然發(fā)現(xiàn)設(shè)置最大長度512的XLNet和最大長度800的XLNet相比效果基本沒有差別,用MacBERT和RoBERTa訓(xùn)的模型和XLNet比效果也相差不大。推測可能是因?yàn)榍鞍攵挝谋镜男畔⒘恳呀?jīng)足夠?qū)^大多數(shù)實(shí)體正確分類了。

標(biāo)簽不平衡處理:嘗試過Focal Loss和類別重加權(quán),也沒有什么用。猜測可能是因?yàn)閿?shù)據(jù)中2和-2的數(shù)據(jù)量也相對充足(各有幾千個實(shí)體),在普通Cross Entropy下充分學(xué)習(xí)也可以對這些類大部分樣本正確分類了,而修改Loss反而會扭曲模型學(xué)習(xí)到的分布,對于訓(xùn)練和測試同分布的情況下反而不利。

評測結(jié)果

初賽、復(fù)賽和決賽評測均為NLP賽道第一。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)分析
    +關(guān)注

    關(guān)注

    2

    文章

    1516

    瀏覽量

    36255
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23282

原文標(biāo)題:競賽 | Aspect-based的情感分析任務(wù)第一名方法解讀 -- 2022搜狐校園算法大賽

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Linux Shell文本處理神器合集:15個工具+實(shí)戰(zhàn)例子,效率直接翻倍

    在 Linux 系統(tǒng)中,文本是數(shù)據(jù)交互的 “通用語言”—— 日志文件、配置文件、數(shù)據(jù)報(bào)表、程序輸出幾乎都以文本形式存在。手動編輯文本不僅繁瑣,還容易出錯,而掌握 Shell 文本處理工
    的頭像 發(fā)表于 02-03 15:42 ?1614次閱讀
    Linux Shell<b class='flag-5'>文本</b>處理神器合集:15個工具+實(shí)戰(zhàn)例子,效率直接翻倍

    新龍鵬科技自研色彩校正工具介紹

    , Wy) 3、Gamma/EOTF 4、數(shù)據(jù)量化范圍 色彩測量、分析,分析報(bào)告 色彩測量 支持多種彩色分析儀,能夠快速、準(zhǔn)確獲取
    發(fā)表于 02-02 15:41

    高壓探頭可以測負(fù)極性電壓嗎?

    一、核心結(jié)論:負(fù)極性電壓可測性,取決于探頭類型與設(shè)計(jì)特性 高壓探頭能否對負(fù)極性電壓進(jìn)行有效測量,不存在統(tǒng)一答案,核心判定依據(jù)在于探頭的結(jié)構(gòu)設(shè)計(jì)方案及核心技術(shù)參數(shù)。不同類型的高壓探頭,其負(fù)極性電壓測量
    的頭像 發(fā)表于 01-12 10:15 ?171次閱讀
    高壓探頭可以測負(fù)<b class='flag-5'>極性</b>電壓嗎?

    C語言與C++的區(qū)別及聯(lián)系

    面向過程語言,而C++是面向對象語言。說C和C++的區(qū)別,也就是在比較面向過程和面向對象的區(qū)別
    發(fā)表于 12-24 07:23

    光纖極性的 4 條基本“操作”規(guī)則

    了解光纖極性以及如何絕對確定地連接系統(tǒng)是成功安裝的關(guān)鍵。然而,棘手的部分是沒有“正確”的方法來處理光纖極性。每個制造商通常都提供自己的光纖極性解決方案。 在本文中,我們將解釋如何使用預(yù)端接光纖電纜
    的頭像 發(fā)表于 12-22 10:24 ?244次閱讀
    光纖<b class='flag-5'>極性</b>的 4 條基本“操作”規(guī)則

    有哪些設(shè)備可以檢測電磁干擾的強(qiáng)度?

    、核心設(shè)備 1:頻譜分析儀(全頻段精準(zhǔn)測量) 核心用途 :測量不同頻率下的電磁干擾強(qiáng)度(單位:dBμV、dBm),是干擾檢測的 “主力設(shè)備”。 適用場景 :實(shí)驗(yàn)室精度測試、現(xiàn)場干擾源定位(如變頻器、電機(jī)的輻射干擾)、寬頻段干擾掃描(
    的頭像 發(fā)表于 11-06 15:44 ?1776次閱讀

    廣和通發(fā)布端側(cè)情感對話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的端側(cè)情感對話大模型FiboEmo-LLM。該模型專注于情感計(jì)算與自然語言交互融合,致力于為AI玩具、智能陪伴設(shè)備等終端場景提供“情感理解-情感響應(yīng)”一體化
    的頭像 發(fā)表于 09-26 13:37 ?1913次閱讀

    用快手電商 API 實(shí)現(xiàn)快手小店商品評論情感分析

    ? 在電商運(yùn)營中,商品評論是用戶反饋的核心來源,它能直接影響購買決策和產(chǎn)品優(yōu)化。通過情感分析,商家可以自動識別評論中的正面、負(fù)面或中性情緒,從而快速響應(yīng)問題、提升服務(wù)質(zhì)量。快手電商平臺提供了開放
    的頭像 發(fā)表于 08-26 15:08 ?589次閱讀
    用快手電商 API 實(shí)現(xiàn)快手小店商品評論<b class='flag-5'>情感</b><b class='flag-5'>分析</b>

    飛書開源“RTV”富文本組件 重塑鴻蒙應(yīng)用富文本渲染體驗(yàn)

    近日,飛書正式將其自研的富文本組件庫?RichTextVista(簡稱“RTV”)開源,并上線OpenHarmony?三方庫中心倉。該組件以領(lǐng)先的性能、流暢的渲染體驗(yàn)與高度的開放性,為鴻蒙生態(tài)提供了
    的頭像 發(fā)表于 07-11 15:20 ?661次閱讀
    飛書開源“RTV”富<b class='flag-5'>文本</b>組件 重塑鴻蒙應(yīng)用富<b class='flag-5'>文本</b>渲染體驗(yàn)

    PCB絲印極性標(biāo)記的實(shí)用設(shè)計(jì)技巧

    要素。 一個設(shè)計(jì)精良的PCB絲印標(biāo)記,能顯著提升工作效率,降低焊接錯誤風(fēng)險(xiǎn),為電路板的生產(chǎn)、測試、維修等環(huán)節(jié)提供有力支持。然而,實(shí)際設(shè)計(jì)過程中,絲印極性標(biāo)記卻常常存在一些問題,需要我們深入探討與改進(jìn)
    發(fā)表于 07-09 11:43

    FRED應(yīng)用:數(shù)字化極坐標(biāo)數(shù)據(jù)取樣

    區(qū)域右鍵然后選擇”Append Azimuthal Angle” 通過添加一個方向分析實(shí)體(DAE)到系統(tǒng)模型中,我們就可以驗(yàn)證強(qiáng)度分布曲線。右鍵點(diǎn)擊分析表面文件夾,從列表菜單里選擇
    發(fā)表于 06-18 08:47

    特勵達(dá)的INFINITY色彩預(yù)設(shè)實(shí)現(xiàn)色彩精度,幫助工業(yè)相機(jī)捕捉精準(zhǔn)、可靠的圖像

    色彩精度對于明場顯微鏡至關(guān)重要,無論是分析蘇木精和伊紅(H&E)染色切片、開發(fā)AI輔助診斷模型,還是進(jìn)行全片成像。然而,實(shí)現(xiàn)真實(shí)的色彩保真度并非易事。不同傳感器捕捉色彩的方式存在差異,
    的頭像 發(fā)表于 06-06 17:08 ?982次閱讀
    特勵達(dá)的INFINITY<b class='flag-5'>色彩</b>預(yù)設(shè)實(shí)現(xiàn)<b class='flag-5'>色彩</b>精度,幫助工業(yè)相機(jī)捕捉精準(zhǔn)、可靠的圖像

    FRED應(yīng)用:數(shù)字化極坐標(biāo)數(shù)據(jù)取樣

    區(qū)域右鍵然后選擇”Append Azimuthal Angle” 通過添加一個方向分析實(shí)體(DAE)到系統(tǒng)模型中,我們就可以驗(yàn)證強(qiáng)度分布曲線。右鍵點(diǎn)擊分析表面文件夾,從列表菜單里選擇
    發(fā)表于 05-28 08:46

    時域網(wǎng)絡(luò)分析儀如何檢測電纜故障?

    。故障點(diǎn)處的反射信號強(qiáng)度極性取決于故障的性質(zhì)。例如,對于斷路故障,故障點(diǎn)處的阻抗會變得非常大,相當(dāng)于開路,此時反射信號的極性與入射信號相同,且反射信號的幅度較大;對于短路故障,故障點(diǎn)處的阻抗會變得
    發(fā)表于 04-29 14:37

    把樹莓派打造成識別文本的“神器”!

    在許多項(xiàng)目中,RaspberryPi被用作監(jiān)控?cái)z像頭或執(zhí)行機(jī)器學(xué)習(xí)任務(wù)。在這些場景中,圖像中經(jīng)常包含應(yīng)用程序感興趣的文本信息。我們希望提取這些信息并將其轉(zhuǎn)換,以便通過程序分析文本
    的頭像 發(fā)表于 03-25 09:30 ?993次閱讀
    把樹莓派打造成識別<b class='flag-5'>文本</b>的“神器”!