91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于VLP模型的語義對齊機制

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2022-10-28 11:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

研究動機

對齊不同模態(tài)的語義是多模態(tài)預(yù)訓練(VLP)模型的一個重要能力。然而,VLP模型的內(nèi)部對齊機制是不可知的。許多研究已經(jīng)關(guān)注到這個問題,其中一個主流方法是通過精心設(shè)計的分類探針實驗來探究模型的對齊能力[1, 2]。但是我們認為簡單的分類任務(wù)不能準確地探究的這個問題:第一,這些分類任務(wù)仍然將VLP模型當作黑盒子,只能從分類任務(wù)的指標上分析模型在某一個方面的對齊效果;第二,很多分類任務(wù)只需要使用圖片-文本對中的部分信息就可以完成(例如一個區(qū)域,一個詞組或者兩者都使用)。

b45ed2a6-5606-11ed-a3b6-dac502259ad0.png

圖1:給出1張圖片與6個句子,測試不同的VLP模型會選擇哪個句子與圖片最匹配

為了進一步說明這一點,圖1展示了1張圖片和6個句子,其中句子(a)是對圖片的合理描述,(b)-(f)是不可讀的5個句子。令人驚訝的是,我們測試的5個預(yù)訓練模型都沒有選擇合理的描述(a),這促使我們?nèi)ド钊胙芯縑LP模型會認為哪一種句子是更符合圖片的,即從文本視角探究多模態(tài)預(yù)訓練模型的語義對齊機制。

如果人工去生成圖1所示的不可讀的句子,然后再去測試VLP模型是否對其有偏好是非常困難的,本文則考慮利用自動化的方式生成VLP模型偏好的句子。具體而言,我們可以把VLP模型認為哪個句子更好(匹配分數(shù)越大)作為一種反饋,來訓練一個多模態(tài)生成模型,通過最大化匹配分數(shù)來生成為圖片生成描述。通過這種方式,生成模型會放大VLP模型對句子的偏好并反映到生成的句子中。所以我們提出一個新的探針實驗:使用圖像描述(captioning)模型,通過分析生成的句子來探究VLP模型的多模態(tài)的語義對齊機制。

02

貢獻

1.我們提出了一個新的探針實驗:使用圖像描述模型,通過分析生成描述來探究VLP模型的多模態(tài)的語義對齊機制。

2.我們在5個主流VLP模型上進行了探針實驗,通過captioning模型生成的句子,分析了每一個VLP模型的語義對齊能力。

3.通過5個VLP模型反映出的對齊問題,總結(jié)了目前VLP模型存在的3個缺陷并進行了驗證。

03

探針實驗與分析

我們選擇了5個主流的VLP模型,包括UNITER[3],ROSITA[4],ViLBERT[5],CLIP[6]以及LXMERT[7]。

我們使用COCO數(shù)據(jù)集作為我們探針實驗數(shù)據(jù)集,使用FC model[8]作為實驗的captioning模型。由于VLP的匹配分數(shù)不能直接反饋到圖像描述模型,所以我們使用SCST[8]的方法來優(yōu)化。

經(jīng)過VLP模型匹配分數(shù)的優(yōu)化后,captioning模型生成的句子可以獲得很高的匹配分數(shù)(表1左邊所示),這說明VLP模型認為這些句子與圖片更匹配了。直覺上,這些句子應(yīng)該更好地描述了圖像中的內(nèi)容,但是我們使用圖像描述指標測試這些句子卻發(fā)現(xiàn),它們的指標下降了非常多(表1右邊所示),這促使我們?nèi)z查一下生成的句子發(fā)生了哪些變化。

表1:生成句子在圖像描述指標和VLP模型匹配分數(shù)上的測試結(jié)果。CE表示使用cross-entropy作為loss訓練的基礎(chǔ)模型。b476efbc-5606-11ed-a3b6-dac502259ad0.png

b48f0cdc-5606-11ed-a3b6-dac502259ad0.png圖2經(jīng)過不同VLP模型的匹配分數(shù)優(yōu)化后生成的句子

圖2展示了經(jīng)過匹配分數(shù)優(yōu)化后生成的的句子,我們可以發(fā)現(xiàn)幾乎所有的句子都已經(jīng)變得不可讀。我們從困惑度(perplexity),句子長度,視覺詞的數(shù)量等角度對這些句子進行定量分析,發(fā)現(xiàn)這些句子已經(jīng)與CE模型生成的句子有了非常大的變化(如表2所示)。不僅如此,我們還發(fā)現(xiàn)每一個VLP模型似乎都對某些固定的句式有偏好,如圖2中,被CLIP優(yōu)化的captioning模型,生成的句子的前綴帶(prefix)經(jīng)常含有與“a image of”相關(guān)的詞組。我們利用正則表達式,對這些句子的句式(pattern)進行進行總結(jié)(表3),可以發(fā)現(xiàn)每一個VLP模型都有自己偏好的句式。

表2生成句子的困惑度,長度,視覺詞數(shù)量的統(tǒng)計信息b4d7d7e6-5606-11ed-a3b6-dac502259ad0.png

表3生成句子的句式統(tǒng)計b50bfe22-5606-11ed-a3b6-dac502259ad0.png

04

VLP模型的缺陷

通過上述對生成句子的定量分析,我們發(fā)現(xiàn)現(xiàn)在的預(yù)訓練模型主要存在3個缺陷。為了驗證這3個發(fā)現(xiàn),我們使用了COCO測試集中的5000張圖片。

(a)VLP模型在判斷一個圖片-句子對是否匹配的時候過于依賴圖片中的區(qū)域特征和句子中的視覺詞,而忽視了全局的語義信息是否對齊。

我們對CE生成的句子進行兩種處理:替換視覺詞(Replacing visual words)和替換非視覺詞(Replacing other words)。從圖3中我們可以發(fā)現(xiàn)替換視覺詞會使得VLP模型的匹配分數(shù)大幅下降,但是替換非視覺詞只會讓匹配分數(shù)下降一點。需要注意的是,替換了非視覺詞后的句子是不可讀的,但是模型還是會認為這些不可讀句子與圖片是匹配的。

b522e524-5606-11ed-a3b6-dac502259ad0.png

圖3替換視覺詞與替換非視覺詞的匹配分數(shù)與原始分數(shù)的對比

(b)VLP模型會對偏好某些固定的句式,因此忽視了更重要的文本信息,如流暢度,語法等。

我們利用表3發(fā)現(xiàn)的句式,提取出CE句子的視覺詞,把視覺詞填補到這些句式中。我們僅僅是改變了句子的結(jié)構(gòu),就可以使得這些句子的匹配分數(shù)大幅提高(表4所示)。

表4重構(gòu)后句子的匹配分數(shù)b5581758-5606-11ed-a3b6-dac502259ad0.png

(c)VLP模型認為包含更多視覺詞的句子更匹配圖片,這會弱化圖片中關(guān)鍵物體的作用。

我們把每張圖片的ground-truth中的視覺詞先提取出來,然后每次填充k (k=3,4,5,6,7)個到句式模版中。從圖4中可以看出,隨著視覺詞的增加,重構(gòu)句子的匹配分數(shù)越來越高。

b59e4430-5606-11ed-a3b6-dac502259ad0.png

圖4含有k個視覺詞句子的匹配分數(shù)

05

總結(jié)

在本文中,我們利用圖像描述模型提出一個新穎的探針方法。通過這個方法,我們從文本角度分析了VLP模型的語義對齊機制。我們發(fā)現(xiàn)現(xiàn)有的VLP模型在對齊方面有明顯的缺陷。我們希望這些發(fā)現(xiàn)可以促進研究者設(shè)計更合理的模型結(jié)構(gòu)或預(yù)訓練任務(wù)。同時,研究者也可以使用我們的探針方法,分析其設(shè)計的VLP模型是否存在缺陷。

審核編輯:彭靜

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3755

    瀏覽量

    52121
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26202

原文標題:EMNLP'22 Findings | 南大提出:從文本視角探究多模態(tài)預(yù)訓練模型的語義對齊能力

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    矩陣,如詞-文檔矩陣和詞-上下文矩陣,然后對共現(xiàn)矩陣進行降維操作,得到詞的表示。其中,基于概率主題模型的方法最為流行,如潛在語義索引(LSI)和隱含狄利克雷分布(LDA)等。這些方法通過矩陣分解或貝葉斯
    發(fā)表于 05-05 12:17

    基于OWL屬性特征的語義檢索研究

    語義檢索模型中,設(shè)計本體內(nèi)實體間匹配度算法,度量概念的相似度,并對檢索指標參數(shù)化。設(shè)計的原型系統(tǒng)實驗表明,通過參數(shù)化可以有效調(diào)節(jié)檢索的性能指標,定制用戶的檢索?!娟P(guān)鍵詞】:本體;;Web本體語言
    發(fā)表于 04-24 09:48

    語義對等網(wǎng)覆蓋路由模型的研究

    現(xiàn)有對等網(wǎng)覆蓋路由模型只適應(yīng)精確查找,存在不支持語義查詢的缺點。該文通過建立語義空間,根據(jù)所存儲數(shù)據(jù)對象的興趣來聚集節(jié)點,實現(xiàn)支持語義的對等網(wǎng)絡(luò)路由
    發(fā)表于 04-18 09:27 ?14次下載

    基于CAN協(xié)議P2P網(wǎng)絡(luò)的語義web服務(wù)模型

    本文提出一種基于 CAN 協(xié)議的P2P 網(wǎng)絡(luò)模型語義web 服務(wù)的發(fā)現(xiàn)機制,采用OWL-S對web 服務(wù)進行描述以支持基于語義的搜索能力,采用基于CAN 協(xié)議的P2P 網(wǎng)絡(luò)節(jié)點可以直
    發(fā)表于 09-18 10:32 ?11次下載

    基于語義Web服務(wù)的智能電信業(yè)務(wù)模型

    該文針對電信業(yè)務(wù)領(lǐng)域用戶需求多樣化的實際情況,將互聯(lián)網(wǎng)領(lǐng)域語義Web 服務(wù)模型進行完善,提出了基于語義Web 服務(wù)的智能電信業(yè)務(wù)模型。在模型
    發(fā)表于 11-20 16:49 ?13次下載

    基于四層樹狀語義模型的場景語義識別方法

    場景分類的主要方法是基于底層特征的方法和基于視覺詞包模型的方法,前者缺乏語義描述能力并且時間復(fù)雜度大,后者識別率低。借鑒兩類方法的優(yōu)勢,提出了基于四層樹狀語義模型的場景
    發(fā)表于 12-07 11:17 ?0次下載
    基于四層樹狀<b class='flag-5'>語義</b><b class='flag-5'>模型</b>的場景<b class='flag-5'>語義</b>識別方法

    基于語義網(wǎng)技術(shù)的SLA協(xié)商機制

    針對服務(wù)等級協(xié)議(SLA)的自動協(xié)商中用于協(xié)商的SLA元素及協(xié)商過程缺乏語義描述的問題,提出了一種基于語義網(wǎng)技術(shù)的SLA協(xié)商機制。首先提出一種協(xié)商本體Osn,該本體專門描述直接用于協(xié)商過程的SLA
    發(fā)表于 01-02 17:17 ?0次下載

    基于語音、字形和語義的層次注意力神經(jīng)網(wǎng)絡(luò)模型

    神經(jīng)網(wǎng)絡(luò)、雙向門控循環(huán)單元和注意力機制提取 PFSHAN模型的語音、字形和語義特征。在特征融合階段,針對不同單詞對幽默語言學特征的貢獻程度不同,且不同幽默語言學特征和語句之間關(guān)聯(lián)程度不同的問題,采用層次注意力
    發(fā)表于 03-26 15:38 ?14次下載
    基于語音、字形和<b class='flag-5'>語義</b>的層次注意力神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>模型</b>

    意圖和語義槽填充聯(lián)合識別模型設(shè)計方案

    時記憶網(wǎng)絡(luò)( BLSTM),由 BLSTM得到隱藏層狀態(tài)后,對兩任務(wù)分別加入注意力機制,通過語義槽門控杋制將意圖識別的結(jié)果作用于語乂槽填充任務(wù),并在語乂槽填充任務(wù)中加λ尞件隨杋場(CRF)模型,該
    發(fā)表于 04-12 10:36 ?8次下載
    意圖和<b class='flag-5'>語義</b>槽填充聯(lián)合識別<b class='flag-5'>模型</b>設(shè)計方案

    基于SEGNET模型的圖像語義分割方法

    使用原始 SEGNET模型對圖像進行語義分割時,未對圖像中相鄰像素點間的關(guān)系進行考慮,導(dǎo)致同一目標中像素點類別預(yù)測結(jié)果不一致。通過在 SEGNET結(jié)構(gòu)中加入一條自上而下的通道,使得 SEGNET包含
    發(fā)表于 05-27 14:54 ?15次下載

    基于WordNet模型的遷移學習文本特征對齊算法

    基于WordNet模型的遷移學習文本特征對齊算法
    發(fā)表于 06-27 16:14 ?8次下載

    基于大數(shù)據(jù)和語義識別模型的地震救援平臺

    基于大數(shù)據(jù)和語義識別模型的地震救援平臺
    發(fā)表于 07-05 15:24 ?7次下載

    文本圖片編輯新范式:單個模型實現(xiàn)多文本引導(dǎo)圖像編輯

    本文首先利用已有的編碼器將需要編輯的圖像轉(zhuǎn)換到 StyleGAN 的 語義空間中的潛在編碼 w,再通過提出的語義調(diào)制模塊對該隱編碼進行自適應(yīng)的調(diào)制。該語義調(diào)制模塊包括語義
    的頭像 發(fā)表于 01-10 16:08 ?1479次閱讀

    95VLP857A 數(shù)據(jù)表

    95VLP857A 數(shù)據(jù)表
    發(fā)表于 05-08 19:38 ?0次下載
    95<b class='flag-5'>VLP</b>857A 數(shù)據(jù)表

    圖像分割與語義分割中的CNN模型綜述

    圖像分割與語義分割是計算機視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個具有特定語義含義的區(qū)域或?qū)ο?。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學習的一種核心模型,在圖像分割與語義分割中發(fā)揮著至關(guān)重要的
    的頭像 發(fā)表于 07-09 11:51 ?3067次閱讀