91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

識別文本蘊(yùn)涵任務(wù)的小樣本學(xué)習(xí)

Tensorflowers ? 來源:蘇黎世語言團(tuán)隊 ? 作者:Julian Eisenschlos, ? 2021-03-10 18:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

識別文本蘊(yùn)涵的任務(wù),也稱自然語言推理,是指確定一段文本(前提)是否可被另一段文本(假設(shè))所暗示或否認(rèn)(或兩者都不能)。雖然這一問題通常被視為機(jī)器學(xué)習(xí) (ML) 系統(tǒng)推理能力的重要測試,并且在純文本輸入方面已經(jīng)有過深入研究,但對于此類模型在結(jié)構(gòu)化數(shù)據(jù),如網(wǎng)站、表格、數(shù)據(jù)庫等方面的應(yīng)用,相關(guān)投入?yún)s要少得多。然而,每當(dāng)需要將表格的內(nèi)容準(zhǔn)確地歸納并呈現(xiàn)給用戶時,識別文本蘊(yùn)涵就顯得尤為重要,這對于高保真的問答系統(tǒng)和虛擬助手來說更是必不可少。

在發(fā)表于 Findings of EMNLP 2020 的“通過中間預(yù)訓(xùn)練以了解表格(Understanding tables with intermediate pre-training)”中,我們介紹了為表格解析定制的首批預(yù)訓(xùn)練任務(wù),可使模型從更少的數(shù)據(jù)中更好、更快地學(xué)習(xí)。

我們在較早的 TAPAS模型基礎(chǔ)上進(jìn)行了改進(jìn),該模型是 BERT雙向 Transformer 模型的擴(kuò)展,采用特殊嵌入向量在表格中尋找答案。新的預(yù)訓(xùn)練目標(biāo)應(yīng)用于 TAPAS 后即在涉及表格的多個數(shù)據(jù)集上達(dá)成突破性進(jìn)展。

例如,在 TabFact 上,它將模型和人類之間的表現(xiàn)差距縮小了約 50%。我們還系統(tǒng)地對選擇相關(guān)輸入的方法進(jìn)行了基準(zhǔn)測試以獲得更高效率,實現(xiàn)了速度和內(nèi)存的 4 倍提升,同時保留了 92% 的結(jié)果。適用于不同任務(wù)和規(guī)模的所有模型均已發(fā)布在 GitHub repo 中,您可以在 Colab Notebook 中試用它們。

文本蘊(yùn)涵

當(dāng)應(yīng)用于表格數(shù)據(jù)時,相比于純文本,文本蘊(yùn)涵任務(wù)更具挑戰(zhàn)性。以一份 Wikipedia 的表格為例,其中有一些句子來自其關(guān)聯(lián)的表格內(nèi)容。評估表格內(nèi)容是包含還是與句子相矛盾,這可能需要查看多個列和行,還可能需要執(zhí)行簡單的數(shù)字計算,例如求平均值、求和、差分等。

0bdc95fe-7ee5-11eb-8b86-12bb97331649.png

表格,以及來自 TabFact 的一些語句:表格內(nèi)容可用于支持或反駁語句

按照 TAPAS 使用的方法,我們將語句和表格的內(nèi)容一起編碼,通過 Transformer 模型傳遞,得到一個單一數(shù)字,表示語句被表格蘊(yùn)涵或反駁的概率。

TAPAS 模型架構(gòu)使用 BERT 模型對語句和展平的表格進(jìn)行編碼,逐行讀取。特殊嵌入向量用于編碼表格結(jié)構(gòu)。第一個令牌的向量輸出用于預(yù)測蘊(yùn)涵的概率

由于訓(xùn)練樣本中唯一的信息是一個二元值(即“正確”或“不正確”),因此訓(xùn)練模型來理解語句是否被蘊(yùn)涵是具有挑戰(zhàn)性的。這也凸顯了在深度學(xué)習(xí)中泛化的困難,特別是當(dāng)提供的訓(xùn)練信號較為稀缺的時候。發(fā)現(xiàn)孤立的蘊(yùn)涵或反駁樣本時,模型可以輕松地在數(shù)據(jù)中提取虛假模式進(jìn)行預(yù)測,例如在“Greg Norman and Billy Mayfair tie in rank”中提取“tie”一詞,而不是比較排名,因此無法超越原始訓(xùn)練數(shù)據(jù)成功應(yīng)用模型。

預(yù)訓(xùn)練任務(wù)

預(yù)訓(xùn)練任務(wù)可通過提供大量現(xiàn)成的未標(biāo)記數(shù)據(jù)來“預(yù)熱”模型。然而,預(yù)訓(xùn)練通常主要包括純文本而非表格數(shù)據(jù)。事實上,TAPAS 最初的預(yù)訓(xùn)練使用的是簡單的掩碼語言建模目標(biāo),而這一目標(biāo)并非為表格數(shù)據(jù)應(yīng)用而設(shè)計。為了提高模型在表格數(shù)據(jù)上的性能,我們引入了兩個新的預(yù)訓(xùn)練二元分類任務(wù),稱其為反事實和合成任務(wù),可以用作預(yù)訓(xùn)練的第二階段(通常稱為中間預(yù)訓(xùn)練)。

在反事實任務(wù)中,我們從 Wikipedia 提取句子,該句子提到同時出現(xiàn)在給定表格中的實體(人、地點或事物)。然后,在 50% 的時間里,我們將實體替換為另一個替代實體來修改語句。為了確保語句的真實性,我們在表格中同一列的實體內(nèi)選擇一個替換。模型以識別語句是否被修改為目標(biāo)接受訓(xùn)練。這項預(yù)訓(xùn)練任務(wù)包括數(shù)百萬個這樣的樣本,雖然它們的推理并不復(fù)雜,但通常還是會聽起來很自然。

對于合成任務(wù),我們采取類似于語義解析的方法,使用一組簡單的語法規(guī)則生成語句,要求模型理解基本的數(shù)學(xué)運算,比如求和與求平均值(例如“the sum of earnings”),或者理解如何使用條件過濾表格中的元素(例如“the country is Australia”)。雖然這些語句是人為的,但它們?nèi)匀挥兄谔岣吣P偷臄?shù)字和邏輯推理能力。

兩個新的預(yù)訓(xùn)練任務(wù)的示例實例。反事實示例將輸入表格隨附的句子中提及的實體換為一個可信的替代實體。合成語句使用語法規(guī)則創(chuàng)建新句子,這些句子需要以復(fù)雜的方式組合表格的信息

結(jié)果

我們通過與基線 TAPAS 模型和先前兩個文本蘊(yùn)涵領(lǐng)域的成功模型 LogicalFactChecker (LFC) 和 Structure Aware Transformer (SAT) 進(jìn)行比較,評估了反事實和合成預(yù)訓(xùn)練目標(biāo)在 TabFact 數(shù)據(jù)集上的成功?;€ TAPAS 模型相對于 LFC 和 SAT 表現(xiàn)出更好的性能,但預(yù)訓(xùn)練的模型 (TAPAS+CS) 的性能明顯更好,達(dá)到新的技術(shù)水平。

我們還將 TAPAS+CS 應(yīng)用于 SQA 數(shù)據(jù)集上的問答任務(wù),這要求模型在對話框環(huán)境下從表格內(nèi)容中找到答案。加入 CS 目標(biāo)后,最佳性能相比于之前提高了 4 個百分點以上,這表明這種方法還可以將性能泛化到文本蘊(yùn)涵之外。

TabFact(左)和 SQA(右)的結(jié)果。使用合成和反事實數(shù)據(jù)集,我們在這兩項任務(wù)中都以較大優(yōu)勢取得了新的最先進(jìn)結(jié)果

數(shù)據(jù)和計算效率

反事實和合成預(yù)訓(xùn)練任務(wù)的另一個方面是,由于模型已經(jīng)針對二元分類進(jìn)行了調(diào)整,因此可以應(yīng)用而無需對 TabFact 進(jìn)行任何微調(diào)。我們探索了只對數(shù)據(jù)的一個子集(甚至沒有數(shù)據(jù))進(jìn)行訓(xùn)練時,每個模型會發(fā)生什么。不查看單個樣本時,TAPAS+CS 模型與強(qiáng)基線 Table-Bert 不相上下,只包含 10% 的數(shù)據(jù)時,結(jié)果與先前的最先進(jìn)水平相當(dāng)。

TabFact 上的開發(fā)準(zhǔn)確率相對于所用訓(xùn)練數(shù)據(jù)的分?jǐn)?shù)

試圖使用此類大型模型對表格進(jìn)行操作時,一個普遍的擔(dān)憂是,高計算要求會使其難以解析非常大的表格。為了解決這個問題,我們研究了是否可以啟發(fā)式地選擇要通過模型的輸入子集,以優(yōu)化其計算效率。

我們對各種過濾輸入的方法進(jìn)行了系統(tǒng)性研究,發(fā)現(xiàn)選擇整列和主題語句之間的單詞重疊的簡單方法可獲得最佳結(jié)果。通過動態(tài)選擇要包括的輸入令牌,我們可以使用更少的資源或以相同的成本處理更大的輸入。這樣做的挑戰(zhàn)是如何保留重要信息和準(zhǔn)確率。

例如,上述模型全部使用 512 個令牌的序列,接近于 Transformer 模型的正常極限(盡管最近的效率方法,如 Reformer或 Performer被證明可以有效地縮放輸入大?。N覀冊谶@里提出的列選擇方法可以讓訓(xùn)練速度更快,同時還能在 TabFact 上實現(xiàn)高準(zhǔn)確率。對于 256 個輸入令牌,我們的準(zhǔn)確率下降非常小,但現(xiàn)在可以對模型進(jìn)行預(yù)訓(xùn)練、微調(diào),并使預(yù)測速度提高 2 倍。在 128 個令牌的情況下,模型仍然優(yōu)于之前的最先進(jìn)模型,速度提升更為顯著,獲得 4 倍全面提升。

通過我們的列選擇方法縮短輸入,使用不同序列長度在 TabFact 上得出的準(zhǔn)確率

使用我們提出的列選擇方法和新穎的預(yù)訓(xùn)練任務(wù),可以創(chuàng)建出以更少數(shù)據(jù)和更少計算能力得出更好結(jié)果的表格解析模型。

我們已經(jīng)在 GitHub repo 中提供了新的模型和預(yù)訓(xùn)練技術(shù),您可以在 Colab 中親自嘗試。為了使這種方法更易于使用,我們還共享了不同大小的模型,最小到“Tiny”。我們希望這些結(jié)果有助于在更廣泛的研究社區(qū)中推動表格推理的發(fā)展。

這項工作由蘇黎世語言團(tuán)隊的 Julian Martin Eisenschlos、Syrine Krichene 和 Thomas Müller 完成。

原文標(biāo)題:用于表格數(shù)據(jù)推理的小樣本學(xué)習(xí)

文章出處:【微信公眾號:TensorFlow】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7339

    瀏覽量

    94823
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8556

    瀏覽量

    137002
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13996

原文標(biāo)題:用于表格數(shù)據(jù)推理的小樣本學(xué)習(xí)

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    金屬小樣品電阻率的四探針高精度測量方法

    用于金屬小樣品時尺寸效應(yīng)影響顯著,現(xiàn)有修正模型缺乏系統(tǒng)驗證。本文以純鐵樣品為研究對象,借助Xfilm埃利的四探針技術(shù)系統(tǒng),探究輸入電流、測量模式及樣品尺寸對測量結(jié)果的
    的頭像 發(fā)表于 03-03 18:04 ?75次閱讀
    金屬<b class='flag-5'>小樣</b>品電阻率的四探針高精度測量方法

    詳解DBC的Signal與JSON文本結(jié)合

    為了優(yōu)化CAN數(shù)據(jù)發(fā)送與接收的操作流程,更改以前手動輸入狀態(tài)對應(yīng)數(shù)據(jù)的模式,采用下拉列表選擇內(nèi)容,但這需要用到超出DBC原有承載能力的信息。因此,將JSON與其結(jié)合,采用JSON格式文本寫入Signal的Comment屬性,將Comment屬性的字符串通過JSON文本拓展
    的頭像 發(fā)表于 01-06 10:57 ?306次閱讀
    詳解DBC的Signal與JSON<b class='flag-5'>文本</b>結(jié)合

    經(jīng)世智能復(fù)合機(jī)器人,助力實驗室檢測樣本上下料,提升實驗效率

    在生命科學(xué)、醫(yī)藥研發(fā)、環(huán)境監(jiān)測等前沿領(lǐng)域的實驗室中,樣本檢測的準(zhǔn)確性與時效性直接關(guān)系到實驗成果的產(chǎn)出效率。然而,傳統(tǒng)人工進(jìn)行檢測樣本上下料時,常面臨“樣本種類繁雜易混淆、微量樣本操作誤
    的頭像 發(fā)表于 11-18 13:43 ?1840次閱讀
    經(jīng)世智能復(fù)合機(jī)器人,助力實驗室檢測<b class='flag-5'>樣本</b>上下料,提升實驗效率

    語音識別芯片有哪些(語音識別芯片AT680系列)

    在人工智能技術(shù)飛速發(fā)展的今天,語音識別芯片作為人機(jī)交互的重要橋梁,正逐漸成為各類智能設(shè)備不可或缺的核心部件。與傳統(tǒng)的語音芯片不同,語音識別芯片不僅能存儲和播放聲音,更能真正實現(xiàn)對人聲的識別與理解,從而完成指令響應(yīng)、交互對話等復(fù)雜
    的頭像 發(fā)表于 11-14 17:11 ?1397次閱讀

    ElfBoard技術(shù)貼|如何在【RK3588】ELF 2開發(fā)板上完成PPOC本地化部署

    PPOCR是由百度開發(fā)的一款開源深度學(xué)習(xí)OCR(光學(xué)字符識別)模型,專注于文本檢測、識別與理解任務(wù),具備多場景、多語言的字符
    的頭像 發(fā)表于 11-14 10:54 ?7218次閱讀
    ElfBoard技術(shù)貼|如何在【RK3588】ELF 2開發(fā)板上完成PPOC本地化部署

    模板驅(qū)動 無需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開發(fā)難題

    。但是這個平臺不適用于小樣本AI模型開發(fā),特別是一些特殊行業(yè),數(shù)據(jù)本來就不多,但又有著需求,因此陷于兩難。面臨這種市場困境,慧視光電推出了一個全新的AI平臺Sma
    的頭像 發(fā)表于 09-09 17:57 ?1415次閱讀
    模板驅(qū)動  無需訓(xùn)練數(shù)據(jù)  SmartDP解決<b class='flag-5'>小樣本</b>AI算法模型開發(fā)難題

    飛書開源“RTV”富文本組件 重塑鴻蒙應(yīng)用富文本渲染體驗

    更高效的富文本解決方案。 富文本作為內(nèi)容展示和信息交互的重要形式,在內(nèi)容創(chuàng)作、辦公協(xié)作、教育學(xué)習(xí)、企業(yè)應(yīng)用等多種復(fù)雜業(yè)務(wù)場景中扮演著重要角色。隨著鴻蒙生態(tài)應(yīng)用類型的不斷豐富,富文本渲染
    的頭像 發(fā)表于 07-11 15:20 ?662次閱讀
    飛書開源“RTV”富<b class='flag-5'>文本</b>組件 重塑鴻蒙應(yīng)用富<b class='flag-5'>文本</b>渲染體驗

    基于LockAI視覺識別模塊:手寫數(shù)字識別

    1.1 手寫數(shù)字識別簡介 手寫數(shù)字識別是一種利用計算機(jī)視覺和機(jī)器學(xué)習(xí)技術(shù)自動識別手寫數(shù)字的過程。它通過圖像預(yù)處理、特征提取和模型訓(xùn)練來實現(xiàn)高效準(zhǔn)確的數(shù)字
    發(fā)表于 06-30 16:45

    深度學(xué)習(xí)賦能:正面吊車載箱號識別系統(tǒng)的核心技術(shù)

    在現(xiàn)代物流與智慧港口建設(shè)中,集裝箱的高效精準(zhǔn)識別是提升作業(yè)效率的關(guān)鍵環(huán)節(jié)。基于OCR+AI深度學(xué)習(xí)技術(shù)的正面吊車載箱號識別系統(tǒng),憑借99%以上的識別率和毫秒級響應(yīng)速度,正成為港口自動化
    的頭像 發(fā)表于 05-07 10:10 ?584次閱讀

    海思SD3403邊緣計算AI數(shù)據(jù)訓(xùn)練概述

    AI數(shù)據(jù)訓(xùn)練:基于用戶特定應(yīng)用場景,用戶采集照片或視頻,通過AI數(shù)據(jù)訓(xùn)練工程師**(用戶公司****員工)** ,進(jìn)行特征標(biāo)定后,將標(biāo)定好的訓(xùn)練樣本,通過AI訓(xùn)練服務(wù)器,進(jìn)行AI學(xué)習(xí)訓(xùn)練獲得訓(xùn)練
    發(fā)表于 04-28 11:11

    西門子伺服電機(jī)簡明樣本

    西門子伺服電機(jī)簡明樣本
    發(fā)表于 04-14 15:36 ?2次下載

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用深度學(xué)習(xí)幾乎可以描述
    的頭像 發(fā)表于 04-02 18:21 ?1530次閱讀

    【幸狐Omni3576邊緣計算套件試用體驗】人臉識別

    RetinaFace 是帝國理工學(xué)院在 2019 年 5 月發(fā)表的論文中描述的人臉檢測算法,作者開源了相關(guān)代碼。 Retinaface 是一種單階段人臉檢測器,它通過聯(lián)合額外監(jiān)督和自監(jiān)督多任務(wù)學(xué)習(xí)的優(yōu)勢,在各種尺度
    發(fā)表于 04-01 21:46

    把樹莓派打造成識別文本的“神器”!

    在許多項目中,RaspberryPi被用作監(jiān)控攝像頭或執(zhí)行機(jī)器學(xué)習(xí)任務(wù)。在這些場景中,圖像中經(jīng)常包含應(yīng)用程序感興趣的文本信息。我們希望提取這些信息并將其轉(zhuǎn)換,以便通過程序分析文本
    的頭像 發(fā)表于 03-25 09:30 ?993次閱讀
    把樹莓派打造成<b class='flag-5'>識別</b><b class='flag-5'>文本</b>的“神器”!

    芯資訊|WTK6900系列語音識別芯片IC自學(xué)習(xí)功能解析

    在人工智能與物聯(lián)網(wǎng)技術(shù)深度融合的今天,離線語音識別技術(shù)憑借其隱私安全、即時響應(yīng)等優(yōu)勢,正在智能家居、工業(yè)控制等領(lǐng)域快速普及。廣州唯創(chuàng)電子推出的WTK6900系列語音識別芯片,憑借其創(chuàng)新的離線命令詞
    的頭像 發(fā)表于 03-20 08:52 ?1017次閱讀
    芯資訊|WTK6900系列語音<b class='flag-5'>識別</b>芯片IC自<b class='flag-5'>學(xué)習(xí)</b>功能解析