91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

生成式摘要的經(jīng)典模型

深度學習自然語言處理 ? 來源:AI算法小喵 ? 作者:AI算法小喵 ? 2022-07-08 17:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

寫在前面

在一文詳解生成式文本摘要經(jīng)典論文Pointer-Generator中我們介紹了生成式摘要的經(jīng)典模型,今天我們來分享一篇帶風格的標題生成的經(jīng)典工作。

dc93a2f0-fe9b-11ec-ba43-dac502259ad0.png

以往的標題模型產(chǎn)生的都是平實性標題,即簡單語言描述的事實性標題。但是,實際上我們可能更需要有記憶點的爆款標題來增加點擊量/曝光率。因此,衍生出了一個新任務——帶有風格的標題生成,即Stylistic Headline Generation,簡稱SHG。

本篇文章將介紹TitleStylist模型,該模型是針對SHG任務提出的,它可以生成相關、通順且具有風格的標題,其中風格主要包括三種:幽默、浪漫、標題黨。

論文名稱:《Hooks in the Headline: Learning to Generate Headlines with Controlled Styles》

論文鏈接:https://arxiv.org/abs/2004.01980v1

代碼地址:https://github.com/jind11/TitleStylist

1. 問題定義

首先假設我們有兩類數(shù)據(jù)和:是由文章-標題對組成的數(shù)據(jù);是由具有某種特定風格的句子組成的數(shù)據(jù)。

我們用來表示數(shù)據(jù),其中表示文章,表示標題。此外,我們用來表示數(shù)據(jù)。需要注意的是,中的句子可以是書本中的句子,不一定是標題。

假設我們有、、。那么,SHG任務目的是從中學習,也就是從分布、中學習出條件分布。

2. 核心思想

TitleStylist模型整體上是一個Transformer結構,分為Encoder(編碼器)和Decoder(解碼器)。TitleStylist利用多任務學習,同時進行兩個任務:

標題生成:有監(jiān)督任務;在數(shù)據(jù)S上,根據(jù)文章原文生成相應標題。

帶有風格的文本重構:無監(jiān)督或自監(jiān)督;在數(shù)據(jù)上,輸入為擾亂后的句子,生成原句。

標題生成與帶有風格的文本重構兩個任務的數(shù)據(jù)集和模型都是獨立的。為了生成帶有風格的標題,TitleStylist通過參數(shù)共享將二者融合。

3. 模型細節(jié)

3.1 序列到序列模型架構(Seq2Seq Model Architecture)

dcaf5414-fe9b-11ec-ba43-dac502259ad0.png

如上圖,TitleStylist采用了Transformer架構的seq2seq模型,它包含編碼器和解碼器。為了提高生成的標題的質(zhì)量,TitleStylist使用MASS模型來初始化模型參數(shù)。

3.2 多任務學習

dce4d4c2-fe9b-11ec-ba43-dac502259ad0.png

為了分離文本的風格和內(nèi)容,模型引入多任務學習框架。在這里主要包含兩個任務:標題生成及DAE(Denoising Autoencoder)。根據(jù)論文描述,我們在這里將DAE稱為帶風格的文本重構。

有監(jiān)督的標題生成

在標題生成任務中,首先我們輸入文章原文,然后經(jīng)過編碼器獲得向量表征;接著,再利用解碼器生成標題。

換句話說,在標題生成任務中,我們是利用編碼器和解碼器學習條件分布。我們設是編碼器的待優(yōu)化參數(shù),是解碼器的待優(yōu)化參數(shù),那么標題生成任務的損失函數(shù)如下:

其中是單向語言模型,即:

這里代表句子的長度。

無監(jiān)督/自監(jiān)督的風格文本重構

在文本重構任務中,對于句子,我們通過隨機刪除或者遮蓋某些詞,或者改變文本中詞的順序可以獲得破壞版本的句子。將作為模型輸入,經(jīng)過編碼器獲得中間表征,再經(jīng)過解碼器進行還原獲得。這個任務的目的是在還原句子時使模型學到風格化句子的能力。

同樣我們設是編碼器的待優(yōu)化參數(shù),是解碼器的待優(yōu)化參數(shù),那么文本重構任務的損失函數(shù)如下:

聯(lián)合學習

最終,多任務學習會最小化將兩部分的損失函數(shù)之和:

3.3 如何生存帶有特定風格的相關標題

到目前為止,大家可能會有所疑問:兩個任務除了損失函數(shù)是一同優(yōu)化外再沒有看到其他任何關聯(lián), 那么TitleStylist怎么可能學到問題部分定義的終極目標,畢竟我們只有來自分布、的數(shù)據(jù),并沒有來自分布的數(shù)據(jù)。

實際上,TitleStylist通過設計參數(shù)共享策略,讓兩個任務的編碼器及解碼器存在某種關聯(lián),最終以此來建模。那么如何進行參數(shù)共享呢?

最簡單的,可以直接共享所有參數(shù)(與共享,與共享)。這樣模型等于同時學了標題生成與帶風格的文本重構兩個任務。其中標題生成的任務讓模型學到了如何生成與文章內(nèi)容相關的標題;帶風格的文本重構則讓模型學到了如何在還原文本時保留文本具有的風格。在兩個任務的相互加持下,模型就可以生成和文章相關的又具有特定風格的標題。

好了,我們就想到這里。接下來看看TitleStylist究竟是怎么做的。

3.4 參數(shù)共享

剛才我們所說的直接共享所有參數(shù)的方式存在一個問題,就是模型并沒有真正地顯式地區(qū)分開文本內(nèi)容與文本風格,那么模型就是又學了中的事實性風格,又學了中的特定風格(比如幽默、浪漫或標題黨)。

TitleStylist為了更好地區(qū)分開文本內(nèi)容與文本風格,顯式地學習數(shù)據(jù)中所包含的風格,選擇讓編碼器共享所有參數(shù),解碼器共享部分參數(shù)。個人認為編碼器端之所以完全共享參數(shù),是想在編碼時盡可能保留原文信息。

dcaf5414-fe9b-11ec-ba43-dac502259ad0.png

如上圖所示,解碼器端的參數(shù)主要被分成兩部分:黃色部分表示不依賴風格的參數(shù),是共享的;剩余依賴風格的參數(shù),不共享。

具體地,存在于Layer Normalization及Decoder Attention,即層歸一化及解碼器注意力兩部分:

(1) 帶風格的層歸一化(Style Layer Normalization)

帶風格的層歸一化這個部分是借鑒圖像風格遷移的思想。其中分別是的的均值和標準方差,是模型需要學習的與風格相關的參數(shù)。

(2) 帶風格的解碼器注意力(Style-Guided Encoder Attention)

TitleStylist認為兩個任務的解碼器端在逐個生成下一個詞時的注意力機制應該有所不同。在這里,TitleStylist主要是設置了不同的,以此生成不同的從而形成不同的注意力模式。

這里代表風格,對標題生成而言其實可以算作事實性風格;對文本重構而言,可能是幽默、浪漫或標題黨風格。

TitleStylist結合完全共享參數(shù)的編碼器與部分參數(shù)共享的解碼器來實現(xiàn)其目標模型,最終可以生成帶有特定風格的又與原文內(nèi)容相關的標題。

總結

好了,帶風格的標題生成論文《Hooks in the Headline: Learning to Generate Headlines with Controlled Styles》的內(nèi)容就到這里了。在本篇文章中,我們就論文思想與論文所提出的模型的結構設計進行了介紹。論文實驗部分小喵沒有細看,大家感興趣的話可以下載原文并結合源碼進行學習。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關注

    關注

    9

    文章

    1219

    瀏覽量

    43446
  • 編碼器
    +關注

    關注

    45

    文章

    3956

    瀏覽量

    142728

原文標題:文本生成 | 一篇帶風格的標題生成的經(jīng)典工作

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    模型支撐后勤保障方案生成系統(tǒng)軟件平臺

    ? ? 北京五木恒潤大模型支撐的后勤保障方案生成平臺系統(tǒng)軟件,依托人工智能大模型技術,融合后勤保障領域?qū)I(yè)知識與實際需求,可自動生成高效、精準、可定制的智能化后勤保障方案。以下從六大核
    的頭像 發(fā)表于 12-17 16:51 ?496次閱讀

    行業(yè)特定的生成 AI 能力如何形成:面向中國企業(yè)的場景化解決方案模型

    隨著生成 AI 在國內(nèi)加速落地,越來越多企業(yè)意識到:單靠通用大模型,并不能覆蓋行業(yè)中的復雜流程與專業(yè)需求。金融、制造、能源、零售、醫(yī)療等行業(yè)各自擁有不同的業(yè)務邏輯、監(jiān)管要求與數(shù)據(jù)結構,而企業(yè)真正
    的頭像 發(fā)表于 12-02 09:33 ?462次閱讀

    openDACS 2025 開源EDA與芯片賽項 賽題七:基于大模型生成原理圖設計

    領域,對促進產(chǎn)業(yè)高質(zhì)量發(fā)展具有重要意義。本賽項包含7道賽題,下面是賽題七 基于大模型生成原理圖設計的介紹。 2. 命題單位及賽題Chair 2.1 命題單位 openDACS工作委員會、復旦大學
    發(fā)表于 11-13 11:49

    不只有AI協(xié)作編程(Vibe Coding):生成系統(tǒng)級芯片(GenSoC)將如何把生成設計推向硬件層面

    但是否能將這種生成的、目標驅(qū)動的方法從軟件層向下延伸呢?這一理念是否可以直接應用于硬件本身呢?通過GenSoC,開發(fā)者可用自然語言或高級模型描述系統(tǒng)行為,XMOS的工具鏈將自動生成
    的頭像 發(fā)表于 11-07 14:04 ?544次閱讀

    探索無限可能:生成推薦的演進、前沿與挑戰(zhàn)

    TL;DR 過去一年間,生成推薦取得了長足的實質(zhì)性進展,特別是在憑借大型語言模型強大的序列建模與推理能力提升整體推薦性能方面?;贚LM(Large Language Models, LLMs
    的頭像 發(fā)表于 10-20 16:42 ?6394次閱讀
    探索無限可能:<b class='flag-5'>生成</b><b class='flag-5'>式</b>推薦的演進、前沿與挑戰(zhàn)

    如何讓大模型生成你想要的測試用例?

    應用大模型生成測試用例,常見的知識庫,測試大模型,微調(diào),RAG等技術門檻都不低,甚至很難,因此對于應用者而言,最快的方式就是應用好提示詞,調(diào)教屬于個人風格的測試用例智能生成模塊,讓智能
    的頭像 發(fā)表于 09-26 10:01 ?957次閱讀
    如何讓大<b class='flag-5'>模型</b><b class='flag-5'>生成</b>你想要的測試用例?

    思必馳一鳴智能客服大模型通過生成人工智能服務備案

    近日,江蘇網(wǎng)信發(fā)布新一批生成人工智能服務備案信息,其中,由思必馳控股子公司馳必準自主研發(fā)的一鳴智能客服大模型通過《生成人工智能服務管理暫
    的頭像 發(fā)表于 09-16 18:08 ?1219次閱讀

    中車斫輪大模型通過國家生成人工智能服務備案

    9月14日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布最新公告,“中車斫輪”大模型通過“生成人工智能服務”備案,標志著其在數(shù)據(jù)安全治理、模型機制透明度、內(nèi)容生成
    的頭像 發(fā)表于 09-16 09:16 ?804次閱讀

    華盛昌DeepSense深度感測大模型通過生成人工智能服務備案

    近日,深圳市華盛昌科技實業(yè)股份有限公司(以下簡稱“華盛昌”)的“DeepSense深度感測大模型”在歷經(jīng)屬地網(wǎng)信辦初審、中央網(wǎng)信辦終審及六大部委意見征詢后,通過廣東省生成人工智能服務備案(備案號
    的頭像 發(fā)表于 09-08 14:49 ?1831次閱讀

    智能體化AI和生成AI的區(qū)別

    生成 AI 的核心是“生成內(nèi)容” —— 比如用大模型寫報告,是對輸入指令的被動響應。而智能體化 AI(Agentic AI)的關鍵是 “自主決策”:它像一個有經(jīng)驗的助理,能感知環(huán)境、
    的頭像 發(fā)表于 08-25 17:24 ?1657次閱讀

    NVIDIA recsys-examples在生成推薦系統(tǒng)中的高效實踐

    生成 AI 浪潮的推動下,推薦系統(tǒng)領域正經(jīng)歷深刻變革。傳統(tǒng)的深度學習推薦模型 (DLRMs) 雖已展現(xiàn)出一定效果,但在捕捉用戶興趣偏好和動態(tài)行為序列變化時,常面臨可擴展性挑戰(zhàn)。生成
    的頭像 發(fā)表于 07-04 14:43 ?1141次閱讀
    NVIDIA recsys-examples在<b class='flag-5'>生成</b><b class='flag-5'>式</b>推薦系統(tǒng)中的高效實踐

    谷歌新一代生成AI媒體模型登陸Vertex AI平臺

    我們在 Vertex AI 上推出新一代生成 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?1106次閱讀

    使用NVIDIA Earth-2生成AI基礎模型革新氣候建模

    NVIDIA 正通過 cBottle(Climate in a Bottle 的簡稱)為這項工作帶來新的突破,這是全球首個專為以公里尺度分辨率模擬全球氣候而設計的生成 AI 基礎模型。
    的頭像 發(fā)表于 06-12 15:54 ?1318次閱讀

    Gemini API集成Google圖像生成模型Imagen 3

    開發(fā)者現(xiàn)在可以通過 Gemini API 訪問 Google 最先進的圖像生成模型 Imagen 3。該模型最初僅對付費用戶開放,不久后也將面向免費用戶推出。
    的頭像 發(fā)表于 05-14 16:53 ?1280次閱讀

    ?Diffusion生成動作引擎技術解析

    Diffusion生成動作引擎 Diffusion生成動作引擎是一種基于擴散模型(Diffusion Models)的
    的頭像 發(fā)表于 03-17 15:14 ?3073次閱讀