91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌語(yǔ)義文本最新進(jìn)展 開(kāi)源兩個(gè)新模型

DPVg_AI_era ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-05-23 15:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自然語(yǔ)言理解研究的快速發(fā)展,特別是在學(xué)習(xí)語(yǔ)義文本表示方面的發(fā)展可以促進(jìn)一些新穎的產(chǎn)品,如自動(dòng)寫作和“TalktoBooks”搜索等。本文介紹了谷歌在語(yǔ)義文本表示方面的最新進(jìn)展,以及開(kāi)源的兩個(gè)新模型。

基于神經(jīng)網(wǎng)絡(luò)的自然語(yǔ)言理解研究的快速發(fā)展,它還可以幫助提高數(shù)據(jù)量有限的各種自然語(yǔ)言任務(wù)的性能,比如基于僅有的幾百個(gè)標(biāo)簽樣例來(lái)構(gòu)建強(qiáng)大的文本。

下面,我們將討論兩篇關(guān)于Google語(yǔ)義表示最新進(jìn)展的論文,以及在TensorFlow Hub上可以下載使用的兩個(gè)新模型,我們希望開(kāi)發(fā)者能夠使用這些模型來(lái)構(gòu)建新的、令人興奮的應(yīng)用程序。

語(yǔ)義文本相似度

在“從對(duì)話中學(xué)習(xí)語(yǔ)義文本相似性(Learning Semantic Textual Similarity from Conversations)”這篇論文中,我們引入了一種新的方法來(lái)學(xué)習(xí)語(yǔ)義文本相似性的句子表示?;诘南敕ㄊ牵喝绻渥佑邢嗨频姆磻?yīng)分布,那么它們?cè)谡Z(yǔ)義上是相似的。例如,“你多大了?”和“你的年齡是多少?”這兩個(gè)問(wèn)題都是關(guān)于年齡的問(wèn)題,可以用類似的回答作為響應(yīng),比如“我20歲”。相比之下,“你好嗎?”和“你多大了?”"包含幾乎相同的單詞,它們有非常不同的含義并會(huì)對(duì)應(yīng)不同的響應(yīng)。

在這項(xiàng)工作中,我們的目標(biāo)是通過(guò)一種響應(yīng)式的分類任務(wù)來(lái)學(xué)習(xí)語(yǔ)義相似性,具體方法如下:給定一個(gè)對(duì)話輸入,我們希望從一組隨機(jī)選擇的響應(yīng)中對(duì)正確的響應(yīng)進(jìn)行分類。但是,最終的目標(biāo)是學(xué)習(xí)一種能夠返回表示各種自然語(yǔ)言關(guān)系編碼的模型,包括相似性和關(guān)聯(lián)性。通過(guò)添加另一個(gè)預(yù)測(cè)任務(wù)(在本例中是SNLI entailment數(shù)據(jù)集),并通過(guò)共享編碼層強(qiáng)制執(zhí)行,我們?cè)谙嗨贫攘糠矫娅@得了更好的性能,相似度的衡量指標(biāo)有很多,例如用于句子相似性基準(zhǔn)性度量的STSBenchmark和用于衡量一個(gè)問(wèn)題/問(wèn)題相似任務(wù)的CQA task B指標(biāo)。這是因?yàn)檫壿嬐评砼c簡(jiǎn)單的等價(jià)性有很大的不同,并且為學(xué)習(xí)復(fù)雜的語(yǔ)義表示提供了更多的借鑒意義。

通用句子編碼器

在“通用句子編碼器(Universal Sentence Encoder)”中,我們引入了一個(gè)模型,它對(duì)上面描述的多任務(wù)訓(xùn)練進(jìn)行了擴(kuò)展,并增加了更多的任務(wù),并使用一個(gè)類似于skip-thought的模型來(lái)訓(xùn)練它們,它可以在給定的文本范圍內(nèi)來(lái)預(yù)測(cè)句子。

然而,最初的skip-thought模型,是一種只使用編碼器的體系結(jié)構(gòu),而非在最初的skip-thought模型中使用編碼-解碼體系結(jié)構(gòu)來(lái)驅(qū)動(dòng)預(yù)測(cè)任務(wù)的模型。通過(guò)這種方式可以大大減少訓(xùn)練時(shí)間,同時(shí)保留各種傳遞任務(wù)的性能,包括情感和語(yǔ)義相似的關(guān)系。其目的是提供一個(gè)單一的編碼器,它可以支持盡可能廣泛的應(yīng)用程序,包括解釋檢測(cè)、關(guān)聯(lián)、集群和自定義文本分類。

正如我們的論文中所描述的,通用句子編碼器模型的一個(gè)版本使用了一個(gè)深度平均網(wǎng)絡(luò)(DAN)編碼器,而第二個(gè)版本使用了更復(fù)雜的自我參與的網(wǎng)絡(luò)架構(gòu):變壓器(Transformer)。

基于更復(fù)雜的體系結(jié)構(gòu)的模型比簡(jiǎn)單的DAN模型在各種情緒和相似的處理任務(wù)上表現(xiàn)得更好,而對(duì)于短句來(lái)說(shuō)它只是反應(yīng)的稍微慢一些。然而,隨著句子長(zhǎng)度的增加,使用Transformer的模型的計(jì)算時(shí)間會(huì)顯著增加,而DAN模型的計(jì)算時(shí)間則保持不變。

新模型

除了上面描述的通用句子編碼器模型之外,我們還在TensorFlow Hub上共享兩個(gè)新模型:通用句子編碼器-large版(Universal Sentence Encoder - Large)和通用句子編碼器-Lite版(Universal Sentence Encoder - Lite)。這些都是預(yù)先訓(xùn)練的張量模型,它的返回值是可變長(zhǎng)度文本輸入的語(yǔ)義編碼。這些編碼可用于語(yǔ)義相似度測(cè)量、相似性關(guān)系檢測(cè)、分類或自然語(yǔ)言文本的聚類。

在我們的第二篇論文中描述了這個(gè)Large模型。它針對(duì)需要高精度語(yǔ)義表示的場(chǎng)景,以及以速度和大小為代價(jià)的最佳模型性能。

Lite模型是通過(guò)一個(gè)句子的詞匯表而不是單詞來(lái)訓(xùn)練的,這樣就可以減少詞匯的大小,這是模型大小的主要貢獻(xiàn)者。它針對(duì)的是內(nèi)存和CPU等資源有限的場(chǎng)景,比如基于設(shè)備或基于瀏覽器實(shí)現(xiàn)。

我們很高興能與社區(qū)分享這項(xiàng)研究,以及這些模型。我們認(rèn)為,我們?cè)谶@里展示的只是一個(gè)開(kāi)始,還有一些重要的研究問(wèn)題需要解決,比如將技術(shù)擴(kuò)展到更多的語(yǔ)言之上(上面討論的模型目前支持英語(yǔ))。我們還希望進(jìn)一步開(kāi)發(fā)這種技術(shù),使它能夠理解段落甚至文檔級(jí)別的文本。在完成這些任務(wù)的過(guò)程中,有可能制造出真正“通用”的編碼器。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3971

    瀏覽量

    142880
  • 開(kāi)源
    +關(guān)注

    關(guān)注

    3

    文章

    4244

    瀏覽量

    46270

原文標(biāo)題:谷歌語(yǔ)義文本最新進(jìn)展+兩個(gè)開(kāi)源新模型

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA全新開(kāi)放物理AI模型和框架加速人形機(jī)器人開(kāi)發(fā)

    本文是洞悉 Omniverse 系列文章?!岸聪?Omniverse”重點(diǎn)介紹開(kāi)發(fā)者、3D 從業(yè)者與企業(yè)如何使用 OpenUSD 和 NVIDIA Omniverse 的最新進(jìn)展從根本上變革他們的工作流程。
    的頭像 發(fā)表于 02-06 15:36 ?601次閱讀

    國(guó)芯科技DPNPU新IP產(chǎn)品最新進(jìn)展,單核支持0.5~4.8TOPS靈活算力配置

    國(guó)芯科技DPNPU新IP產(chǎn)品 最新進(jìn)展,單核支持0.5~4.8TOPS 靈活算力配置 ? 電子發(fā)燒友網(wǎng)綜合報(bào)道 國(guó)芯科技發(fā)布公告稱,其自主研發(fā)的神經(jīng)網(wǎng)絡(luò)處理器DPNPU(Dataflow
    的頭像 發(fā)表于 01-09 09:19 ?5306次閱讀
    國(guó)芯科技DPNPU新IP產(chǎn)品<b class='flag-5'>最新進(jìn)展</b>,單核支持0.5~4.8TOPS靈活算力配置

    從協(xié)議到實(shí)踐——EtherNet/IP與NetStaX的最新進(jìn)展

    從協(xié)議到實(shí)踐——EtherNet/IP與NetStaX的最新進(jìn)展
    的頭像 發(fā)表于 12-19 15:26 ?1556次閱讀
    從協(xié)議到實(shí)踐——EtherNet/IP與NetStaX的<b class='flag-5'>最新進(jìn)展</b>

    開(kāi)源鴻蒙生態(tài)設(shè)備南向分論壇成功舉辦

    11月28日,開(kāi)源鴻蒙生態(tài)設(shè)備南向分論壇在深圳舉辦,聚焦開(kāi)源鴻蒙設(shè)備端發(fā)展與生態(tài)共建的最新進(jìn)展。論壇邀請(qǐng)來(lái)自開(kāi)源鴻蒙社區(qū)的多位核心技術(shù)負(fù)責(zé)人,共同探討
    的頭像 發(fā)表于 12-04 16:57 ?1001次閱讀

    以開(kāi)發(fā)者為核心驅(qū)動(dòng)開(kāi)源項(xiàng)目邁向成熟

    11月21-22日,以“一切為了開(kāi)發(fā)者——AI共智·開(kāi)源共享”為主題的2025開(kāi)放原子開(kāi)源開(kāi)發(fā)者大會(huì)在北京成功舉辦。大會(huì)聚焦人工智能、基礎(chǔ)軟件等重點(diǎn)方向,來(lái)自產(chǎn)業(yè)界、高校、科研機(jī)構(gòu)和開(kāi)源社區(qū)的開(kāi)發(fā)者齊聚一堂,系統(tǒng)展示我國(guó)
    的頭像 發(fā)表于 12-04 10:09 ?712次閱讀

    芯科科技分享在物聯(lián)網(wǎng)領(lǐng)域的最新進(jìn)展

    Labs(芯科科技)亞太區(qū)業(yè)務(wù)副總裁王祿銘、中國(guó)大陸區(qū)總經(jīng)理周巍及臺(tái)灣區(qū)總經(jīng)理寶陸格就公司技術(shù)路線、產(chǎn)品策略及市場(chǎng)趨勢(shì)回答了媒體提問(wèn)。三位高管圍繞安全認(rèn)證、無(wú)線連接、邊緣計(jì)算等議題,介紹了公司在物聯(lián)網(wǎng)領(lǐng)域的最新進(jìn)展。
    的頭像 發(fā)表于 11-13 10:48 ?1732次閱讀

    DisplayPort汽車擴(kuò)展標(biāo)準(zhǔn)新進(jìn)展,顯示系統(tǒng)靈活性和效率大幅提升

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)2025年10月27日,VESA(視頻電子標(biāo)準(zhǔn)協(xié)會(huì))在深圳益田威斯汀酒店舉辦新聞發(fā)布會(huì),詳細(xì)介紹了DisplayPort汽車擴(kuò)展標(biāo)準(zhǔn)(DP AE)的最新進(jìn)展,同時(shí)分享了
    的頭像 發(fā)表于 11-08 10:43 ?1.1w次閱讀
    DisplayPort汽車擴(kuò)展標(biāo)準(zhǔn)<b class='flag-5'>新進(jìn)展</b>,顯示系統(tǒng)靈活性和效率大幅提升

    上海光機(jī)所在激光驅(qū)動(dòng)離子加速方面取得新進(jìn)展

    圖1 實(shí)驗(yàn)原理示意圖 近期,中國(guó)科學(xué)院上海光學(xué)精密機(jī)械研究所超強(qiáng)激光科學(xué)與技術(shù)全國(guó)重點(diǎn)實(shí)驗(yàn)室賓建輝研究員團(tuán)隊(duì)在激光驅(qū)動(dòng)離子加速方面取得新進(jìn)展。相關(guān)研究成果分別以“Enhanced proton
    的頭像 發(fā)表于 08-06 09:36 ?660次閱讀
    上海光機(jī)所在激光驅(qū)動(dòng)離子加速方面取得<b class='flag-5'>新進(jìn)展</b>

    使用NVIDIA Cosmos模型提高未來(lái)智能汽車安全性

    本文是洞悉 Omniverse 系列文章?!岸聪?Omniverse” 重點(diǎn)介紹開(kāi)發(fā)者、3D 從業(yè)者與企業(yè)如何使用 OpenUSD 和 NVIDIA Omniverse 的最新進(jìn)展深入改變他們的工作流。
    的頭像 發(fā)表于 07-14 11:46 ?1214次閱讀

    東風(fēng)汽車轉(zhuǎn)型突破取得新進(jìn)展

    上半年,東風(fēng)汽車堅(jiān)定高質(zhì)量發(fā)展步伐,整體銷量逐月回升,經(jīng)營(yíng)質(zhì)量持續(xù)改善,自主品牌和新能源滲透率和收益性進(jìn)一步提升,半年累計(jì)終端銷售汽車111.6萬(wàn)輛,轉(zhuǎn)型突破取得新進(jìn)展。
    的頭像 發(fā)表于 07-10 15:29 ?943次閱讀

    開(kāi)源鴻蒙硬件生態(tài)分論壇圓滿舉辦

    近日,開(kāi)源鴻蒙開(kāi)發(fā)者大會(huì)2025(OHDC.2025)硬件生態(tài)分論壇在深圳圓滿舉辦。本次論壇主題為“開(kāi)源鴻蒙硬件新生態(tài)”,特邀行業(yè)技術(shù)領(lǐng)袖、專家、開(kāi)發(fā)者和生態(tài)伙伴,從芯片平臺(tái)、硬件開(kāi)發(fā)板、硬件產(chǎn)品等方面,共同探討開(kāi)源鴻蒙硬件生態(tài)
    的頭像 發(fā)表于 06-05 15:35 ?1081次閱讀

    英特爾持續(xù)推進(jìn)核心制程和先進(jìn)封裝技術(shù)創(chuàng)新,分享最新進(jìn)展

    近日,在2025英特爾代工大會(huì)上,英特爾展示了多代核心制程和先進(jìn)封裝技術(shù)的最新進(jìn)展,這些突破不僅體現(xiàn)了英特爾在技術(shù)開(kāi)發(fā)領(lǐng)域的持續(xù)創(chuàng)新,也面向客戶需求提供了更高效、更靈活的解決方案。 在制程技術(shù)方面
    的頭像 發(fā)表于 05-09 11:42 ?902次閱讀
    英特爾持續(xù)推進(jìn)核心制程和先進(jìn)封裝技術(shù)創(chuàng)新,分享<b class='flag-5'>最新進(jìn)展</b>

    百度在AI領(lǐng)域的最新進(jìn)展

    近日,我們?cè)谖錆h舉辦了Create2025百度AI開(kāi)發(fā)者大會(huì),與全球各地的5000多名開(kāi)發(fā)者,分享了百度在AI領(lǐng)域的新進(jìn)展。
    的頭像 發(fā)表于 04-30 10:14 ?1381次閱讀

    谷歌Gemini API最新進(jìn)展

    體驗(yàn)的 Live API 的最新進(jìn)展,以及正式面向開(kāi)發(fā)者開(kāi)放的高質(zhì)量視頻生成工具 Veo 2。近期,我們面向在 Google AI Studio 中使用 Gemini API 的開(kāi)發(fā)者推出了許多不容錯(cuò)過(guò)的重要更新,一起來(lái)看看吧。
    的頭像 發(fā)表于 04-12 16:10 ?1737次閱讀

    華為公布AI基礎(chǔ)設(shè)施架構(gòu)突破性新進(jìn)展

    近日,華為公司常務(wù)董事、華為云計(jì)算CEO張平安在華為云生態(tài)大會(huì)2025上公布了AI基礎(chǔ)設(shè)施架構(gòu)突破性新進(jìn)展——推出基于新型高速總線架構(gòu)的CloudMatrix 384超節(jié)點(diǎn)集群,并宣布已在蕪湖數(shù)據(jù)中心規(guī)模上線。
    的頭像 發(fā)表于 04-12 15:09 ?2001次閱讀