91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

TF-Ranking實現(xiàn)新穎的TFR-BERT架構

硬件三人行 ? 來源:TensorFlow ? 作者:Michael Bendersky、X ? 2021-08-24 10:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

發(fā)布人:Google Research 軟件工程師 Michael Bendersky 和 Xuanhui Wang

2018 年 12 月,我們推出了 TF-Ranking,這是一個基于 TensorFlow 的開源代碼庫,用于開發(fā)可擴容的 learning-to-rank (LTR) 神經(jīng)模型。當用戶期望收到有序的項目列表來輔助查詢時,該模型可以發(fā)揮出色作用。LTR 模型與一次只對一個項目進行分類的標準分類模型不同,它會將整個項目列表接收輸入,并學習排序,充分提升整個列表的效用。

TF-Ranking

https://github.com/tensorflow/ranking

雖然 LTR 模型最常用于搜索和推薦系統(tǒng),但自其發(fā)布以來,我們已經(jīng)看到 TF-Ranking 在除搜索以外的各領域,均有應用,其中包括電子商務、SAT 求解器和智能城市規(guī)劃等。

Learning-to-rank (LTR) 的目標是學習一個函數(shù) f(),該函數(shù)會以項目列表(文件、產(chǎn)品、電影等)作為輸入,并以最佳排序(相關性降序)輸出項目列表。上圖中,深淺不一的綠色表示項目的相關性水平,標有 “x” 的紅色項目是不相關的

電子商務

https://dl.acm.org/doi/abs/10.1145/3308560.3316603

SAT 求解器

https://arxiv.org/abs/1904.12084

智能城市規(guī)劃

https://dl.acm.org/doi/abs/10.1145/3450267.3450538

2021 年 5 月,我們發(fā)布了 TF-Ranking 的一個重要版本,實現(xiàn)了全面支持使用 Keras(TensorFlow 2 的一個高階 API),以原生方式構建 LTR 模型。我們?yōu)樵?Keras 排序模型加入了全新的工作流設計,其中包括靈活的 ModelBuilder、用于設置訓練數(shù)據(jù)的 DatasetBuilder, 以及利用給定數(shù)據(jù)集訓練模型的 Pipeline。有了這些組件,構建自定義 LTR 模型會比以往更輕松,且有利于快速探索、生產(chǎn)和研究的新的模型結構。如果您選擇的工具是 RaggedTensors,TF-Ranking 現(xiàn)在也可以和這些工具協(xié)作。

重要版本

https://github.com/tensorflow/ranking/releases/tag/v0.4.0

TensorFlow 2

http://tensorflow.google.cn/

https://github.com/tensorflow/ranking/blob/master/tensorflow_ranking/examples/keras/antique_ragged.py

此外,我們在最新版本中結合了 Orbit 訓練庫,其中包含了許多進展成果,而這些成果正是近兩年半內,神經(jīng) LTR 研究結晶。下面我們分享一下 TF-Ranking 最新版本中的一些重要改進。

構建和訓練原生 Keras 排序模型的工作流。藍色模塊由 TF-Ranking 提供,綠色模塊支持自定義

最新版本

https://github.com/tensorflow/ranking/releases/tag/v0.4.2

Orbit

https://github.com/tensorflow/models/tree/master/orbit

利用 TFR-BERT 的

Learning-to-Rank

最近,BERT 之類的預訓練語言模型在各種語言理解任務中性能表現(xiàn)突出。為利用這些模型,TF-Ranking 實現(xiàn)了一個新穎的 TFR-BERT 架構——通過結合 BERT 與 LTR 的優(yōu)勢,來優(yōu)化列表輸入的排序過程。舉個例子,假設有一個查詢和一個由 n 個文件組成的列表,而人們想要在對此查詢響應中的文件進行排序。LTR 模型并不會為每個 《query, document》 學習獨立的 BERT 表示,而是會應用一個排序損失來共同學習 BERT 表示,充分提升整個排序列表相對于參照標準標簽的效用。

這個過程如下圖所示。首先,我們把查詢響應中需要排序的 n 個文件組成的列表扁平化為一個 《query, document》 元組列表。把這些元組反饋至預訓練的語言模型(例如 BERT)。然后用 TF-Ranking 中的專用排序損失,對整個文件列表的池化 BERT 輸出進行聯(lián)合微調。

排序損失

https://github.com/tensorflow/ranking/blob/master/tensorflow_ranking/python/losses.py

結果表明,這種 TFR-BERT 架構在預訓練的語言模型性能方面有了明顯改善,因此,可以在執(zhí)行多個熱門排序任務時體現(xiàn)出十分優(yōu)越的性能。若將多個預訓練的語言模型組合在一起,則效果更為突出。我們的用戶現(xiàn)在可以通過這個簡單的例子完成 TFR-BERT 入門。

TFR-BERT 架構的說明,在這個架構中,通過使用單個 《query, document》 對的 BERT 表示,在包含 n 個文件的列表上構建了一個聯(lián)合 LTR 模型

多個熱門

https://arxiv.org/abs/2010.00200

簡單的例子

https://github.com/tensorflow/ranking/blob/master/tensorflow_ranking/examples/keras/tfrbert_antique_train.py

具有可解釋性的

Learning-to-Rank

透明度和可解釋性是在排序系統(tǒng)中部署 LTR 模型的重要因素,在貸款資格評估、廣告定位或指導醫(yī)療決定等過程中,用戶可以利用這些系統(tǒng)來確定結果。在這種情況下,每個單獨的特征對最終排序的貢獻應具有可檢查性和可理解性,以此確保結果的透明度、問責制和公正性。

實現(xiàn)這一目標的可用方法之一是使用廣義加性模型 (Generalized additive model,GAM),這是一種具有內在可解釋性的機器學習模型,由唯一特征的平滑函數(shù)線性組合而成。然而,我們雖然已經(jīng)在回歸 (Regression analysis) 和分類任務方面對 GAM 進行了廣泛的研究,但將其應用于排序設置的方法卻并不明確。舉個例子,雖然可以直接利用 GAM 對列表中的每個單獨項目進行建模,然而對項目的相互作用和這些項目的排序環(huán)境進行建模,仍是一個更具挑戰(zhàn)性的研究問題。為此,我們開發(fā)了神經(jīng)排序 GAM,這是可為排序問題的廣義加性模型所用的擴展程序。

神經(jīng)排序 GAM

https://arxiv.org/abs/2005.02553

與標準的 GAM 不同,神經(jīng)排序 GAM 可以同時考慮到排序項目和背景特征(例如查詢或用戶資料),從而得出一個可解釋的緊湊模型。這同時確保了各項目級別特征與背景特征的貢獻具有可解釋性。例如,在下圖中,使用神經(jīng)排序 GAM 可以看到在特定用戶設備的背景下,距離、價格和相關性是如何對酒店最終排序作出貢獻的。目前,神經(jīng)排序 GAM 現(xiàn)已作為 TF-Ranking 的一部分發(fā)布。

為本地搜索應用神經(jīng)排序 GAM 的示例。對于每個輸入特征(例如價格、距離),子模型會產(chǎn)生可以檢查的子分數(shù),支持公開查看。背景特征(例如用戶設備類型)可以用于推算子模型的重要性權重

發(fā)布

https://github.com/tensorflow/ranking/issues/202

神經(jīng)排序還是梯度提升?

神經(jīng)模型雖然在多個領域展現(xiàn)出了十分優(yōu)越的性能,但 LambdaMART 之類的專門梯度提升決策樹 (Gradient Boosted Decision Trees, GBDT) 仍然是利用各種開放 LTR 數(shù)據(jù)集時的性能標桿。GBDT 在開放數(shù)據(jù)集中的成功可歸結于幾個原因。首先,由于其規(guī)模相對較小,神經(jīng)模型在這些數(shù)據(jù)集上容易過度擬合 (Overfitting)。其次,由于 GBDT 使用決策樹對其輸入特征空間進行劃分,它們自然更能適應待排序數(shù)據(jù)的數(shù)值尺度變化,這些數(shù)據(jù)通常包含具有 Zipfian (Zipf‘s law) 或其他偏斜分布的特征。然而,GBDT 在更為現(xiàn)實的排序場景中確實有其局限性,這些場景往往同時包含文本和數(shù)字特征。舉個例子,GBDT 不能直接應用于像原始文檔文本這種,較大的離散特征空間。一般來說,它們的可擴容性也要弱于神經(jīng)排序模型。

因此,自 TF-Ranking 發(fā)布以來,我們團隊大大加深了對于神經(jīng)模型在數(shù)字特征排序中優(yōu)勢的理解。。最能充分體現(xiàn)出這種理解的是,ICLR 2021 的一篇論文中所描述的數(shù)據(jù)增強自覺潛在交叉 (DASALC) 模型,該模型首次在開放 LTR 數(shù)據(jù)集上建立了與強大的、與 LambdaMART 基線相同的神經(jīng)排序模型,并且在某些方面取得了統(tǒng)計學上的重大改進。這一成就是通過各種技術的組合實現(xiàn)的,其中包括數(shù)據(jù)增強、神經(jīng)特征轉換、用于建模文檔交互的自注意機制、列表式排序損失,以及類似 GBDT 中用于提升的模型組合。現(xiàn)在 DASALC 模型的架構完全由 TF-Ranking 庫實現(xiàn)。

ICLR 2021

https://research.google/pubs/pub50030/

結論

總而言之,我們相信基于 Keras 的 TF-Ranking 新版本能夠讓開展神經(jīng) LTR 研究和部署生產(chǎn)級排序系統(tǒng)變得更加輕松。我們鼓勵大家試用最新版本,并按照這個引導例子進行實踐體驗。雖然這個新版本讓我們感到非常激動,但我們的研發(fā)之旅遠未結束,所以我們將繼續(xù)深化對 learning-to-rank 問題的理解,并與用戶分享這些進展。

最新版本

https://github.com/tensorflow/ranking/releases/tag/v0.4.0

這個引導例子

https://github.com/tensorflow/ranking/blob/master/tensorflow_ranking/examples/keras/keras_dnn_tfrecord.py

致謝

本項目的實現(xiàn)離不開 TF-Ranking 團隊的現(xiàn)任和前任成員:Honglei Zhuang、?Le Yan、Rama Pasumarthi、Rolf Jagerman、Zhen Qin、Shuguang Han、Sebastian Bruch、Nathan Cordeiro、Marc Najork 和 Patrick McGregor。另外要特別感謝 Tensorflow 團隊的協(xié)作者:Zhenyu Tan、Goldie Gadde、Rick Chao、Yuefeng Zhou?、Hongkun Yu 和 Jing Li。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3755

    瀏覽量

    52121
  • 代碼
    +關注

    關注

    30

    文章

    4968

    瀏覽量

    73999
  • tensorflow
    +關注

    關注

    13

    文章

    334

    瀏覽量

    62196

原文標題:TF-Ranking 中的 Keras API 讓 LTR 模型構建更輕松

文章出處:【微信號:yingjiansanrenxing,微信公眾號:硬件三人行】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    TF卡燒錄異常該如何處理?

    在燒錄固件到TF卡時,您可能會遇到一些問題,例如標準固件無法燒錄成功,或者某些TF卡可以正常燒錄,而其他卡則不行。為了解決這些問題,我們建議您執(zhí)行以下兩個操作:1.TF卡硬件讀寫檢測從
    的頭像 發(fā)表于 01-08 11:51 ?253次閱讀
    <b class='flag-5'>TF</b>卡燒錄異常該如何處理?

    瑞芯微(EASY EAI)RV1126B TF卡使用

    1.硬件連接介紹注意:雖然TF卡支持熱插拔,但在沒給底板加裝外殼保護的情況下,很容易觸碰到底板上的器件,甚至板卡附近有金屬零件很容易造成板卡短路。因此也建議在插拔外設時,最好確保電源已經(jīng)完全切斷
    的頭像 發(fā)表于 12-31 14:33 ?5850次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>TF</b>卡使用

    TF-047 微同軸電纜:高密度應用的理想之選

    景,下面我們來詳細了解一下。 文件下載: Amphenol Times Microwave Systems TF-047微型同軸電纜組件.pdf 產(chǎn)品概述 TF - 047 是一款多功能的微同軸電纜,有散裝和電纜組件兩種形式可供選擇,并且提供多種接口。它在緊湊的尺寸下,
    的頭像 發(fā)表于 12-11 15:15 ?1048次閱讀

    解鎖存儲密碼:SD NAND、TF卡、SD卡的應用全景

    在數(shù)據(jù)洪流的時代,存儲介質就如同數(shù)字世界的基石,支撐著各類設備的正常運轉。SD NAND、TF卡和SD卡,雖同屬NAND Flash存儲介質家族,卻因各自獨特的“個性”,在不同領域綻放光彩。接下來
    的頭像 發(fā)表于 10-29 14:24 ?670次閱讀

    新潔能NCE65TF099:高頻開關性能如何賦能不同產(chǎn)品應用?

    在當今快速發(fā)展的電子技術領域,高頻開關性能已成為衡量功率器件性能的關鍵指標之一。新潔能憑借其卓越的高頻開關性能,正在為各種產(chǎn)品應用帶來前所未有的賦能與變革。本文將深入探討新潔能NCE65TF
    的頭像 發(fā)表于 10-20 16:21 ?831次閱讀
    新潔能NCE65<b class='flag-5'>TF</b>099:高頻開關性能如何賦能不同產(chǎn)品應用?

    什么是SD卡、TF卡寫保護?寫保護的常見原因

    部分SD卡、TF卡適配器或卡套上設有物理寫保護開關,當開關滑動到"鎖定"位置時,卡片會自動進入寫保護狀態(tài)。這是最常見也是最容易解決的寫保護原因。
    的頭像 發(fā)表于 06-10 00:00 ?5857次閱讀
    什么是SD卡、<b class='flag-5'>TF</b>卡寫保護?寫保護的常見原因

    知識分享 | 評估模型架構——如何實現(xiàn)?

    確保良好的模型架構對于開發(fā)安全和可靠的軟件非常重要。本文為您介紹MES Model Examiner? (MXAM)如何優(yōu)化模型架構,簡化復雜度管理步驟,并最終提升軟件質量。
    的頭像 發(fā)表于 06-05 11:46 ?659次閱讀
    知識分享 | 評估模型<b class='flag-5'>架構</b>——如何<b class='flag-5'>實現(xiàn)</b>?

    新穎實用電子設計與制作

    本文以豐富、翔實的內容詳細介紹了日常生活中使用的20多類100余種實用電子線路,內容涉及報警、燈光、遙控、電話、充電、風扇、電源、節(jié)能、驅蟲、開關等新穎電路。除闡述電路的結構特點、制作方法、元器件
    發(fā)表于 05-27 16:12

    產(chǎn)品使用 | 龍芯2K0300 TF卡啟動與系統(tǒng)更新指南

    前言:龍芯2K0300蜂鳥開發(fā)板支持通過TF卡啟動系統(tǒng)。相較于EMMC存儲方案,TF卡具備靈活拆卸、便于鏡像修改、不受存儲容量限制等優(yōu)勢。本指南詳細說明在Windows/Linux系統(tǒng)下制作TF
    的頭像 發(fā)表于 05-23 08:32 ?1050次閱讀
    產(chǎn)品使用 | 龍芯2K0300 <b class='flag-5'>TF</b>卡啟動與系統(tǒng)更新指南

    華強北TF卡回收 內存卡回收

    深圳帝歐電子求購內存SD卡2G,4G,8G,16G,32G,64G,128G,256G,512G......新卡,舊卡,拆機卡都有收,價高同行回收三星內存TF卡、金士頓TF卡、閃迪TF卡、東芝
    發(fā)表于 05-21 17:48

    基于RK3576開發(fā)板的TF卡槽使用說明

    RK3576開發(fā)板使用TF卡槽
    的頭像 發(fā)表于 05-07 09:24 ?1978次閱讀
    基于RK3576開發(fā)板的<b class='flag-5'>TF</b>卡槽使用說明

    汽車充電樁:交流充電樁-TF300(單槍7kw)系列

    廣州帝能云科技66物聯(lián)充電樁|汽車充電樁:交流充電樁-TF300(單槍7kw)系列
    的頭像 發(fā)表于 04-27 17:45 ?1213次閱讀

    三種藍牙架構實現(xiàn)方案(藍牙協(xié)議棧方案)

    藍牙架構實現(xiàn)方案有哪幾種?我們一般把整個藍牙實現(xiàn)方案叫做藍牙協(xié)議棧,因此這個問題也可以這么闡述:藍牙協(xié)議棧有哪些具體的架構方案?在藍牙協(xié)議棧中,host是什么?controller是什
    的頭像 發(fā)表于 04-08 15:35 ?1581次閱讀
    三種藍牙<b class='flag-5'>架構</b><b class='flag-5'>實現(xiàn)</b>方案(藍牙協(xié)議棧方案)

    MCU采用STM32F407VGT6文件存在TF卡(SDIO),能否通過F4的USB把TF卡的txt和excel文件拷貝到U盤?

    新項目要求如下: 1.MCU采用STM32F407 2.TF卡采取SDIO驅動 3.每隔一端時間插U盤,F(xiàn)407自動把TF卡文件拷貝到U盤里面 請問能否實現(xiàn)TF里面文件移動到U盤?
    發(fā)表于 03-11 08:27

    迅為RK3588開發(fā)板技術分享 TF卡燒寫大于4G容量鏡像

    RK3588技術分享 | TF卡燒寫大于4G容量鏡像
    的頭像 發(fā)表于 03-10 14:39 ?1239次閱讀
    迅為RK3588開發(fā)板技術分享 <b class='flag-5'>TF</b>卡燒寫大于4G容量鏡像