91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌開(kāi)發(fā)EfficientNets 擴(kuò)大CNN并與AutoML結(jié)合

Hf1h_BigDataDig ? 來(lái)源:fqj ? 2019-06-06 14:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人類(lèi)的本質(zhì)是復(fù)讀機(jī),GANs的本質(zhì)是復(fù)制粘貼

研究人員從Copy-Pasting(GANs)中得到啟發(fā),設(shè)計(jì)了一種新的對(duì)象發(fā)現(xiàn)訓(xùn)練程序。在這一新的訓(xùn)練流程中,生成器不會(huì)像傳統(tǒng)的對(duì)象發(fā)現(xiàn)方法那樣直接生成對(duì)象。相反,它會(huì)識(shí)別并分割現(xiàn)有對(duì)象。該方法適用于各種不同的數(shù)據(jù)集,包括復(fù)雜背景下有外觀變換的大型對(duì)象。

研究表明,通過(guò)訓(xùn)練Copy-Pasting GANs,防止生成模型走捷徑,可以實(shí)現(xiàn)無(wú)監(jiān)督的對(duì)象發(fā)現(xiàn)。該方法可以處理來(lái)自真實(shí)圖像的雜亂背景,并且可以在不從頭開(kāi)始的情況下,以更高效的數(shù)據(jù)方式預(yù)先訓(xùn)練用于有監(jiān)督的對(duì)象檢測(cè)模型。它還可以用作智能代理的視覺(jué)模塊?;旧?,這項(xiàng)工作可以有效地為用戶驅(qū)動(dòng)的圖像處理、對(duì)象檢測(cè)和分割等任務(wù)創(chuàng)建實(shí)際的可視化數(shù)據(jù)。

Google AI:變大的CNN,變小的模型

谷歌研究人員提出了一種新的方法,該方法實(shí)現(xiàn)了一個(gè)簡(jiǎn)單但高效的復(fù)合系數(shù)來(lái)擴(kuò)大CNN。傳統(tǒng)方法會(huì)隨意地縮放網(wǎng)絡(luò)規(guī)模(寬度、深度和分辨率),而這種新方法將每一個(gè)規(guī)模的維度都與固定系數(shù)進(jìn)行了平衡。

谷歌開(kāi)發(fā)EfficientNets 擴(kuò)大CNN并與AutoML結(jié)合

通過(guò)將這一方法和最新的AutoML技術(shù)結(jié)合起來(lái),研究人員開(kāi)發(fā)了EfficientNets,它能夠在實(shí)現(xiàn)更小更快的模型的同時(shí)優(yōu)化精度和效率(10倍),遠(yuǎn)遠(yuǎn)超過(guò)了傳統(tǒng)方法。

EfficientNets有望成為最先進(jìn)的計(jì)算機(jī)視覺(jué)任務(wù)的基礎(chǔ)。為了機(jī)器學(xué)習(xí)社區(qū)的利益,研究人員還開(kāi)發(fā)了開(kāi)源的高效網(wǎng)絡(luò)算法。

基于深度學(xué)習(xí)的深度預(yù)測(cè)

谷歌人工智能的一組研究人員已經(jīng)應(yīng)用深度學(xué)習(xí)來(lái)解決從二維圖像數(shù)據(jù)重建幾何場(chǎng)景的挑戰(zhàn)。他們開(kāi)發(fā)了一種新的模型,能夠在攝像機(jī)和拍攝對(duì)象都自由移動(dòng)的情況下創(chuàng)建深度圖。通過(guò)對(duì)人體姿態(tài)和數(shù)據(jù)形狀的先驗(yàn)學(xué)習(xí),該算法能夠避免直接使用三維三角定位。

研究人員主要關(guān)注于人類(lèi),因?yàn)樗麄兪窃鰪?qiáng)現(xiàn)實(shí)和3D視頻效果的良好目標(biāo)。令人驚訝的是,雖然有許多方法可以預(yù)測(cè)深度圖,但這一研究是第一項(xiàng)幫助設(shè)計(jì)和實(shí)現(xiàn)照相機(jī)和人體同時(shí)運(yùn)動(dòng)的工作。

生成的預(yù)測(cè)深度圖可用于創(chuàng)建各種3D感知視頻效果。它們可以幫助生成單目立體視頻,也可以將合成CG對(duì)象插入到場(chǎng)景中。此外,它們還提供了用視頻其他幀中的內(nèi)容填充孔和不被遮擋區(qū)域的能力。

電話詐騙時(shí)代的落幕

即便是最先進(jìn)的欺騙檢測(cè)系統(tǒng),也嚴(yán)重依賴于關(guān)于欺騙的技術(shù)知識(shí)。本文通過(guò)探索傳統(tǒng)和自動(dòng)編碼器音頻特性來(lái)解決這一局限性,這些特性在不同類(lèi)型的重播欺騙中都是可推廣的。

谷歌開(kāi)發(fā)EfficientNets 擴(kuò)大CNN并與AutoML結(jié)合

研究人員全面解釋了建立高級(jí)音頻特征檢測(cè)所需的所有步驟,包括預(yù)處理和后處理。他們還評(píng)估了強(qiáng)大的重放揚(yáng)聲器檢測(cè)系統(tǒng)的性能,該系統(tǒng)將提取的和機(jī)器學(xué)習(xí)的音頻特征進(jìn)行了不同的組合,并在嘈雜環(huán)境下于ASVSpoof 2017數(shù)據(jù)集上進(jìn)行了測(cè)試。

與當(dāng)前最先進(jìn)的技術(shù)相比,這一程序提供了極具競(jìng)爭(zhēng)力的結(jié)果,并重申了集成不同類(lèi)型音頻特征以開(kāi)發(fā)用于欺騙檢測(cè)的強(qiáng)大模型的重要性。

移動(dòng)設(shè)備的自監(jiān)督音頻表示學(xué)習(xí)

Google Research最近基于移動(dòng)設(shè)備音頻剪輯中的時(shí)間環(huán)境提出了一種自我監(jiān)督的學(xué)習(xí)方法。在這一研究中他們推薦了Audio2Vec,這是一個(gè)受Word2Vec啟發(fā)的自我監(jiān)督學(xué)習(xí)過(guò)程,但應(yīng)用于音頻頻譜圖。

他們同樣推薦了TemporalGap,這是另一種自我監(jiān)督的學(xué)習(xí)過(guò)程,它可以估計(jì)隨機(jī)抽取的任意兩對(duì)音頻片段之間的時(shí)間距離。

谷歌開(kāi)發(fā)EfficientNets 擴(kuò)大CNN并與AutoML結(jié)合

基于可能部署在移動(dòng)設(shè)備上的小型編碼器架構(gòu),研究人員證明,Audio2Vec和TAemporalGap能夠生成可重復(fù)用于各種下游任務(wù)(如語(yǔ)音、音樂(lè)檢測(cè)、揚(yáng)聲器識(shí)別和語(yǔ)言識(shí)別等)的表示,而無(wú)需在訓(xùn)練工程中使用有標(biāo)記數(shù)據(jù)集。

研究表明,自監(jiān)督模型能在一定程度上減小與完全監(jiān)督模型的精度差距。

未來(lái),研究人員計(jì)劃以分布式方法直接在設(shè)備上研究自我監(jiān)督模型的訓(xùn)練。有趣的是,他們還計(jì)劃合并從不同的自我監(jiān)督模型中學(xué)習(xí)到的表示(比如在嵌入語(yǔ)音的情況下)以改進(jìn)他們的發(fā)現(xiàn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6255

    瀏覽量

    111885
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40643

    瀏覽量

    302302

原文標(biāo)題:谷歌開(kāi)發(fā)EfficientNets,擴(kuò)大CNN并與AutoML結(jié)合,效率提升10倍|一周AI最火論文

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【米爾全志T153開(kāi)發(fā)板評(píng)測(cè)】kws語(yǔ)音關(guān)鍵字識(shí)別測(cè)試

    前言 本文來(lái)移植一個(gè)開(kāi)源的kws語(yǔ)音關(guān)鍵子識(shí)別項(xiàng)目,在該開(kāi)發(fā)板上跑來(lái)評(píng)估其性能。 項(xiàng)目見(jiàn)https://github.com/ARM-software/ML-KWS-for-MCU。 這里移植好
    發(fā)表于 03-18 00:08

    谷歌評(píng)論卡,碰一碰即可完成谷歌評(píng)論 #谷歌評(píng)論卡 #NFC標(biāo)簽 #nfc卡

    谷歌
    深圳市融智興科技有限公司
    發(fā)布于 :2026年01月15日 17:02:00

    谷歌XR生態(tài)加速落地:Galaxy XR上線月入60+應(yīng)用,Project Aura明年發(fā)售

    電子發(fā)燒友網(wǎng)報(bào)道(文/莫婷婷)自從5月的谷歌2025 Google I/O開(kāi)發(fā)者大會(huì)后,估計(jì)再次于12月9日召開(kāi)了“The Android Show”活動(dòng),在這場(chǎng)時(shí)長(zhǎng)約為半個(gè)小時(shí)的活動(dòng)上,谷歌披露
    的頭像 發(fā)表于 12-11 10:18 ?1.4w次閱讀
    <b class='flag-5'>谷歌</b>XR生態(tài)加速落地:Galaxy XR上線月入60+應(yīng)用,Project Aura明年發(fā)售

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    CNN算法簡(jiǎn)介 我們硬件加速器的模型為L(zhǎng)enet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細(xì)分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹: 卷積層:提取特征?!安蝗?/div>
    發(fā)表于 10-29 07:49

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    通過(guò)實(shí)踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議,這些建議將會(huì)在構(gòu)建高準(zhǔn)確率輕量級(jí)CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò):我們清楚神經(jīng)網(wǎng)絡(luò)本身是需要不斷抽象出更高級(jí)別的紋理
    發(fā)表于 10-28 08:02

    淘寶圖片搜索接口開(kāi)發(fā)實(shí)戰(zhàn):從 CNN 特征提取到商品匹配(附避坑手冊(cè) + 可復(fù)用代碼)

    本文詳解淘寶圖片搜索接口開(kāi)發(fā)全流程,涵蓋CNN特征提取、商品匹配、參數(shù)配置及400/429等高頻報(bào)錯(cuò)解決方案,附合規(guī)避坑指南與可復(fù)用代碼,助你高效實(shí)現(xiàn)圖像搜商品功能。
    的頭像 發(fā)表于 10-21 10:03 ?648次閱讀

    完全按照rt-thread 里的串口DMA接收寫(xiě)的,接收內(nèi)存無(wú)論怎么擴(kuò)大還是報(bào)錯(cuò),為什么?

    完全按照rt-thread 里的串口DMA接收寫(xiě)的,還是接收內(nèi)存無(wú)論怎么擴(kuò)大還是報(bào)錯(cuò). Warning: There is no enough buffer for saving data, please increase the RT_SERIAL_RB_BUFSZ option.[0m
    發(fā)表于 09-25 07:16

    AI賦能谷歌Chrome與Web工具全面升級(jí)

    2025 Google 谷歌開(kāi)發(fā)者大會(huì)帶來(lái)了最新 Web 工具,包括全面升級(jí)的 Chrome 開(kāi)發(fā)體驗(yàn)、極大簡(jiǎn)化的 UI 開(kāi)發(fā),到云端兩側(cè)的 AI 部署。這些強(qiáng)大的工具為出海
    的頭像 發(fā)表于 08-29 09:33 ?1267次閱讀

    谷歌AI模型點(diǎn)亮開(kāi)發(fā)無(wú)限可能

    在 2025 年的 Google 谷歌開(kāi)發(fā)者大會(huì)上,AI 不是一門(mén)“技術(shù)”,更是一股徹底改變開(kāi)發(fā)范式的“力量”,助力開(kāi)發(fā)者們?cè)诤M馐袌?chǎng)更上一層樓。AI 已經(jīng)不僅僅是生成幾行代碼,它正在
    的頭像 發(fā)表于 08-29 09:29 ?1243次閱讀

    谷歌全新Android助力提高開(kāi)發(fā)效率

    隨著 Android 的更新,加上 AI 的接入與賦能,讓 Android 開(kāi)發(fā)新范式正在加速成型。
    的頭像 發(fā)表于 08-29 09:22 ?995次閱讀

    【高云GW5AT-LV60 開(kāi)發(fā)套件試用體驗(yàn)】基于開(kāi)發(fā)板進(jìn)行深度學(xué)習(xí)實(shí)踐,并盡量實(shí)現(xiàn)皮膚病理圖片的識(shí)別,第四階段

    接第三階段,上次說(shuō)道要將cnn這個(gè)模塊接入到高云自帶的視頻實(shí)例里面,于是就開(kāi)始學(xué)習(xí)和了解這個(gè)實(shí)例里面的每個(gè)模塊的功能,后來(lái)發(fā)現(xiàn),除了要看一下高云自己的ip文檔外,還要看很多視頻處理相關(guān)的協(xié)議文檔
    發(fā)表于 07-12 07:58

    Arduino與LabVIEW聯(lián)合編程指南

    Arduino編程并與LabVIEW上位機(jī)結(jié)合實(shí)現(xiàn)設(shè)備的遠(yuǎn)程控制與數(shù)據(jù)采集。
    發(fā)表于 06-19 15:54 ?3次下載

    【高云GW5AT-LV60 開(kāi)發(fā)套件試用體驗(yàn)】基于開(kāi)發(fā)板進(jìn)行深度學(xué)習(xí)實(shí)踐,并盡量實(shí)現(xiàn)皮膚病理圖片的識(shí)別

    收到開(kāi)發(fā)板已經(jīng)有一段時(shí)間了,最初申請(qǐng)的時(shí)候?qū)懙氖窍M軌驅(qū)崿F(xiàn)基于fpga的圖像識(shí)別相關(guān)的項(xiàng)目,最初對(duì)這個(gè)還是有些模糊的,不過(guò)這幾天折騰下來(lái),似乎有點(diǎn)思路了,但是畢竟基礎(chǔ)還是有點(diǎn)薄弱,所以廢話不多
    發(fā)表于 06-11 22:35

    谷歌地圖GPS定位

    谷歌地圖GPS定位:精準(zhǔn)導(dǎo)航背后的技術(shù)解析 谷歌地圖作為全球最受歡迎的地圖服務(wù)之一,其精準(zhǔn)的GPS定位功能為用戶提供了極大便利。本文將深入探討谷歌地圖如何利用GPS技術(shù),實(shí)現(xiàn)高精度定位,并帶來(lái)革命性
    的頭像 發(fā)表于 05-29 16:54 ?1614次閱讀

    谷歌發(fā)布混合量子模擬方法

    據(jù)外媒報(bào)道,谷歌發(fā)布了一種混合量子模擬方法;論文已經(jīng)在Nature正式發(fā)表,谷歌混合量子模擬器的核心在于將模擬和數(shù)字技術(shù)相結(jié)合;是全新的模擬-數(shù)字方案,可在保持速度的同時(shí)增強(qiáng)可控制性,這一方案顛覆了
    的頭像 發(fā)表于 04-22 17:17 ?932次閱讀