91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌AI新方法可提升10倍圖像識(shí)別效率 關(guān)鍵還簡(jiǎn)單易用

hl5C_deeptechch ? 來(lái)源:yxw ? 2019-06-06 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在開(kāi)發(fā)以卷積神經(jīng)網(wǎng)絡(luò)(CNN)為核心的機(jī)器學(xué)習(xí)模型時(shí),我們通常會(huì)先使用固定的資源成本,構(gòu)建最初的模型,然后增加更多資源(層數(shù))擴(kuò)展模型,從而獲得更高的準(zhǔn)確率。

著名的 CNN 模型 ResNet(深度殘差網(wǎng)絡(luò)),就可以用增加層數(shù)的方法從ResNet-18 擴(kuò)展到 ResNet-200。谷歌的 GPipe 模型也通過(guò)將基線 CNN 擴(kuò)展 4 倍,在 ImageNet 數(shù)據(jù)庫(kù)上達(dá)到84.3% 的準(zhǔn)確率,力壓所有模型。

一般來(lái)說(shuō),模型的擴(kuò)大和縮小都是任意增加 CNN 的深度或?qū)挾龋只蚴鞘褂梅直媛矢蟮膱D像進(jìn)行訓(xùn)練和評(píng)估。雖然這些傳統(tǒng)方法提高準(zhǔn)確率的效果不錯(cuò),但大多需要繁瑣的手動(dòng)調(diào)整,還可能無(wú)法達(dá)到最佳性能。

因此,谷歌AI團(tuán)隊(duì)最近提出了新的模型縮放方法“復(fù)合縮放(CompoundScaling)”和配套的EfficientNet 模型。他們使用復(fù)合系數(shù)和 AutoML 從多個(gè)維度均衡縮放 CNN,綜合考慮深度和寬度等參數(shù),而不是只單純地考慮一個(gè),使得模型的準(zhǔn)確率和效率大幅提升,圖像識(shí)別的效率甚至可以大幅提升 10 倍。

這項(xiàng)新方法的根本優(yōu)勢(shì)在于實(shí)踐起來(lái)非常簡(jiǎn)單,背后的原理很好理解,甚至讓人懷疑為什么沒(méi)有被更早發(fā)現(xiàn)。該研究成果以論文的形式被 ICML2019(國(guó)際機(jī)器學(xué)習(xí)大會(huì))接收,名為 EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks。EfficientNet 模型的相關(guān)代碼和 TPU 訓(xùn)練數(shù)據(jù)也已經(jīng)在 GitHub 上開(kāi)源。

尋找復(fù)合系數(shù)

為了弄清楚神經(jīng)網(wǎng)絡(luò)縮放之后的效果,谷歌團(tuán)隊(duì)系統(tǒng)地研究了改變不同維度對(duì)模型的影響,維度參數(shù)包括網(wǎng)絡(luò)深度、寬度和圖像分辨率。

首先他們進(jìn)行了柵格搜索(GridSearch)。這是一種窮舉搜索方法,可以在固定資源的限定下,列出所有參數(shù)之間的關(guān)系,顯示出改變某一種維度時(shí),基線網(wǎng)絡(luò)模型會(huì)受到什么樣的影響。換句話說(shuō),如果只改變了寬度、深度或分辨率,模型的表現(xiàn)會(huì)發(fā)生什么變化。

圖 |以基線網(wǎng)絡(luò)為基礎(chǔ),列出所有維度變化對(duì)模型的影響

綜合考慮所有情況之后,他們確定了每個(gè)維度最合適的調(diào)整系數(shù),然后將它們一同應(yīng)用到基線網(wǎng)絡(luò)中,對(duì)每個(gè)維度都進(jìn)行適當(dāng)?shù)目s放,并且確保其符合目標(biāo)模型的大小和計(jì)算預(yù)算。

簡(jiǎn)單來(lái)說(shuō),就是分別找到寬度、深度和分辨率的最佳系數(shù),然后將它們組合起來(lái)一起放入原本的網(wǎng)絡(luò)模型中,對(duì)每一個(gè)維度都有所調(diào)整。從整體的角度縮放模型。

與傳統(tǒng)方法相比,這種復(fù)合縮放法可以持續(xù)提高模型的準(zhǔn)確性和效率。在現(xiàn)有模型 MobileNet 和 ResNet 上的測(cè)試結(jié)果顯示,它分別提高了 1.4% 和 0.7% 的準(zhǔn)確率。

高效的網(wǎng)絡(luò)架構(gòu)和性能

縮放模型的有效性也依賴于基線網(wǎng)絡(luò)(架構(gòu))本身。

因?yàn)?,為了進(jìn)一步提高性能,谷歌 AI 團(tuán)隊(duì)還使用了 AutoMLMNAS 框架進(jìn)行神經(jīng)架構(gòu)搜索,優(yōu)化準(zhǔn)確性和效率。AutoML 是一種可以自動(dòng)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)的技術(shù),由谷歌團(tuán)隊(duì)在 2017 年提出,而且經(jīng)過(guò)了多次優(yōu)化更新。使用這種技術(shù)可以更簡(jiǎn)便地創(chuàng)造神經(jīng)網(wǎng)絡(luò)。

由此產(chǎn)生的架構(gòu)使用了移動(dòng)倒置瓶頸卷積(MBConv),類似于 MobileNetV2 和 MnasNet 模型,但由于計(jì)算力(FLOPS)預(yù)算增加,MBConv 模型體積略大。隨后他們多次縮放了基線網(wǎng)絡(luò),組成了一系列模型,統(tǒng)稱為EfficientNets。

圖 |EfficientNet-B0 基線網(wǎng)絡(luò)架構(gòu)

為了測(cè)試其性能,研究人員與 ImageNet 上的其他現(xiàn)有 CNN 進(jìn)行了比較。結(jié)果顯示,EfficientNet 在大多數(shù)情況下表現(xiàn)亮眼,比現(xiàn)有 CNN 的準(zhǔn)確率和效率都高,還將參數(shù)大小和計(jì)算力降低了一個(gè)數(shù)量級(jí)。

比如 EfficientNet-B7 在 ImageNet 上達(dá)到的 Top-1 最高準(zhǔn)確率是 84.4%,Top-5 準(zhǔn)確率是 97.1%。在 CPU 推理上,它的體積比最好的 CNN 模型 GPipe 小 8.4 倍,但速度快了 6.1 倍。與廣泛使用的 ResNet-50 相比,EfficientNet-B4 使用了類似的計(jì)算力,但 Top-1 準(zhǔn)確率從 76.3% 提升到了 82.6%。

圖 |參數(shù)使用量和 ImageNetTop-1 準(zhǔn)確率對(duì)比

此外,EfficientNets 不僅在 ImageNet 上表現(xiàn)出眾,其能力還可以轉(zhuǎn)移到其它數(shù)據(jù)集上。

他們?cè)?8 個(gè)流行的遷移學(xué)習(xí)數(shù)據(jù)集上測(cè)試了 EfficientNets。結(jié)果顯示,它在其中的 5 個(gè)上面都拿到了頂尖成績(jī),例如在 CIFAR-100 上獲得了 91.7% 的成績(jī),在 Flowers 上獲得了 98.8% 的成績(jī),而且參數(shù)至少減少了一個(gè)數(shù)量級(jí),甚至還可以最多減少 21 倍,說(shuō)明 EfficientNets 具有很強(qiáng)的遷移能力。

谷歌 AI 團(tuán)隊(duì)認(rèn)為,EfficientNets 有望憑借簡(jiǎn)單易操作的特點(diǎn),成為未來(lái)計(jì)算機(jī)視覺(jué)任務(wù)的新基石。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6255

    瀏覽量

    111885
  • 圖像識(shí)別
    +關(guān)注

    關(guān)注

    9

    文章

    534

    瀏覽量

    40135
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40643

    瀏覽量

    302302

原文標(biāo)題:谷歌 AI 新方法:可提升 10 倍圖像識(shí)別效率,關(guān)鍵還簡(jiǎn)單易用

文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何讓ResNet50圖像識(shí)別模型在光計(jì)算硬件上飛快運(yùn)行

    你可能每天都在用圖像識(shí)別:手機(jī)相冊(cè)自動(dòng)歸類、刷臉支付、甚至智能相機(jī)的寵物模式。但你有沒(méi)有想過(guò),這些“一眼認(rèn)出”的本領(lǐng),是怎么教出來(lái)的?
    的頭像 發(fā)表于 03-09 14:21 ?299次閱讀

    使用NORDIC AI的好處

    提升能效,適合音頻、圖像和高采樣率傳感器等更重的 AI 負(fù)載。[Axon NPU 技術(shù)頁(yè)] 模型更小、更快、更省電 Neuton 模型相較 TensorFlow Lite:* 內(nèi)存占用
    發(fā)表于 01-31 23:16

    用于窄帶匹配高速射頻ADC的全新方法

    本期,為大家?guī)?lái)的是《用于窄帶匹配高速射頻 ADC 的全新方法》,介紹了一種用于窄帶匹配高速射頻 ADC 的全新方法,以解決高中間頻率系統(tǒng)中 ADC 前端窄帶匹配的設(shè)計(jì)難題,可在 ADC 額定帶寬內(nèi)應(yīng)用,能提升 ADC 性能、減
    的頭像 發(fā)表于 01-04 15:56 ?7187次閱讀
    用于窄帶匹配高速射頻ADC的全<b class='flag-5'>新方法</b>

    AI算法開(kāi)發(fā),SpeedDP打輔助!不止10效率

    。而那些能夠帶來(lái)10工作效率AI自然能夠輕松取代人類。當(dāng)然這也是相對(duì)的,不是每個(gè)領(lǐng)域都適用,廚師再快,也無(wú)法讓實(shí)物快10
    的頭像 發(fā)表于 11-20 18:09 ?739次閱讀
    <b class='flag-5'>AI</b>算法開(kāi)發(fā),SpeedDP打輔助!不止<b class='flag-5'>10</b><b class='flag-5'>倍</b><b class='flag-5'>效率</b>

    連鎖門店AI智能復(fù)核巡店方案-解放人工審核壓力 InfiSight智睿視界

    AI復(fù)核」專為連鎖門店巡檢設(shè)計(jì),利用AI圖像識(shí)別技術(shù)自動(dòng)審核門店自檢圖片與打分表真實(shí)性。系統(tǒng)智能識(shí)別冷藏柜溫度、操作臺(tái)清潔、垃圾處理等3
    的頭像 發(fā)表于 09-15 16:10 ?933次閱讀
    連鎖門店<b class='flag-5'>AI</b>智能復(fù)核巡店方案-解放人工審核壓力 InfiSight智睿視界

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    、Transformer 模型的后繼者 二、用創(chuàng)新方法實(shí)現(xiàn)深度學(xué)習(xí)AI芯片 1、基于開(kāi)源RISC-V的AI加速器 RISC-V是一種開(kāi)源、模塊化的指令集架構(gòu)(ISA)。優(yōu)勢(shì)如下: ①模塊化特性②標(biāo)準(zhǔn)接口③開(kāi)源
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+內(nèi)容總覽

    是展望未來(lái)的AGI芯片,并探討相關(guān)的發(fā)展和倫理話題。 各章的目錄名稱如下: 第1章 大模型浪潮下,AI芯片的需求與挑戰(zhàn)免費(fèi) 第2章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu) 第3章 AI
    發(fā)表于 09-05 15:10

    AI 芯片浪潮下,職場(chǎng)晉升新契機(jī)?

    芯片設(shè)計(jì)為例,從最初的架構(gòu)選型,到算法適配、性能優(yōu)化,每個(gè)環(huán)節(jié)都考驗(yàn)著工程師的專業(yè)素養(yǎng)。在設(shè)計(jì)一款面向智能安防領(lǐng)域的 AI 芯片時(shí),需要深入研究安防場(chǎng)景下圖像識(shí)別算法的特點(diǎn),針對(duì)性地優(yōu)化芯片架構(gòu),提升
    發(fā)表于 08-19 08:58

    華怡豐推出ISC-B/C系列圖像識(shí)別傳感器

    在工業(yè)自動(dòng)化領(lǐng)域,精準(zhǔn)、高效的視覺(jué)檢測(cè)是提升生產(chǎn)效率關(guān)鍵。華怡豐全新推出的ISC-B/C系列圖像識(shí)別傳感器集高精度定位、測(cè)量算法與先進(jìn)圖像
    的頭像 發(fā)表于 08-15 11:36 ?1822次閱讀
    華怡豐推出ISC-B/C系列<b class='flag-5'>圖像識(shí)別</b>傳感器

    火車車號(hào)圖像識(shí)別系統(tǒng)如何應(yīng)對(duì)不同光照條件下的識(shí)別問(wèn)題?

    在鐵路運(yùn)輸管理中,準(zhǔn)確識(shí)別火車車號(hào)是實(shí)現(xiàn)自動(dòng)化車輛管理的關(guān)鍵環(huán)節(jié)。然而,實(shí)際應(yīng)用場(chǎng)景中復(fù)雜多變的光照條件給車號(hào)識(shí)別帶來(lái)了巨大挑戰(zhàn)?,F(xiàn)代火車車號(hào)圖像識(shí)別系統(tǒng)通過(guò)多項(xiàng)技術(shù)創(chuàng)新,有效解決了這
    的頭像 發(fā)表于 07-15 11:37 ?887次閱讀
    火車車號(hào)<b class='flag-5'>圖像識(shí)別</b>系統(tǒng)如何應(yīng)對(duì)不同光照條件下的<b class='flag-5'>識(shí)別</b>問(wèn)題?

    【嘉楠堪智K230開(kāi)發(fā)板試用體驗(yàn)】01 Studio K230開(kāi)發(fā)板Test2——手掌,手勢(shì)檢測(cè),字符檢測(cè)

    K210 的 13.7 以上,同時(shí)保持高計(jì)算效率(利用率超過(guò) 70%)。這意味著它能處理更復(fù)雜模型或更多并發(fā)任務(wù)。 KPU 是 CanMV K230 的專用視覺(jué)處理引擎,賦予開(kāi)發(fā)板強(qiáng)大的實(shí)時(shí)圖像識(shí)別
    發(fā)表于 07-10 09:45

    無(wú)刷直流電機(jī)反電勢(shì)過(guò)零檢測(cè)新方法

    新方法。在三相采樣等效電路上分別并聯(lián)一組三極管控制的電阻分壓開(kāi)關(guān)電路,參考電機(jī)轉(zhuǎn)速線性調(diào)節(jié)控制信號(hào)占空比,以此控制三極管通斷,從而調(diào)節(jié)電阻分樂(lè)開(kāi)關(guān)電路阻值,可以避免高速時(shí)反電勢(shì)幅值高于檢測(cè)電路供電電壓
    發(fā)表于 06-26 13:50

    AI視覺(jué)識(shí)別收銀稱:水果生鮮店的“智能店員”

    僅耗時(shí)費(fèi)力,容易出現(xiàn)人為錯(cuò)誤。而生鮮自動(dòng)識(shí)別稱重收銀一體機(jī)、AI視覺(jué)識(shí)別收銀秤、生鮮稱重收銀秤和AI生鮮
    的頭像 發(fā)表于 06-07 10:19 ?866次閱讀
    <b class='flag-5'>AI</b>視覺(jué)<b class='flag-5'>識(shí)別</b>收銀稱:水果生鮮店的“智能店員”

    DevEco Studio AI輔助開(kāi)發(fā)工具兩大升級(jí)功能 鴻蒙應(yīng)用開(kāi)發(fā)效率提升

    帶來(lái)了前所未有的智能問(wèn)答體驗(yàn)。 RAG增強(qiáng)型與傳統(tǒng)生成式AI關(guān)鍵差異: 圖2:DeepSeek模型增強(qiáng)RAG能力前后效果對(duì)比圖 升級(jí)點(diǎn)2:新增代碼解釋功能,提升初學(xué)者開(kāi)發(fā)效率 針對(duì)
    發(fā)表于 04-18 14:43