91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Uber提出卷積網(wǎng)絡在坐標變換上的缺陷限制了它的性能提升

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-07-16 09:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:卷積神經(jīng)網(wǎng)絡如今的應用已十分廣泛,但是uber的工程師們最近表示,卷積網(wǎng)絡在坐標變換上的缺陷限制了它的性能提升,而uber開發(fā)的CoordConv結構正好可以解決這一問題。以下是論智帶來的編譯:

Uber在很多設計坐標變換的領域都使用了卷積神經(jīng)網(wǎng)絡,從設計自動駕駛工具到自動信號燈監(jiān)測和建造地圖等等,這些工具都大大提升了空間移動效率。

深度學習中,很少能有像卷積影響深遠的成果。幾乎機器視覺中所有先進成果都用了堆疊的卷積層作為基本搭建模塊。由于這種結構的廣泛應用,我們期待它們能應用于一些簡單任務,例如在小尺寸圖畫上繪畫單一像素。

但令人驚訝的是,卷積結構似乎很難處理看上去很平?,嵥榈娜蝿铡T谖覀兊恼撐摹狝n Intriguing Failing of Convolutional Neural Networks and the CoordConv Solution中,我們研究并分析了卷積神經(jīng)網(wǎng)絡的一種常見缺陷,即它無法將空間表示轉換成笛卡爾空間中的坐標和one-hot像素空間中的坐標。這很意外,因為這些任務似乎很簡單,并且此類坐標的轉換也是解決常見問題的必備方法,例如圖像中的物體檢測、訓練生成模型、訓練強化學習智能體等等,所以也很重要。經(jīng)過研究我們發(fā)現(xiàn),這些任務已經(jīng)多多少少受到卷積結構的限制。所以為了提升性能,我們提出了一種名為CoordConv的解決方案,在多個領域進行了成果展示。

發(fā)現(xiàn)一:CNN很難做到監(jiān)督式渲染

我們先從一個簡單的監(jiān)督式渲染開始,假設我們向一個網(wǎng)絡中輸入(i, j)坐標,要求它輸出一個64×64的圖像,并在坐標處畫一個正方形,如圖1a所示。你會用哪種網(wǎng)絡進行這一問題呢?

我們可以借鑒很多用于圖片生成的方法,用反卷積層畫正方形。為了測試這種方法,我們創(chuàng)建了一個數(shù)據(jù)集,其中在64×64的畫布上隨機放置了一些9×9的方塊,如圖1b所示。將數(shù)據(jù)集中方塊所有可能的位置列出后,總共有3136個樣本。為了評估模型生成的表現(xiàn),我們將樣本分為兩組訓練/測試數(shù)據(jù)集:一組是將數(shù)據(jù)集中80%坐標用于訓練,20%用于測試。另一組中將畫布從中分為四個象限,坐標位于前三個象限的用于訓練,第四象限的坐標用于測試。兩組數(shù)據(jù)的分布如1c所示。

圖1

我們設想CNN能完成這個任務,因為它很簡單(整個數(shù)據(jù)集可能用兩行Python就能表示出來了),并且數(shù)據(jù)集很小,我們能輕易地用模型進行參數(shù)設定。但結果恰恰相反,CNN表現(xiàn)得極差。即使有1M的參數(shù)、訓練了90分鐘(圖2b),模型在第一個數(shù)據(jù)集上也沒達到0.83的IOU分數(shù),在第二個數(shù)據(jù)集上甚至都沒超過0.36(圖2a)。

圖2

簡化任務以及發(fā)現(xiàn)二:監(jiān)督式坐標分類對CNN也很困難

所以為什么監(jiān)督式渲染對CNN這么難?我們需要深入挖掘一下原因。的確,如果在直接的監(jiān)督條件下渲染訓練都這么困難,在無監(jiān)督下會更有挑戰(zhàn)性。

我們先看一下是什么讓這個問題變得困難?,F(xiàn)在我們讓網(wǎng)絡簡單地繪制一個像素,而不是9×9的方塊。可以想象,如果這個任務能解決,那么之后的反卷積網(wǎng)絡就可以輕易地將單一像素擴展成更大的方塊。于是我們開始了監(jiān)督式坐標分類任務(如圖3a)其中的數(shù)據(jù)集包括成對的(i, j)坐標,并且有單一對應像素的圖像,如圖3b:

圖3

之后我們又嘗試了擁有不同參數(shù)的網(wǎng)絡,發(fā)現(xiàn)及時有些網(wǎng)絡能記住訓練集,但沒有一個的測試準確率超過86%(如圖4a)。并且訓練時間都超過了一小時。

圖4 兩數(shù)據(jù)集上的訓練和測試結果

我們期望卷積網(wǎng)絡能表現(xiàn)的很好,但是很遺憾它并沒有。為了弄清楚原因,我們選擇了表現(xiàn)最好的網(wǎng)絡,來驗證結果。

我們讓網(wǎng)絡畫一張圖,上面僅有一個像素(即在one-hot表示中的值為1)。為了看看發(fā)生了什么,我們放大了該區(qū)域。在圖5中,目標像素用紅色圈出,我們展示出了模型的softmax預測和logits圖。第一個像素(第一行)是訓練集中的數(shù)據(jù),所以模型做對了,雖然模型在其周圍也做了一些預測。第二個像素(第二行)來自測試集,模型險些沒有猜對,可以看到左上像素的概率也挺大的。最后一個像素(第三行)顯示模型完全預測錯誤。

圖5

反方向和第三個發(fā)現(xiàn):監(jiān)督式回歸對CNN同樣很難

所以為什么網(wǎng)絡很難定位一個像素呢?是因為從小空間到大空間的轉換很困難嗎?如果朝一個方向會不會容易點呢?如果我們訓練卷積網(wǎng)絡將圖像信息轉換成標量坐標,是否與普通圖像分類更相似呢?

結果模型在這種監(jiān)督式回歸的任務上同樣表現(xiàn)得不好。在圖10中,左邊圖中的點表示正確的像素坐標,中間圖中的點表示模型的預測。模型在測試集上表現(xiàn)得不好,并且在訓練集上也差強人意。

簡單地說,方向根本不重要。

所以,這一看似簡單的坐標轉換任務在卷積網(wǎng)絡身上主要有兩個問題:從笛卡爾空間轉換到one-hot像素空間及其他方式上。即使用監(jiān)督式方法進行訓練,即使只有一個像素,即使所有的訓練案例很容易獲得,卷積仍然學不會順利轉換。另外,表現(xiàn)最好的卷機模型體積巨大,訓練耗時很長。

解決辦法:CoordConv

我們提出了解決這一難題的方法。

卷積是等變的,也就是說當每個過濾器應用到輸入上時,它不知道每個過濾器在哪。我們可以幫助卷積,讓它知道過濾器的位置。這一過程需要在輸入上添加兩個通道實現(xiàn),一個在i坐標,另一個在j坐標。我們將這個圖層成為CoordConv,如圖6所示:

圖6

我們提出的CoordConv圖層是標準卷積層的簡單擴展,其中卷積和坐標相對應。讓卷積過濾器看到坐標其實違背了等變性原則,看起來不是個好方法,但是,等變性原則對卷積有好處嗎?

我們認為,卷積獲得成功的原因主要依靠三個元素:運用相對較少的學習參數(shù)、在GPU上計算速度很快、它學習的函數(shù)時符合平移等變性的。

CoordConv保留了前兩種特點——較少的參數(shù)和高效的計算。如果坐標的權重變?yōu)榱悖珻oordConv就和普通卷積沒什么區(qū)別。另一方面,如果平移依賴對下游任務有用的話,它也同樣可以學習。

CoordConv與目前很多理念相關,例如局部連接層、復合模式生成網(wǎng)絡(CPPN)以及語言建模中用到的位置嵌入。

用CoordConv解決此前的監(jiān)督問題

首先,讓我們回顧下剛剛提到的任務,并看一下CoordConv如何解決。

如圖7和圖8所示,CoordConv模型在監(jiān)督式坐標分類和監(jiān)督式渲染任務上都達到了最佳訓練和測試性能。另外,CoordConv的參數(shù)比之前少10—100倍,訓練時間幾秒就完成,比之前快了150倍。

圖7

圖8

為了進一步驗證,下圖9展示了普通反卷積和CoordConv的對比:

圖9

當用卷積繪制像素時,我們發(fā)現(xiàn)了明顯的殘影和過擬合現(xiàn)象。CoordConv在訓練集和測試集上都表現(xiàn)的很好。同樣,在反方向的情況上也是如此。盡管卷積很難對坐標進行回歸,CoordConv能表現(xiàn)的很好:

圖10

CoordConv應用廣泛

以下是我們總結的CoordConv的應用場景:

目標檢測

目標檢測模型也是在像素塊空間中尋找,輸出的是笛卡爾空間中的邊界框,所以看起來CoordConv很適合。我們還發(fā)現(xiàn),在簡單的MNIST數(shù)據(jù)集檢測上,F(xiàn)aster-RCNN網(wǎng)絡的IOU分數(shù)提高了約24%。

圖像分類

在所有視覺任務中,我們很期待CoordConv對分類任務的提高,因為分類更關乎的是“這物體是什么”而不是“它在哪”。實際上,當我們將CoordConv圖層添加到ResNet-50的底部,并在ImageNet上訓練后,卻只有很少的進步。

生成模型

在類似GAN和VAE這樣的生成模型中,像素是在隱藏空間中的,對于高層次概念的編碼是很理想的位置。也許CoordConv能對此有所幫助。利用基于Sort-of-CLEVR的簡單數(shù)據(jù)集,我們訓練了GAN和VAE,并展示了隱藏空間之間的插值。

這次的任務是生成帶有顏色的形狀。圖11左邊是普通的GAN,右邊是CoordConv GAN。我們在隱藏空間中對點之間進行插值,研究CoordConv的影響,這也是評估生成模型性能的常用方法之一。

圖11

對于普通GAN來說,動畫一開始看起來很好。但是當我們近距離觀察后發(fā)現(xiàn),并不是所有像素都在移動。一些小的殘影會靜止不動,有些點會時不時的消失再出現(xiàn)。當我們加入CoordConv后,動作變得流暢了許多。

在訓練VAE時我們也發(fā)現(xiàn)了相似的情況。在有卷積的情況下,我們觀察到圖中一部分物體會逐漸消失,但后來加入CoordConv就不會有這種情況。

當用GAN繪制更大的場景時,普通的GAN仍會出現(xiàn)靜止不動的物體時不時消失,而CoordConv對于變換就很流暢。

強化學習

強化學習也是CoordConv想提供幫助的一個領域,我們訓練智能體玩吃豆人,我們認為如果卷積過濾器能立刻認出其他豆人并且鎖定其在迷宮中的位置,那么這對學習更好的策略是很有幫助的。

我們試著將CoordConv加入到Distributed Prioritized Experience Replay(Ape-X)中,但是CoordConv并沒有立即提升其性能。我們又試了A2C,這是一種常用的策略梯度方法,CoordConv起了作用。經(jīng)過訓練,如我們所想,吃豆人的分數(shù)有所提高,也證明CoordConv可以幫助強化學習。

下一步

在這篇文章中,我們研究了CNN在轉換坐標時的不佳性能,所以對此提出了CoordConv這一解決方法。這一結果還可以用到其他類別廣泛的應用中,未來我們會進一步評估CoordConv在大型數(shù)據(jù)集上的作用,研究它對檢測、語言任務、視頻預測等具有空間轉換網(wǎng)絡的應用的影響。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:Uber提出CoordConv:解決了普通CNN的坐標變換問題

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Adyen與Uber拓展全球合作,并推出Uber自助服務機

    ? Adyen與Uber拓展全球合作以開拓新市場,并推出Uber自助服務機 Adyen與Uber深化合作,支持Uber更多關鍵市場的支付處
    的頭像 發(fā)表于 02-10 11:08 ?196次閱讀
    Adyen與<b class='flag-5'>Uber</b>拓展全球合作,并推出<b class='flag-5'>Uber</b>自助服務機

    性能網(wǎng)絡存儲設計:NVMe-oF IP的實現(xiàn)探討

    延伸到網(wǎng)絡中。 該IP系統(tǒng)架構如下: 具有如下特點: ① 動態(tài)隊列綁定(DynamicQueue Binding)機制 系統(tǒng)針對 NVMe SSD 的多隊列并行特性,設計 負載感知的動態(tài)隊列綁定策略
    發(fā)表于 12-19 18:45

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡是個啥?

    自動駕駛領域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡技術。卷積神經(jīng)網(wǎng)絡,簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學習模型。CNN
    的頭像 發(fā)表于 11-19 18:15 ?2122次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b>神經(jīng)<b class='flag-5'>網(wǎng)絡</b>是個啥?

    NVIDIA與Uber合作推進全球L4級自動駕駛移動出行網(wǎng)絡

    NVIDIA 宣布與 Uber 達成合作,將共同擴展全球 L4 級自動駕駛移動出行網(wǎng)絡。合作將依托 Uber 新一代無人駕駛出租車和自動配送車隊,采用全新 NVIDIA DRIVE AGX Hyperion 10 輔助駕駛開發(fā)平
    的頭像 發(fā)表于 11-03 14:33 ?1360次閱讀

    CNN卷積神經(jīng)網(wǎng)絡設計原理及MCU200T上仿真測試

    數(shù)的提出很大程度的解決BP算法優(yōu)化深層神經(jīng)網(wǎng)絡時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    神經(jīng)網(wǎng)絡加速器的雙線性插值上采樣

    了和這個浮點數(shù)最接近的象素的值,這種方法是很不科學的,雙線性插值法算是的改進吧。 坐標: srcX=dstX* (srcWidth/dstWidth) , srcY =dstY
    發(fā)表于 10-29 06:36

    構建CNN網(wǎng)絡模型并優(yōu)化的一般化建議

    :Dropout層隨機跳過神經(jīng)網(wǎng)絡模型中某些神經(jīng)元之間的連接,通過隨機制造缺陷進行訓練提升整個神經(jīng)網(wǎng)絡的魯棒性。 6)指定合理的學習率策略:一旦神經(jīng)
    發(fā)表于 10-28 08:02

    卷積運算分析

    的數(shù)據(jù),故設計ConvUnit模塊實現(xiàn)單個感受域規(guī)模的卷積運算. 卷積運算:不同于數(shù)學當中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡中的
    發(fā)表于 10-28 07:31

    坐標如何實現(xiàn)測量效率的提升?

    精密制造的產(chǎn)線節(jié)奏日益加快,傳統(tǒng)三坐標測量機面臨著“要么放慢速度保精度,要么犧牲精度換速度”的困境制約著生產(chǎn)效率的提升。MizarGold三坐標測量機通過材料創(chuàng)新與傳動優(yōu)化,實現(xiàn)測量
    的頭像 發(fā)表于 09-11 16:47 ?1545次閱讀
    三<b class='flag-5'>坐標</b>如何實現(xiàn)測量效率的<b class='flag-5'>提升</b>?

    坐標測量儀:從機械精密到智能協(xié)同的技術

    坐標測量儀從“點測量”到“空間測量”三坐標的橋式結構設計打破了機械結構對精度的限制。通過花崗巖工作臺與高性能導軌的組合,構建了穩(wěn)定的三維
    發(fā)表于 08-28 13:50 ?0次下載

    坐標測量機結構材料對性能的影響

    坐標測量機結構材料對測量精度、性能有很大影響,隨著各種新型材料的研究、開發(fā)和應用,三坐標測量機結構材料種類越來越多。目前三坐標測量機主流結構材料為花崗巖、鋁合金,工業(yè)陶瓷基本只出現(xiàn)在
    發(fā)表于 08-28 13:46 ?0次下載

    矩陣變換異步電機直接轉矩控制中的應用

    良好的動靜態(tài)性能,為實際研究和設計提供方便。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:矩陣變換異步電機直接轉矩控制中的應用.pdf【免責聲明】本文系
    發(fā)表于 06-05 11:21

    快手上線鴻蒙應用高性能解決方案:數(shù)據(jù)反序列化性能提升90%

    近日,快手Gitee平臺上線鴻蒙應用性能優(yōu)化解決方案“QuickTransformer”,該方案針對鴻蒙應用開發(fā)中廣泛使用的三方庫“class-transformer”進行了深度優(yōu)化,有效
    發(fā)表于 05-15 10:01

    Momenta與Uber達成戰(zhàn)略合作

    Momenta與Uber 聯(lián)合宣布,雙方正式達成戰(zhàn)略合作協(xié)議,將自動駕駛車輛引入 Uber 平臺,覆蓋美國和中國以外的國際市場。首批合作商業(yè)化落地將于 2026 年初歐洲啟動,并配備車載安全員
    的頭像 發(fā)表于 05-06 18:07 ?1882次閱讀

    電機矢量控制中坐標變換的詳細推導(可下載)

    一、Clarke 變換推導(三相靜止坐標與兩相靜止坐標換算)通過三相靜止坐標系(ABC)和兩相靜止坐標系(αβ)的換算,可以實現(xiàn)電機三相電源
    發(fā)表于 04-03 11:35 ?6次下載