91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種優(yōu)化深度網(wǎng)絡(luò)的降維分解技術(shù)解析

454398 ? 來(lái)源:AI加速微信公眾號(hào) ? 作者:AI加速微信公眾號(hào) ? 2020-11-21 11:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本篇介紹的也是采用了降維的思想來(lái)加速網(wǎng)絡(luò)推理,但是數(shù)學(xué)上采用了不同的方法。而且這篇文章提出的方法可以加速深度網(wǎng)絡(luò),其在vgg-16上進(jìn)行了實(shí)驗(yàn),獲得了4倍的加速效果,而在imageNet分類中top-5錯(cuò)誤率僅有0.3%升高。

1、原理

首先我們來(lái)看神經(jīng)網(wǎng)絡(luò)中的卷積運(yùn)算的形式,對(duì)于任一個(gè)隱藏層,它有c幅輸入圖片,每幅圖片都會(huì)和一個(gè)卷積核進(jìn)行卷積運(yùn)算。假設(shè)卷積核大小為kxk,那么就有c個(gè)卷積核。我們可以將圖片沿著個(gè)數(shù)方向重新生成一個(gè)維度,圖片就成了一個(gè)3D的張量,大小為hxhxc。卷積核為kxkxc,其在kxk方向進(jìn)行劃窗,而c方向進(jìn)行求和。每個(gè)輸出點(diǎn)實(shí)際上是kxkxc個(gè)乘法求和結(jié)果。這c個(gè)卷積核會(huì)輸出一幅圖片,如果隱藏層有d個(gè)節(jié)點(diǎn),實(shí)際上是輸出n幅圖片。如果將kxkxcxd這么大的卷積核進(jìn)行重新排列,排成一個(gè)d行,每行有kxkxc個(gè)數(shù)據(jù),就稱為了一個(gè)矩陣,我們令為W。那么輸入圖片排成一個(gè)向量,長(zhǎng)度為kxkxc。用矩陣乘法可以表示為:



W為一個(gè)dx(kkc+1)的維度矩陣,多增加一個(gè)1是將bias加在末尾。但是有人會(huì)問(wèn)一幅圖片是hxh個(gè)點(diǎn),現(xiàn)在僅在x向量中取了其kxk個(gè)點(diǎn),那么其他的點(diǎn)如何計(jì)算呢?實(shí)際上其它點(diǎn)可以看做為多組x向量輸入,在之后降維分解中都考慮在內(nèi)。

從上述公式看出,計(jì)算量復(fù)雜度為O(dkkc)。文章中文章可以用于更深網(wǎng)絡(luò)的本質(zhì)原因。

接下來(lái)作者重新表達(dá)y為:


M是一個(gè)dxd的矩陣,秩為d’。y-是平均響應(yīng),其維度也為d’。但是這里作者為什么引入了y-并沒(méi)有講。我想和歸一化有類似作用吧,可以糾正數(shù)據(jù)沿著網(wǎng)絡(luò)傳輸?shù)陌l(fā)散性。經(jīng)過(guò)降維的后的y,其和x關(guān)系變?yōu)榱耍?/p>


b是新生成的bias,為:


由于M的秩為d’,所以可以進(jìn)行分解為:


那么就有:



W矩陣變?yōu)閐’x(kkc+1)大小,因此計(jì)算量降低為O(d’kkc)+O(dd’),因?yàn)镺(dd’)很小,所以計(jì)算復(fù)雜度變?yōu)樵瓉?lái)的d’/d。實(shí)際上是減小了神經(jīng)網(wǎng)絡(luò)中輸入通道的數(shù)量,將輸入通道減少拆分成兩層網(wǎng)絡(luò),如圖中所示。而CP分解的權(quán)重通道數(shù)沒(méi)有變,而是減小了kxk方向維度。


以上公式的導(dǎo)出都是基于y有較低的維數(shù)表達(dá),實(shí)際中并不會(huì)有這樣嚴(yán)格的數(shù)學(xué)性質(zhì),因?yàn)閷?duì)于任意輸入x,以及不同訓(xùn)練集訓(xùn)練出來(lái)的網(wǎng)絡(luò),我們不能保證y的維數(shù)實(shí)際低于d。所以這變成了一個(gè)近似問(wèn)題,如何選擇一個(gè)d’,同時(shí)使得新獲得的參數(shù)的網(wǎng)絡(luò)可以逼近最初結(jié)果。作者使用平方差來(lái)作為目標(biāo)函數(shù)進(jìn)行計(jì)算:


以上優(yōu)化問(wèn)題可以很容易獲得解。實(shí)際上是尋找yyT的最大本征值,這類似于PCA方法。通過(guò)提取出排列在前幾位最大的本征值,而剩余本征值設(shè)置為0來(lái)優(yōu)化網(wǎng)絡(luò)參數(shù)。最大本征值反應(yīng)了表達(dá)y的信息的能力。然后通過(guò)一些矩陣變換就可以得到M矩陣。

上述方法很容易兼容非線性單元,因?yàn)榭紤]非線性單元后,優(yōu)化目標(biāo)變?yōu)椋?/p>


其中r為非線性函數(shù),作者只考慮了ReLu函數(shù)的求解。以上目標(biāo)函數(shù)很難求解,因此作者做了一些數(shù)學(xué)變換,將上述損失函數(shù)進(jìn)行了松弛處理,即引入了z,重新表達(dá)為:


從中看出當(dāng)lamda逼近無(wú)窮時(shí),其目標(biāo)函數(shù)等同于原始目標(biāo)函數(shù)。通過(guò)上述方法,可以優(yōu)化每一層的網(wǎng)絡(luò)參數(shù)。因?yàn)槊繉泳W(wǎng)絡(luò)的輸出是下層輸入,所以整個(gè)優(yōu)化一層層傳遞下去可以完成整體網(wǎng)絡(luò)優(yōu)化。

2、結(jié)果

首先作者選擇了一個(gè)10層網(wǎng)絡(luò)進(jìn)行試驗(yàn),結(jié)果為:


這里symmetric和asymmetric是作者進(jìn)行非線性優(yōu)化時(shí),分別使用了原始的輸入結(jié)果和近似輸入結(jié)果來(lái)進(jìn)行的。實(shí)際上是修正每層造成的錯(cuò)誤沿著層向前積累。可以看出asymmetric比symmetric有更低的錯(cuò)誤率。

VGG是一個(gè)廣泛使用的網(wǎng)絡(luò)模型,是一個(gè)深度網(wǎng)絡(luò),其被廣泛用于物體識(shí)別,圖像分割,視頻分析中。作者在VGG-16上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果和CP分解的做了對(duì)比,如圖:


結(jié)論

本文介紹了另外一種降維方法,其可以優(yōu)化深度網(wǎng)絡(luò)。個(gè)人感覺(jué)其還是有一定局限性,首先其在網(wǎng)絡(luò)前向傳輸優(yōu)化時(shí),錯(cuò)誤率還是會(huì)進(jìn)行積累,這也是僅僅優(yōu)化了16層VGG的原因,當(dāng)然這相比CP分解確實(shí)加深了。但是類似resnet這樣更深的網(wǎng)絡(luò),作者并沒(méi)有報(bào)道過(guò)。

編輯:hfy


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    一種基于經(jīng)優(yōu)化算法優(yōu)化過(guò)的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)FIR濾波器的方法介紹

    、計(jì)算速度等方面的優(yōu)越性?;谶@種算法,有人分別將其在數(shù)域和數(shù)上做出了推廣。本文提出的方法,是基于余弦基神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)方法的一種改良,其基本思想首先是使設(shè)計(jì)頻響與理想頻響之間的全局誤差在通帶和阻帶范圍
    發(fā)表于 07-08 07:16

    卷積神經(jīng)網(wǎng)絡(luò)卷積的處理過(guò)程

    inference在設(shè)備端上做。嵌入式設(shè)備的特點(diǎn)是算力不強(qiáng)、memory小。可以通過(guò)對(duì)神經(jīng)網(wǎng)絡(luò)做量化來(lái)load和省memory,但有時(shí)可能memory還吃緊,就需要對(duì)神經(jīng)網(wǎng)絡(luò)在memory使用上做進(jìn)
    發(fā)表于 12-23 06:16

    文本分類中一種混合型特征方法

    提出一種基于特征選擇和特征抽取的混合型文本特征方法,分析基于選擇和抽取的特征方法各自的特點(diǎn),借助特征項(xiàng)的類別分布差異信息對(duì)特征集進(jìn)行
    發(fā)表于 04-01 08:46 ?7次下載

    空時(shí)自適應(yīng)處理研究

    是空時(shí)自適應(yīng)處理(STAP :SPACE-TIME ADAPTIVE PROCESSING)實(shí)用化的重要手段,基于雜波協(xié)方差矩陣特征分解
    發(fā)表于 12-18 16:46 ?13次下載

    一種基于FPGA的二DCT和IDCT的新算法

    提出了一種新的二DCT和IDCT的FPGA實(shí)現(xiàn)結(jié)構(gòu),采用行列快速算法將二算法分解為兩個(gè)
    發(fā)表于 01-12 10:35 ?59次下載
    <b class='flag-5'>一種</b>基于FPGA的二<b class='flag-5'>維</b>DCT和IDCT的新算法

    基于FPGA的高光譜圖像奇異值分解技術(shù)

    基于FPGA的高光譜圖像奇異值分解技術(shù)
    發(fā)表于 08-30 15:10 ?2次下載

    一種基于局部結(jié)構(gòu)保持的數(shù)據(jù)方法

    一種基于局部結(jié)構(gòu)保持的數(shù)據(jù)方法_張琳
    發(fā)表于 01-07 18:56 ?2次下載

    基于譜特征嵌入的腦網(wǎng)絡(luò)狀態(tài)觀測(cè)矩陣方法

    針對(duì)基于功能核磁共振( fMRI)重構(gòu)的腦網(wǎng)絡(luò)狀態(tài)觀測(cè)矩陣數(shù)過(guò)高且無(wú)特征表現(xiàn)的問(wèn)題,提出一種基于譜特征嵌入( Spectral Embedding)的
    發(fā)表于 11-29 16:36 ?0次下載

    如何使用FPGA實(shí)現(xiàn)高光譜圖像奇異值分解技術(shù)

    了解決高光譜圖像數(shù)高、數(shù)據(jù)量巨大、實(shí)時(shí)處理技術(shù)實(shí)現(xiàn)難的問(wèn)題,提出了高光譜圖像實(shí)時(shí)處理技術(shù)。采用奇異值
    發(fā)表于 03-11 16:07 ?10次下載
    如何使用FPGA實(shí)現(xiàn)高光譜圖像奇異值<b class='flag-5'>分解</b><b class='flag-5'>降</b><b class='flag-5'>維</b><b class='flag-5'>技術(shù)</b>

    一種帶核方法的判別圖正則非負(fù)矩陣分解算法

    非負(fù)矩陣分解(NMF)是一種非常有效的數(shù)據(jù)方法,廣泛應(yīng)用于圖像聚類等領(lǐng)域。然而NMF是無(wú)監(jiān)督的方法,沒(méi)有使用數(shù)據(jù)的標(biāo)簽信息,也不能捕獲
    發(fā)表于 04-07 16:01 ?30次下載
    <b class='flag-5'>一種</b>帶核方法的判別圖正則非負(fù)矩陣<b class='flag-5'>分解</b>算法

    一種基于DSCNN-BILSTM的入侵檢測(cè)方法

    針對(duì)傳統(tǒng)的入侵檢測(cè)方法無(wú)法有效提取網(wǎng)絡(luò)流量數(shù)據(jù)特征的問(wèn)題,提出了一種基于 DSCNN- BILSTM的入侵檢測(cè)方法,該方法引入了深度可分離卷積代替標(biāo)準(zhǔn)卷積從而減少了模型參數(shù),降低了計(jì)算量,并應(yīng)用雙向
    發(fā)表于 04-16 15:41 ?14次下載
    <b class='flag-5'>一種</b>基于DSCNN-BILSTM的入侵檢測(cè)方法

    一種基于DeepFM的深度興趣因子分解機(jī)網(wǎng)絡(luò)

    推薦系統(tǒng)能夠根據(jù)用戶的喜妤從海量信息中篩選岀其可能感興趣的信息并進(jìn)行排序展示。隨著深度學(xué)習(xí)在多個(gè)研究領(lǐng)域取得了良好的效果,其也開(kāi)始應(yīng)用于推薦系統(tǒng)。目前基于深度學(xué)習(xí)的推薦排序算法常采用E
    發(fā)表于 04-20 14:00 ?10次下載
    <b class='flag-5'>一種</b>基于DeepFM的<b class='flag-5'>深度</b>興趣因子<b class='flag-5'>分解</b>機(jī)<b class='flag-5'>網(wǎng)絡(luò)</b>

    一種新型的數(shù)據(jù)采集多視圖算法技術(shù)

    。為更好地利用多視圖數(shù)據(jù),促進(jìn)算法在實(shí)際中的應(yīng)用,對(duì)多視圖算法進(jìn)行研究。分析多視圖數(shù)據(jù)和多視圖學(xué)習(xí),在典型相關(guān)分析(CCA)的基礎(chǔ)上追溯多視圖CCA和核CCA,介紹多視圖
    發(fā)表于 05-28 10:53 ?5次下載

    淺析卷積與池化的對(duì)比

    在學(xué)習(xí)深度學(xué)習(xí)中卷積網(wǎng)絡(luò)過(guò)程中,有卷積層,池化層,全連接層等等,其中卷積層與池化層均可以對(duì)特征圖,本次實(shí)驗(yàn)針對(duì)控制其他層次致的情況下,
    的頭像 發(fā)表于 02-17 14:58 ?2019次閱讀
    淺析卷積<b class='flag-5'>降</b><b class='flag-5'>維</b>與池化<b class='flag-5'>降</b><b class='flag-5'>維</b>的對(duì)比

    深度神經(jīng)網(wǎng)絡(luò)(DNN)架構(gòu)解析優(yōu)化策略

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為機(jī)器學(xué)習(xí)領(lǐng)域中的一種重要技術(shù),以其強(qiáng)大的特征學(xué)習(xí)能力和非線性建模能力,在多個(gè)領(lǐng)域取得了顯著成果。DNN的核心在于其多
    的頭像 發(fā)表于 07-09 11:00 ?5450次閱讀