91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)組成與解釋

穎脈Imgtec ? 2023-06-28 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:機器學(xué)習算法那些事


卷積神經(jīng)網(wǎng)絡(luò)是以卷積層為主的深度網(wǎng)路結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)包括有卷積層、激活層、BN層、池化層、FC層、損失層等。卷積操作是對圖像和濾波矩陣做內(nèi)積(元素相乘再求和)的操作。


1. 卷積層

常見的卷積操作如下:

卷積操作解釋圖解
標準卷積一般采用3x3、5x5、7x7的卷積核進行卷積操作。???????515a9746-1558-11ee-a579-dac502259ad0.gif
分組卷積將輸入特征圖按通道均分為 x 組,然后對每一組進行常規(guī)卷積,最后再進行合并。517a183c-1558-11ee-a579-dac502259ad0.png
空洞卷積為擴大感受野,在卷積核里面的元素之間插入空格來“膨脹”內(nèi)核,形成“空洞卷積”(或稱膨脹卷積),并用膨脹率參數(shù)L表示要擴大內(nèi)核的范圍,即在內(nèi)核元素之間插入L-1個空格。當L=1時,則內(nèi)核元素之間沒有插入空格,變?yōu)闃藴示矸e。

518d08fc-1558-11ee-a579-dac502259ad0.png


深度可分離卷積深度可分離卷積包括為逐通道卷積和逐點卷積兩個過程。????

519da568-1558-11ee-a579-dac502259ad0.png

(通道卷積,2D標準卷積)

51b73eec-1558-11ee-a579-dac502259ad0.png

(逐點卷積,1x1卷積)

反卷積屬于上采樣過程,“反卷積”是將卷積核轉(zhuǎn)換為稀疏矩陣后進行轉(zhuǎn)置計算。

51c8bb36-1558-11ee-a579-dac502259ad0.png


可變形卷積指標準卷積操作中采樣位置增加了一個偏移量offset,如此卷積核在訓(xùn)練過程中能擴展到很大的范圍。

51d8fbd6-1558-11ee-a579-dac502259ad0.png

補充:

1 x 1卷積即用1 x 1的卷積核進行卷積操作,其作用在于升維與降維。升維操作常用于chennel為1(即是通道數(shù)為1)的情況下,降維操作常用于chennel為n(即是通道數(shù)為n)的情況下。??????????????

降維:通道數(shù)不變,數(shù)值改變。

51e4bb7e-1558-11ee-a579-dac502259ad0.png升維:通道數(shù)改變?yōu)閗ernel的數(shù)量(即為filters),運算本質(zhì)可以看為全連接。51f4a2dc-1558-11ee-a579-dac502259ad0.png卷積計算在深度神經(jīng)網(wǎng)絡(luò)中的量是極大的,壓縮卷積計算量的主要方法如下:

序號方法
1采用多個3x3卷積核代替大卷積核(如用兩個3 x 3的卷積核代替5 x 5的卷積核)
2采用深度可分離卷積(分組卷積)
3通道Shuffle
4Pooling層
5Stride = 2
6等等

2. 激活層

介紹:為了提升網(wǎng)絡(luò)的非線性能力,以提高網(wǎng)絡(luò)的表達能力。每個卷積層后都會跟一個激活層。激活函數(shù)主要分為飽和激活函數(shù)(sigmoid、tanh)與非飽和激活函數(shù)(ReLU、Leakly ReLU、ELU、PReLU、RReLU)。非飽和激活函數(shù)能夠解決梯度消失的問題,能夠加快收斂速度。??????????????常用函數(shù):ReLU函數(shù)、Leakly ReLU函數(shù)、ELU函數(shù)等52068830-1558-11ee-a579-dac502259ad0.pngReLU函數(shù)5217f1d8-1558-11ee-a579-dac502259ad0.pngLeakly ReLU函數(shù)

52284826-1558-11ee-a579-dac502259ad0.png

ELU函數(shù)


3. BN層(BatchNorm)介紹:通過一定的規(guī)范化手段,把每層神經(jīng)網(wǎng)絡(luò)任意神經(jīng)元的輸入值的分布強行拉回到均值為0,方差為1的標準正態(tài)分布。BatchNorm是歸一化的一種手段,會減小圖像之間的絕對差異,突出相對差異,加快訓(xùn)練速度。但不適用于image-to-image以及對噪聲明感的任務(wù)中。常用函數(shù):BatchNorm2dpytorch用法:nn.BatchNorm2d(num_features, eps, momentum, affine)num_features:一般輸入?yún)?shù)為batch_sizenum_featuresheight*width,即為其中特征的數(shù)量。eps:分母中添加的一個值,目的是為了計算的穩(wěn)定性,默認為:1e-5。momentum:一個用于運行過程中均值和方差的一個估計參數(shù)(我的理解是一個穩(wěn)定系數(shù),類似于SGD中的momentum的系數(shù))。

affine:當設(shè)為true時,會給定可以學(xué)習的系數(shù)矩陣gamma和beta。


4. 池化層(pooling)介紹:pooling一方面使特征圖變小,簡化網(wǎng)絡(luò)計算復(fù)雜度。一方面通過多次池化壓縮特征,提取主要特征。屬于下采樣過程。常用函數(shù):Max Pooling(最大池化)、Average Pooling(平均池化)等。MaxPooling 與 AvgPooling用法:1. 當需綜合特征圖上的所有信息做相應(yīng)決策時,通常使用AvgPooling,例如在圖像分割領(lǐng)域中用Global AvgPooling來獲取全局上下文信息;在圖像分類中在最后幾層中會使用AvgPooling。2. 在圖像分割/目標檢測/圖像分類前面幾層,由于圖像包含較多的噪聲和目標處理無關(guān)的信息,因此在前幾層會使用MaxPooling去除無效信息。5241e51a-1558-11ee-a579-dac502259ad0.png

補充:上采樣層重置圖像大小為上采樣過程,如Resize,雙線性插值直接縮放,類似于圖像縮放,概念可見最鄰近插值算法和雙線性插值算法。實現(xiàn)函數(shù)有nn.functional.interpolate(input, size = None, scale_factor = None, mode = 'nearest', align_corners = None)和nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride = 1, padding = 0, output_padding = 0, bias = True)


5. FC層(全連接層)介紹:連接所有的特征,將輸出值送給分類器。主要是對前層的特征進行一個加權(quán)和(卷積層是將數(shù)據(jù)輸入映射到隱層特征空間),將特征空間通過線性變換映射到樣本標記空間(label)。全連接層可以通過1 x 1卷機+global average pooling代替??梢酝ㄟ^全連接層參數(shù)冗余,全連接層參數(shù)和尺寸相關(guān)。常用函數(shù):nn.Linear(in_features, out_features, bias)5256e6c2-1558-11ee-a579-dac502259ad0.jpg補充:分類器包括線性分類器與非線性分類器。

分類器介紹??常見種類優(yōu)缺點
線性分類器線性分類器就是用一個“超平面”將正、負樣本隔離開
LR、Softmax、貝葉斯分類、單層感知機、線性回歸、SVM(線性核)等
線性分類器速度快、編程方便且便于理解,但是擬合能力低
非線性分類器非線性分類器就是用一個“超曲面”或者多個超平(曲)面的組合將正、負樣本隔離開(即,不屬于線性的分類器)
決策樹、RF、GBDT、多層感知機、SVM(高斯核)等
非線性分類器擬合能力強但是編程實現(xiàn)較復(fù)雜,理解難度大



6. 損失層介紹:設(shè)置一個損失函數(shù)用來比較網(wǎng)絡(luò)的輸出和目標值,通過最小化損失來驅(qū)動網(wǎng)絡(luò)的訓(xùn)練。網(wǎng)絡(luò)的損失通過前向操作計算,網(wǎng)絡(luò)參數(shù)相對于損失函數(shù)的梯度則通過反向操作計算。

常用函數(shù):分類問題損失(離散值:分類問題、分割問題):nn.BCELoss、nn.CrossEntropyLoss等。回歸問題損失(連續(xù)值:推測問題、回歸分類問題):nn.L1Loss、nn.MSELoss、nn.SmoothL1Loss等。


7. Dropout層

介紹:在不同的訓(xùn)練過程中隨機扔掉一部分神經(jīng)元,以防止過擬合,一般用在全連接層。在測試過程中不使用隨機失活,所有的神經(jīng)元都激活。?????????????????????

常用函數(shù):nn.dropout


8. 優(yōu)化器介紹:為了更高效的優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)(損失函數(shù)最?。?,即是網(wǎng)絡(luò)的優(yōu)化策略,主要方法如下:

解釋??優(yōu)化器種類?特點
基于梯度下降原則(均使用梯度下降算法對網(wǎng)絡(luò)權(quán)重進行更新,區(qū)別在于使用的樣本數(shù)量不同)??????GD(梯度下降); SGD(隨機梯度下降,面向一個樣本); BGD(批量梯度下降,面向全部樣本); MBGD(小批量梯度下降,面向小批量樣本)?????引入隨機性和噪聲
基于動量原則(根據(jù)局部歷史梯度對當前梯度進行平滑)Momentum(動量法); NAG(Nesterov Accelerated Gradient)
???
加入動量原則,具有加速梯度下降的作用????
自適應(yīng)學(xué)習率(對于不同參數(shù)使用不同的自適應(yīng)學(xué)習率;Adagrad使用梯度平方和、Adadelta和RMSprop使用梯度一階指數(shù)平滑,RMSprop是Adadelta的一種特殊形式、Adam吸收了Momentum和RMSprop的優(yōu)點改進了梯度計算方式和學(xué)習率)???Adagrad; Adadelta; RMSprop; Adam?????自適應(yīng)學(xué)習

常用優(yōu)化器為Adam,用法為:torch.optim.Adam。???????

補充:卷積神經(jīng)網(wǎng)絡(luò)正則化是為減小方差,減輕過擬合的策略,方法有:L1正則(參數(shù)絕對值的和); L2正則(參數(shù)的平方和,weight_decay:權(quán)重衰退)。


9. 學(xué)習率?介紹:學(xué)習率作為監(jiān)督學(xué)習以及深度學(xué)習中重要的超參,其決定著目標函數(shù)能否收斂到局部最小值以及合適收斂到最小值。合適的學(xué)習率能夠使目標函數(shù)在合適的時間內(nèi)收斂到局部最小值。????

常用函數(shù):torch.optim.lr_scheduler; ExponentialLR; ReduceLROnplateau; CyclicLR等。???????


卷積神經(jīng)網(wǎng)絡(luò)的常見結(jié)構(gòu)

常見結(jié)構(gòu)有:跳連結(jié)構(gòu)(ResNet)、并行結(jié)構(gòu)(Inception V1-V4即GoogLeNet)、輕量型結(jié)構(gòu)(MobileNetV1)、多分支結(jié)構(gòu)(SiameseNet; TripletNet; QuadrupletNet; 多任務(wù)網(wǎng)絡(luò)等)、Attention結(jié)構(gòu)(ResNet+Attention)

結(jié)構(gòu)????????????介紹與特點圖示
跳連結(jié)構(gòu)(代表:ResNet)2015年何愷明團隊提出。引入跳連的結(jié)構(gòu)來防止梯度消失問題,今兒可以進一步加大網(wǎng)絡(luò)深度。擴展結(jié)構(gòu)有:ResNeXt、DenseNet、WideResNet、ResNet In ResNet、Inception-ResNet等???????????????

5267fae8-1558-11ee-a579-dac502259ad0.png

并行結(jié)構(gòu)(代表:Inception V1-V4)2014年Google團隊提出。不僅強調(diào)網(wǎng)絡(luò)的深度,還考慮網(wǎng)絡(luò)的寬度。其使用1×1的卷積來進行升降維,在多個尺寸上同時進行卷積再聚合。其次利用稀疏矩陣分解成密集矩陣計算的原理加快收斂速度。??5283edde-1558-11ee-a579-dac502259ad0.jpg
輕量型結(jié)構(gòu)(代表:MobileNetV1)2017年Google團隊提出。為了設(shè)計能夠用于移動端的網(wǎng)絡(luò)結(jié)構(gòu),使用Depth-wise Separable Convolution的卷積方式代替?zhèn)鹘y(tǒng)卷積方式,以達到減少網(wǎng)絡(luò)權(quán)值參數(shù)的目的。擴展結(jié)構(gòu)有:MobileNetV2、MobileNetV3、SqueezeNet、ShuffleNet V1、ShuffleNet V2等????????52933f5a-1558-11ee-a579-dac502259ad0.png
多分支結(jié)構(gòu)(代表:TripletNet)?基于多個特征提取方法提出,通過比較距離來學(xué)習有用的變量。該網(wǎng)絡(luò)由3個具有相同前饋網(wǎng)絡(luò)(共享參數(shù))組成的,需要輸入是3個樣本,一個正樣本和兩個負樣本,或者一個負樣本和兩個正樣本。訓(xùn)練的目標是讓相同類別之間的距離竟可能的小,讓不同的類別之間距離竟可能的大。常用于人臉識別。

52a22402-1558-11ee-a579-dac502259ad0.jpg


Attention結(jié)構(gòu)(代表:ResNet+Attention)對于全局信息,注意力機制會重點關(guān)注一些特殊的目標區(qū)域,也就是注意力焦點,進而利用有限的注意力資源對信息進行篩選,提高信息處理的準確性和效率。注意力機制有Soft-Attention和Hard-Attention區(qū)分,可以作用在特征圖上、尺度空間上、channel尺度上和不同時刻歷史特征上等。??????????????

52b78310-1558-11ee-a579-dac502259ad0.png


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)的初步認識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習,而深度學(xué)習則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大
    的頭像 發(fā)表于 12-17 15:05 ?336次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認識

    Transformer如何讓自動駕駛變得更聰明?

    ]自動駕駛中常提的Transformer本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語言處理里火起來。與卷積神經(jīng)網(wǎng)絡(luò)(CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)不同,Transformer能夠自動審視所
    的頭像 發(fā)表于 11-19 18:17 ?2283次閱讀

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?2083次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSISI庫的使用

    (q7_t) 和 16 位整數(shù) (q15_t)。 卷積神經(jīng)網(wǎng)絡(luò)示例: 本示例中使用的 CNN 基于來自 Caffe 的 CIFAR-10 示例。神經(jīng)網(wǎng)絡(luò)由 3 個卷積
    發(fā)表于 10-29 07:07

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    (q7_t) 和 16 位整數(shù) (q15_t)。 卷積神經(jīng)網(wǎng)絡(luò)示例: 本示例中使用的 CNN 基于來自 Caffe 的 CIFAR-10 示例。神經(jīng)網(wǎng)絡(luò)由 3 個卷積
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個模型非常巨大。所以要想實現(xiàn)輕量級的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大?。篊NN神經(jīng)網(wǎng)絡(luò)是通過權(quán)值共享的方式,利用
    發(fā)表于 10-28 08:02

    卷積運算分析

    的數(shù)據(jù),故設(shè)計了ConvUnit模塊實現(xiàn)單個感受域規(guī)模的卷積運算. 卷積運算:不同于數(shù)學(xué)當中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴格意義
    發(fā)表于 10-28 07:31

    如何通過地址生成器實現(xiàn)神經(jīng)網(wǎng)絡(luò)特征圖的padding?

    對于SiamFC網(wǎng)絡(luò)結(jié)構(gòu),我們設(shè)計的卷積核寬度為3*3,卷積步長為1,則經(jīng)卷積過后,特征圖寬度會減少2,為了滿足我們所設(shè)計的pe陣列的計算要求,則需要對輸出特征圖外圍進行補零處理,以擴
    發(fā)表于 10-22 08:15

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    , batch_size=512, epochs=20)總結(jié) 這個核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過程,是用來對MNIST手寫數(shù)字圖像進行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進行分類預(yù)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來需要使用擴展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對第一層卷積+池化的部署進行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重數(shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對于權(quán)重
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)
    的頭像 發(fā)表于 09-28 10:03 ?1242次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    無刷電機小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    自動駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得CNN在圖像
    的頭像 發(fā)表于 04-07 09:15 ?856次閱讀
    自動駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點分析