91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)之深度卷積神經(jīng)網(wǎng)絡(luò)詳解

倩倩 ? 來源:一分鐘看懂科技文獻(xiàn) ? 2020-04-17 15:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經(jīng)網(wǎng)絡(luò)又簡稱卷積網(wǎng)絡(luò),是一種用來處理網(wǎng)格狀結(jié)構(gòu)數(shù)據(jù)的特殊網(wǎng)絡(luò)結(jié)構(gòu)。像時(shí)序數(shù)據(jù)通常被認(rèn)為是一維的數(shù)據(jù)格式,而圖片則被認(rèn)為是二維的數(shù)據(jù)格式,卷積神經(jīng)網(wǎng)絡(luò)在處理這種二維結(jié)構(gòu)的數(shù)據(jù)上取得了巨大的成功。卷積神經(jīng)網(wǎng)絡(luò)的研究是受到1962年對(duì)貓的視覺皮層細(xì)胞研究的啟發(fā),然后提出了感受野(Receptive Field)的概念。

1982年,F(xiàn)ukushima在感受野概念的基礎(chǔ)上提出的神經(jīng)認(rèn)知機(jī)(Neocognitron)可以看作是卷積神經(jīng)網(wǎng)絡(luò)的第一個(gè)實(shí)現(xiàn)版本。神經(jīng)認(rèn)知機(jī)將一個(gè)視覺特征分解為多個(gè)子特征,通過層層分解與組合將視覺系統(tǒng)模型化,使其能夠在物體有位移或輕微形變的時(shí)候,也能正確識(shí)別。而早在1989年,Y.LeCun等人就提出了一個(gè)五層的卷積神經(jīng)網(wǎng)絡(luò)LeNet,完美解決了手寫數(shù)字的識(shí)別,算是卷積神經(jīng)網(wǎng)絡(luò)由理論走向?qū)嶋H應(yīng)用的一個(gè)開端,但是由于當(dāng)時(shí)訓(xùn)練樣本的匱乏和計(jì)算能力的不足,導(dǎo)致卷積神經(jīng)網(wǎng)絡(luò)并沒有流行起來,反而是支持向量機(jī)等手工設(shè)計(jì)特征的方法在小樣本集上取得了較好的效果成為了主流。沉寂多年后,隨著大數(shù)據(jù)時(shí)代的來臨,卷積神經(jīng)網(wǎng)絡(luò)本身的不斷改進(jìn)(ReLU激活函數(shù)取代Sigmoid函數(shù),Dropout思想的提出),以及以GPU為主的并行計(jì)算的盛行。到了2012年,AlexKrizhevsky等人利用一個(gè)八層的卷積神經(jīng)網(wǎng)絡(luò)AlexNet在當(dāng)年的ImageNet圖像分類競賽中取得了冠軍,并遠(yuǎn)超第二名十個(gè)百分點(diǎn),讓卷積神經(jīng)網(wǎng)絡(luò)再次回到了人們的視線中。隨后各種改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如雨后春筍般涌現(xiàn)出來,其中比較有代表性的是VGG、GoogleNet和ResNet。

卷積神經(jīng)網(wǎng)絡(luò)包含以下幾個(gè)核心部分:

1.局部感知。圖像的空間聯(lián)系中局部的像素聯(lián)系比較緊密,而距離較遠(yuǎn)的像素相關(guān)性則較弱。因此,每個(gè)神經(jīng)元其實(shí)只需對(duì)局部區(qū)域進(jìn)行感知,而不需要對(duì)全局圖像進(jìn)行感知。

全連接和局部連接

2.權(quán)值共享。在上述的局部連接中,每個(gè)神經(jīng)元都對(duì)應(yīng)25個(gè)參數(shù),一共10000 個(gè)神經(jīng)元,如果這10000個(gè)神經(jīng)元的25個(gè)參數(shù)都是相等的,那么參數(shù)數(shù)目就變?yōu)?5了。把這25個(gè)參數(shù)對(duì)應(yīng)的卷積操作,看成是特征提取的方式,與圖像區(qū)域的位置無關(guān)。卷積神經(jīng)網(wǎng)絡(luò)中相同的卷積核的權(quán)值和偏置值是一樣的。同一種卷積核按照某種順序?qū)D像進(jìn)行卷積操作,卷積后得到的所有神經(jīng)元都是使用同一個(gè)卷積核區(qū)卷積圖像的,都是共享連接參數(shù)。因此,權(quán)值共享減少了卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)數(shù)量。

3.卷積,就是利用卷積核對(duì)圖像進(jìn)行特征提取。卷積過程就是一個(gè)減少參數(shù)數(shù)量的過程。卷積過程最重要的就是卷積核的大小步長設(shè)計(jì)和數(shù)量的選取,個(gè)數(shù)越多提取的特征越多,但網(wǎng)絡(luò)的復(fù)雜度也在增加,易出現(xiàn)過擬合問題。卷積核的大小影響網(wǎng)絡(luò)結(jié)構(gòu)的識(shí)別能力,步長決定了采取圖像的大小和特征個(gè)數(shù)。

卷積示意圖

4.池化。在卷積神經(jīng)網(wǎng)絡(luò)中,池化層一般在卷積層后,通過池化來降低卷積層輸出的特征向量維數(shù)。池化過程最大程度的降低了圖像的分辨率,同時(shí)降低了圖像的處理維度,但又保留了圖像的有效信息,降低了后面卷積層處理復(fù)雜度,大大降低了網(wǎng)絡(luò)對(duì)圖像旋轉(zhuǎn)和平移的敏感性。一般采用的池化方法有兩種:平均池化(mean pooling)和最大池化(max pooling)。平均池化是指對(duì)圖像目標(biāo)局部區(qū)域的平均值進(jìn)行計(jì)算,將其作為池化后該區(qū)域的值。最大池化則是選取圖像目標(biāo)區(qū)域的最大值作為池化后的值。

池化示意圖

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    面向嵌入式部署的神經(jīng)網(wǎng)絡(luò)優(yōu)化:模型壓縮深度解析

    1.為什么需要神經(jīng)網(wǎng)絡(luò)模型壓縮? 神經(jīng)網(wǎng)絡(luò)已經(jīng)成為解決復(fù)雜機(jī)器學(xué)習(xí)問題的強(qiáng)大工具。然而,這種能力往往伴隨著模型規(guī)模和計(jì)算復(fù)雜度的增加。當(dāng)輸入維度較大(例如長時(shí)序窗口、高分辨率特征空間)時(shí),模型需要
    的頭像 發(fā)表于 02-24 15:37 ?5155次閱讀
    面向嵌入式部署的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>優(yōu)化:模型壓縮<b class='flag-5'>深度</b>解析

    穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)

    頂頭狀態(tài)。 檢測頂頭算法 引入人工智深度學(xué)習(xí)技術(shù),通過Keras實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)(CNN),用Numpy實(shí)現(xiàn)采集數(shù)據(jù)的訓(xùn)練,得到符合現(xiàn)場需求的模型,進(jìn)一步提升檢測的準(zhǔn)確性和現(xiàn)場的適應(yīng)性
    發(fā)表于 12-22 14:33

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 12-17 15:05 ?365次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度
    的頭像 發(fā)表于 11-19 18:15 ?2122次閱讀
    自動(dòng)駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問題。當(dāng)x&gt;0 時(shí),梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個(gè)模型非常巨大。所以要想實(shí)現(xiàn)輕量級(jí)的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大?。篊NN神經(jīng)網(wǎng)絡(luò)是通過權(quán)值共享的方式,利用
    發(fā)表于 10-28 08:02

    卷積運(yùn)算分析

    的數(shù)據(jù),故設(shè)計(jì)了ConvUnit模塊實(shí)現(xiàn)單個(gè)感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴(yán)格意義
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識(shí)別。一旦模型被訓(xùn)練并保存,就可以用于對(duì)新圖像進(jìn)行推理和預(yù)測。要使用生成的模型進(jìn)行推理,可以按照以下步驟進(jìn)行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來需要使用擴(kuò)展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對(duì)第一層卷積+池化的部署進(jìn)行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重?cái)?shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對(duì)于權(quán)重
    發(fā)表于 10-20 08:00

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 17:38 ?943次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1085次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    嵌入式AI技術(shù)深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí)網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度
    的頭像 發(fā)表于 04-02 18:21 ?1557次閱讀