91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)介紹 基于LeNet5實(shí)現(xiàn)的手寫(xiě)字符識(shí)別

FPGA技術(shù)江湖 ? 來(lái)源:瘋狂的FPGA ? 作者:CrazyFPGA ? 2022-05-16 10:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前文中,我們介紹了一些傳統(tǒng)計(jì)算機(jī)視覺(jué)算法,包括降噪濾波、二值化、縮放、銳化等,最終我們?cè)?a target="_blank">FPGA上實(shí)現(xiàn)了實(shí)時(shí)的運(yùn)動(dòng)目標(biāo)跟蹤算法。近些年基于神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)已經(jīng)成熟應(yīng)用于很多商業(yè)、工業(yè)領(lǐng)域,包括自動(dòng)駕駛、自動(dòng)生產(chǎn),智能醫(yī)療等。

那么,作為一本圖像處理的入門(mén)教材,除了介紹一些傳統(tǒng)入門(mén)的計(jì)算機(jī)視覺(jué)算法與對(duì)應(yīng)的硬件實(shí)現(xiàn),我們也希望引入最近很流行的神經(jīng)網(wǎng)絡(luò)相關(guān)的介紹。本章我們將簡(jiǎn)單介紹卷積神經(jīng)網(wǎng)絡(luò)和基于LeNet5實(shí)現(xiàn)的手寫(xiě)字符識(shí)別,并且在FPGA上實(shí)現(xiàn)實(shí)時(shí)識(shí)別的Demo。

一、神經(jīng)網(wǎng)絡(luò)的介紹

1.1人工神經(jīng)網(wǎng)絡(luò)

人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡(jiǎn)稱ANN),是受生物神經(jīng)網(wǎng)絡(luò)所啟發(fā)而構(gòu)建的數(shù)學(xué)模型,去模擬神經(jīng)元的動(dòng)作和神經(jīng)元之間的聯(lián)結(jié)[1]。一個(gè)簡(jiǎn)單的人工神經(jīng)網(wǎng)絡(luò)的計(jì)算模型如圖1所示。通常一個(gè)人工神經(jīng)網(wǎng)絡(luò)包含一個(gè)輸入層,不少于一個(gè)的隱藏層和一個(gè)輸出層。輸入層是由一系列的神經(jīng)元來(lái)接受不同的輸入;隱藏層是介于輸入層和輸出層之間的由一層或者多層神經(jīng)元和連接組成的。通常隱藏層的數(shù)量決定了人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)和泛化能力。輸出層是輸入經(jīng)由整個(gè)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和分析得到的高層語(yǔ)義結(jié)果,比如目標(biāo)類型等。

圖1(a)所示的人工神經(jīng)網(wǎng)絡(luò)也稱為感知機(jī)(Perception),含有多層隱藏層的人工神經(jīng)網(wǎng)絡(luò)為多層感知機(jī)(Multi-layer perception)。

ec94e2b6-d49f-11ec-bce3-dac502259ad0.png

1 一個(gè)簡(jiǎn)單人工神經(jīng)網(wǎng)絡(luò)的圖表展示(a)展示了一個(gè)有8個(gè)輸入神經(jīng)元,一個(gè)隱藏層和一個(gè)輸出神經(jīng)元的人工神經(jīng)網(wǎng)絡(luò),(b)展示了在隱藏層中的一個(gè)神經(jīng)元的數(shù)學(xué)模型,包含累積和激活函數(shù)。

如圖1(b)所示,隱藏層對(duì)所有的輸入做加權(quán)累積,權(quán)重wi反映了不同神經(jīng)元之間連接的強(qiáng)弱程度,而偏置bi反映了神經(jīng)元被激活的難易程度。人工神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)模擬了生物神經(jīng)網(wǎng)絡(luò)中神經(jīng)元的調(diào)節(jié)器,用來(lái)控制神經(jīng)元的興奮和靜息狀態(tài)。單個(gè)神經(jīng)元的數(shù)學(xué)模型hn如下所示:

ecb0ac76-d49f-11ec-bce3-dac502259ad0.png

該公式中,xi是第n個(gè)神經(jīng)元的輸入,wni是第i個(gè)輸入xi對(duì)應(yīng)連接的權(quán)重,bn 是第n個(gè)的神經(jīng)元的偏置,φ( )是激活函數(shù),如圖1(b)所示,這里用線性整流函數(shù)(Rectified Linear Unit)作為激活函數(shù)。

1.2卷積神經(jīng)網(wǎng)絡(luò)

卷積層是由一系列并行的卷積核(Kernel)組成,通過(guò)對(duì)輸入圖像以一定的步長(zhǎng)(Stride)進(jìn)行滑動(dòng)卷積計(jì)算,產(chǎn)生對(duì)應(yīng)的特征圖(Feature map),供下一層計(jì)算使用。卷積核通常是二維,也有單個(gè)點(diǎn),一維或者三維的。一個(gè)典型的卷積核計(jì)算公式如下所示:

eccf12ce-d49f-11ec-bce3-dac502259ad0.png

該公式中,Ix,y是第k個(gè)卷積核的輸入,wi,j,k是第k個(gè)輸入xx,y對(duì)應(yīng)連接的權(quán)重,bk 是第k個(gè)卷積核的偏置,x, y分別是輸入圖像像素點(diǎn)水平和豎直方向上的位置。i,j分別是權(quán)重在水平和豎直方向上的索引(Indices)。

池化層是一個(gè)在卷積神經(jīng)網(wǎng)絡(luò)中常見(jiàn)的操作層,主要有兩個(gè)作用,一是用來(lái)降低維度和計(jì)算量。一般卷積計(jì)算(步長(zhǎng)為1)并不減少維度,而池化層主要是對(duì)一定的區(qū)域求取最大值或者取均值,這樣的操作分別為最大池化(Max pooling)和平均池化(Average pooling),如圖2所示,為一個(gè)示例展示了平均池化和最大池化分別作用于2×2的區(qū)域以2的步長(zhǎng)滑動(dòng)。左邊的平均池化是對(duì)2 x 2的塊內(nèi)計(jì)算平均值,右邊的最大池化是對(duì)2 x 2的塊內(nèi)尋找最大值。

ece36bfc-d49f-11ec-bce3-dac502259ad0.png

2 2×2平均池化與最大值池化

池化層的另一個(gè)作用是盡可能多的保存最有效信息。因?yàn)榻?jīng)過(guò)卷積計(jì)算,圖像中的物體特征可以被精確地提取出來(lái),但是并非所有的特征都是有效的,池化操作可以保留最有效的信息,同時(shí)降低了卷積神經(jīng)網(wǎng)絡(luò)對(duì)精確特征的敏感度。

批正則化是由Google在2015年提出的[4],目的是為了加速模型收斂,解決內(nèi)部協(xié)變量平移(Internal covariate shift)以及對(duì)模型引入正則化。在訓(xùn)練CNN的過(guò)程中,由于數(shù)據(jù)集太大,我們通常只會(huì)將一部分?jǐn)?shù)據(jù)(mini-batch)放到CPU或者GPU上。批正則化就是對(duì)mini-batch的數(shù)據(jù)都做正則化,轉(zhuǎn)換到均值為0,標(biāo)準(zhǔn)差為1的正態(tài)分布。批正則化的具體公式見(jiàn)圖3。批正則化的核心思想就是將數(shù)據(jù)分布變得比較均勻,這樣可以穩(wěn)定梯度,而且讓每一層的學(xué)習(xí)率變化沒(méi)那么大。CNN的每一層的均值和標(biāo)準(zhǔn)差都是不一樣的,這樣可以等效為引入一定的噪聲,增加了CNN的正則化效果。

ed21548a-d49f-11ec-bce3-dac502259ad0.png

3 批正則化的具體算法[4]

在人工神經(jīng)網(wǎng)絡(luò)中提到的激活函數(shù),是作為一個(gè)部件來(lái)決定在神經(jīng)元內(nèi)的信息通路。從生物學(xué)上來(lái)說(shuō),神經(jīng)元之間通常由電化學(xué)來(lái)進(jìn)行信息傳遞的。一般神經(jīng)元會(huì)接收到不同來(lái)源的電勢(shì),如果一個(gè)神經(jīng)元達(dá)到了興奮電勢(shì),這個(gè)神經(jīng)元將會(huì)產(chǎn)生動(dòng)作電位,把信息通過(guò)神經(jīng)傳遞物質(zhì)或者電勢(shì)傳遞給其相鄰的神經(jīng)元。反之,如果一個(gè)神經(jīng)元沒(méi)有達(dá)到興奮電勢(shì),那么它將不能激活也不能傳遞信息。許多種數(shù)學(xué)模型用來(lái)模擬這個(gè)生物特征。S型函數(shù)(Sigmoid function)是一個(gè)比較常見(jiàn)的激活函數(shù),在人工神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)中使用的比較多,其公式如下:

ed3d4276-d49f-11ec-bce3-dac502259ad0.png

該公式中,x是激活函數(shù)的輸入。f(·) 是S型函數(shù),將輸出限制在0到1之間(0,1)。S型函數(shù)通常用在卷積神經(jīng)網(wǎng)絡(luò)的輸出層,但是該函數(shù)在卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化過(guò)程中,有兩個(gè)問(wèn)題。第一個(gè)是當(dāng)S型函數(shù)的輸入趨于無(wú)窮大時(shí),在反向傳播過(guò)程中,梯度會(huì)趨近于0,產(chǎn)生了梯度彌散問(wèn)題,導(dǎo)致卷積神經(jīng)網(wǎng)絡(luò)無(wú)法正常收斂。第二個(gè)問(wèn)題是S型函數(shù)中的指數(shù)和除法運(yùn)算都會(huì)消耗比較多的硬件計(jì)算資源。前文提到的線性整流函數(shù)(ReLU)也是一個(gè)在卷積神經(jīng)網(wǎng)絡(luò)中常用的激活函數(shù)。該函數(shù)實(shí)現(xiàn)簡(jiǎn)單,同時(shí)又能避免S型函數(shù)在反向傳播中容易出現(xiàn)梯度消失的問(wèn)題。它的導(dǎo)數(shù)是0或者1,不會(huì)消耗較多的計(jì)算資源同時(shí)也很容易收斂。其公式如下:

ed75a814-d49f-11ec-bce3-dac502259ad0.png

在神經(jīng)網(wǎng)絡(luò)發(fā)展的幾十年內(nèi),有非常多的理論和應(yīng)用涌現(xiàn)。本文受限于篇幅,只介紹了基本概念和基礎(chǔ)知識(shí)。本文只介紹了標(biāo)準(zhǔn)卷積和常用的激活函數(shù),還有很多其他的卷積類型,比如深度卷積(Depthwise convolution),分組卷積(Group convolution),空洞卷積(Dilated convolution),可變性卷積(Deformable convolution)等。激活函數(shù)除了S型函數(shù)和線性整流函數(shù),還有tanh函數(shù),Leaky ReLU函數(shù),Swish函數(shù)等。接下來(lái),筆者會(huì)介紹一個(gè)基礎(chǔ)且經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)LeNet5,在手寫(xiě)字符識(shí)別中的具體應(yīng)用以及軟硬件實(shí)現(xiàn)。

二、基于LeNet5 CNN的Matlab的實(shí)現(xiàn)

2.1 LeNet5 CNN簡(jiǎn)介

LeNet5卷積神經(jīng)網(wǎng)絡(luò)最早出現(xiàn)在由Yann LeCun等人于1998年發(fā)表在Proceedings of The IEEE學(xué)術(shù)期刊上的“Graident-based Learning Applied to Document Recognition”這篇文章里[5],用于做手寫(xiě)數(shù)字識(shí)別(Handwritten digit recognition)。LeNet5卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)非常簡(jiǎn)單,如圖4所示,其中圖中的灰色方塊代表了一個(gè)特征圖。

edaafa1e-d49f-11ec-bce3-dac502259ad0.png

4 LeNet5卷積神經(jīng)網(wǎng)絡(luò)的架構(gòu)[5]

LeNet5卷積神經(jīng)網(wǎng)絡(luò)有3個(gè)卷積層(C1,C3,C5),2個(gè)池化層(S2,S4)和2個(gè)全連接層(F6和OUTPUT)。LeNet5卷積神經(jīng)網(wǎng)絡(luò)的輸入是分辨率為32×32的灰度圖,所以通道(Channel)數(shù)是1。第一層卷積層是由5×5×6的卷積核組成,與輸入層進(jìn)行卷積操作,我們得到28×28×6的特征圖,即圖4中的C1。經(jīng)過(guò)2×2的平均池化,我們得到14×14×6的特征圖,即圖4中的S2。然后對(duì)S2的特征圖進(jìn)行5×5×16的卷積計(jì)算,我們得到10×10×16的特征圖,即圖4中的C3。后面繼續(xù)進(jìn)行池化操作,我們得到5×5×16的特征圖,即圖4中的S4。最后一層卷積層有5×5×120個(gè)卷積核。經(jīng)卷積計(jì)算,我們得到1×1×120的特征圖,即圖4中的C5。經(jīng)過(guò)兩個(gè)全連接層,我們最終得到1×1×10的輸出,分別對(duì)應(yīng)0-9每個(gè)數(shù)字的置信度。LeNet5卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)如表1所示。LeNet5卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)量大約為60,000左右。

1 LeNet5卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)

通道數(shù)

濾波器大小

步長(zhǎng)

特征圖大小

參數(shù)量

輸入層

1

32×32×1

卷積層1

6

5×5

1

28×28×6

5×5×6 + 6

池化層1

2×2

2

14×14×6

卷積層2

16

5×5

1

10×10×16

5×5×6×16 + 16

池化層2

2×2

2

5×5×16

卷積層3

120

5×5

1

1×1×120

5×5×16×120 + 120

全連接層1

84

1×1

1×1×84

1×1×120×84 + 84

全連接層2

10

1×1

1×1×10

1×1×84×10 + 10

2.2LeNet5 CNN的Matlab實(shí)現(xiàn)

首先我們需要準(zhǔn)備MNIST的手寫(xiě)數(shù)字?jǐn)?shù)據(jù)集,從[6]上下載。該數(shù)據(jù)集中有60,000個(gè)訓(xùn)練數(shù)據(jù)和對(duì)應(yīng)的標(biāo)簽(Label),還有10,000個(gè)測(cè)試數(shù)據(jù)和對(duì)應(yīng)的標(biāo)簽。數(shù)據(jù)集圖片和標(biāo)簽的讀入格式如下圖5,6所示。數(shù)據(jù)集圖片的像素是按照逐行排列的,像素點(diǎn)值是0-255,0代表白色,255代表黑色,標(biāo)簽是0-9。

edbb39e2-d49f-11ec-bce3-dac502259ad0.png

5數(shù)據(jù)集圖片讀入格式[6]

ee425292-d49f-11ec-bce3-dac502259ad0.png

6 標(biāo)簽讀入格式[6]

在Matlab中,我們將編寫(xiě)讀MNIST數(shù)據(jù)集的函數(shù)來(lái)準(zhǔn)備好訓(xùn)練集和測(cè)試集圖片及對(duì)應(yīng)的標(biāo)簽。具體代碼見(jiàn)loadMNIST.m。

ee6081ea-d49f-11ec-bce3-dac502259ad0.png

ee9208f0-d49f-11ec-bce3-dac502259ad0.png

7 a)Matlab中讀入的手寫(xiě)數(shù)字和b)對(duì)應(yīng)的數(shù)值

接下來(lái)我們將繼續(xù)構(gòu)建LeNet5卷積神經(jīng)網(wǎng)絡(luò)所需的其他部件,比如卷積層,池化層,激活函數(shù)和全連接層。卷積層的輸入為H×W×C大小的圖像,卷積核為N×Hin×Win×C的一組濾波器,輸出為Hout×Wout×N的圖像,卷積層還有一個(gè)步長(zhǎng)參數(shù)stride。具體實(shí)現(xiàn)代碼見(jiàn)Conv2D.m。

eeaf0504-d49f-11ec-bce3-dac502259ad0.png

對(duì)于池化層,沒(méi)有實(shí)現(xiàn)論文中的平均池化,我們這里用最大池化來(lái)做,平均池化的實(shí)現(xiàn)比較類似,讀者有興趣可以自己實(shí)現(xiàn)。池化層的輸入為H×W×C大小的特征圖,輸出為(H/Stride)×(W/Stride)×C大小的特征圖,只有一個(gè)步長(zhǎng)參數(shù)。具體實(shí)現(xiàn)代碼見(jiàn)Maxpool.m。

eedf2ca2-d49f-11ec-bce3-dac502259ad0.png

我們選擇用ReLU作為激活函數(shù),方便硬件實(shí)現(xiàn)。在Matlab中,我們也利用其向量運(yùn)算的特性來(lái)快速實(shí)現(xiàn)ReLU函數(shù),具體代碼見(jiàn)ReLU.m。

ef1b164a-d49f-11ec-bce3-dac502259ad0.png

全連接層就是特殊的卷積層,其卷積核的H和W為1,且輸入的H和W為1。所以這里我們復(fù)用了Conv2D的代碼,不再具體展示了。

現(xiàn)在有非常多好用的平臺(tái)進(jìn)行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和部署,筆者參考了Matlab來(lái)訓(xùn)練LeNet5卷積神經(jīng)網(wǎng)絡(luò)的,就不詳述在Matlab上實(shí)現(xiàn)LeNet5卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程了(此部分包含誤差的計(jì)算和反向傳遞,權(quán)值的更新)。有興趣的讀者可以在網(wǎng)上搜索相關(guān)的資料進(jìn)一步理解。這里我們將TensorFlow訓(xùn)練的模型導(dǎo)出,然后在Matlab中讀入,對(duì)測(cè)試集進(jìn)行推理。如下圖8所示,我們將每一層的結(jié)果展示出來(lái),方便我們理解LeNet5卷積神經(jīng)網(wǎng)絡(luò)的特征提取過(guò)程。

ef3c51e8-d49f-11ec-bce3-dac502259ad0.png

8 LeNet5 Matlab實(shí)現(xiàn)中對(duì)應(yīng)的每一層特征圖

三、基于LeNet5 CNN的FPGA硬件加速實(shí)現(xiàn)

2 LeNet5卷積神經(jīng)網(wǎng)絡(luò)的架構(gòu)和每層所需的內(nèi)存大小

通道數(shù)

濾波器大小

步長(zhǎng)

特征圖大小

內(nèi)存大小

輸入層

1

32×32×1

1024×8

卷積層1

6

5×5

1

28×28×6

1024×6×16

池化層1

2×2

2

14×14×6

256×6×16

卷積層2

16

5×5

1

10×10×16

128×6×16

池化層2

2×2

2

5×5×16

32×16×16

卷積層3

120

5×5

1

1×1×120

128×16

全連接層1

84

1×1

1×1×84

全連接層2

10

1×1

1×1×10

ef828c80-d49f-11ec-bce3-dac502259ad0.png

13 延時(shí)優(yōu)先的LeNet5卷積神經(jīng)網(wǎng)絡(luò)的仿真結(jié)果

四、基于攝像頭的字符識(shí)別FPGA Demo的搭建與實(shí)現(xiàn)

效果如下,具體的內(nèi)容,麻煩等書(shū)出版吧,謝謝

efb1b208-d49f-11ec-bce3-dac502259ad0.png

16 字符識(shí)別的FPGA Demo系統(tǒng)實(shí)時(shí)識(shí)別,手寫(xiě)字符由Matlab生成顯示在屏幕上,下面為FPGA Demo的實(shí)時(shí)識(shí)別結(jié)果。

原文標(biāo)題:基于LeNet5的深度學(xué)習(xí)FPGA加速實(shí)現(xiàn)

文章出處:【微信公眾號(hào):FPGA技術(shù)江湖】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1660

    文章

    22424

    瀏覽量

    636716
  • matlab
    +關(guān)注

    關(guān)注

    189

    文章

    3025

    瀏覽量

    238778
  • 卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    4

    文章

    372

    瀏覽量

    12879

原文標(biāo)題:基于LeNet5的深度學(xué)習(xí)FPGA加速實(shí)現(xiàn)

文章出處:【微信號(hào):HXSLH1010101010,微信公眾號(hào):FPGA技術(shù)江湖】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    FPGA實(shí)現(xiàn)LeNet-5卷積神經(jīng)網(wǎng)絡(luò)

    LeNet-5 是一個(gè)經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)(CNN),由 Yann LeCun 在 1990 年代設(shè)計(jì),主要用于手寫(xiě)數(shù)字識(shí)別任務(wù)(如 MNIS
    的頭像 發(fā)表于 07-11 10:27 ?4304次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    的過(guò)程中存在梯度消失的問(wèn)題[23],神經(jīng)網(wǎng)絡(luò)再 次慢慢淡出人們的視線。1998 年 LeCun 發(fā)明了 LeNet-5,并在 Mnist 數(shù)據(jù) 集達(dá)到 98%以上的識(shí)別準(zhǔn)確率,形成影響深遠(yuǎn)的
    發(fā)表于 08-02 10:39

    基于矢量特征編碼的手寫(xiě)字符識(shí)別技術(shù)

    針對(duì)手寫(xiě)輸入法中手寫(xiě)字符識(shí)別技術(shù)的應(yīng)用需求,提出了一種利用矢量字符的矢量方向編碼技術(shù)和概率論知識(shí)設(shè)計(jì)的手寫(xiě)字符識(shí)別系統(tǒng),避免了傳統(tǒng)手寫(xiě)輸入法
    發(fā)表于 07-30 11:11 ?21次下載

    【科普】卷積神經(jīng)網(wǎng)絡(luò)(CNN)基礎(chǔ)介紹

    對(duì)卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)進(jìn)行介紹,主要內(nèi)容包括卷積神經(jīng)網(wǎng)絡(luò)概念、卷積
    發(fā)表于 11-16 01:00 ?1.2w次閱讀
    【科普】<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(CNN)基礎(chǔ)<b class='flag-5'>介紹</b>

    卷積神經(jīng)網(wǎng)絡(luò)CNN架構(gòu)分析-LeNet

    對(duì)于神經(jīng)網(wǎng)絡(luò)卷積有了粗淺的了解,關(guān)于CNN 卷積神經(jīng)網(wǎng)絡(luò),需要總結(jié)深入的知識(shí)有很多:人工神經(jīng)網(wǎng)絡(luò) ANN
    發(fā)表于 11-16 13:28 ?3129次閱讀
    <b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>CNN架構(gòu)分析-<b class='flag-5'>LeNet</b>

    基于卷積神經(jīng)網(wǎng)絡(luò)CNN的車牌字符識(shí)別方法

    車牌字符識(shí)別是智能車牌識(shí)別系統(tǒng)中的重要組成部分。針對(duì)車牌字符類別多、背景復(fù)雜影響正確識(shí)別率的問(wèn)題,提出了一種基于卷積
    發(fā)表于 11-30 14:24 ?21次下載
    基于<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>CNN的車牌<b class='flag-5'>字符識(shí)別</b>方法

    一種改進(jìn)的仿射傳播聚類的手寫(xiě)字符識(shí)別

    對(duì)于手寫(xiě)字符識(shí)別過(guò)程中相似字符較多且相同字符存在大量不規(guī)則書(shū)寫(xiě)變形的問(wèn)題,提出一種改進(jìn)的仿射傳播聚類算法加入手寫(xiě)字符識(shí)別過(guò)程中。該算法基于原始仿射傳播( AP)聚類算法,將其與聚類評(píng)判
    發(fā)表于 01-15 14:30 ?0次下載
    一種改進(jìn)的仿射傳播聚類的<b class='flag-5'>手寫(xiě)字符識(shí)別</b>

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)層級(jí)分解綜述

    隨著深度學(xué)習(xí)的不斷發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(CNN)在目標(biāo)檢測(cè)與圖像分類中受到研究者的廣泛關(guān)注。CNN從 Lenet5網(wǎng)絡(luò)發(fā)展到深度殘差網(wǎng)絡(luò),其層
    發(fā)表于 05-19 16:11 ?5次下載

    卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)通常用來(lái)處理什么

    神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)廣泛用于圖像識(shí)別、自然語(yǔ)言處理、視頻處理等方面。本文將對(duì)卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用
    的頭像 發(fā)表于 08-21 16:41 ?6372次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)如何識(shí)別圖像

    多層卷積層、池化層和全連接層。CNN模型通過(guò)訓(xùn)練識(shí)別并學(xué)習(xí)高度復(fù)雜的圖像模式,對(duì)于識(shí)別物體和進(jìn)行圖像分類等任務(wù)有著非常優(yōu)越的表現(xiàn)。本文將會(huì)詳細(xì)介紹
    的頭像 發(fā)表于 08-21 16:49 ?2854次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法

    卷積神經(jīng)網(wǎng)絡(luò)介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 08-21 16:49 ?3211次閱讀

    常見(jiàn)的卷積神經(jīng)網(wǎng)絡(luò)模型 典型的卷積神經(jīng)網(wǎng)絡(luò)模型

    LeNet卷積神經(jīng)網(wǎng)絡(luò)的開(kāi)山祖師,是由Yan LeCunn在1998年提出的經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型。它最初是為
    的頭像 發(fā)表于 08-21 17:11 ?5910次閱讀

    圖像識(shí)別卷積神經(jīng)網(wǎng)絡(luò)模型

    Network,CNN)是一種前向反饋神經(jīng)網(wǎng)絡(luò),具有許多層次的神經(jīng)元,并且在其層次結(jié)構(gòu)中存在著權(quán)重共享的機(jī)制。這種結(jié)構(gòu)可以使神經(jīng)網(wǎng)絡(luò)對(duì)圖像的特征提取和分類非常有效。 圖像識(shí)別是一個(gè)廣
    的頭像 發(fā)表于 08-21 17:11 ?1601次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實(shí)現(xiàn)

    1.卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語(yǔ)言處理等領(lǐng)域。 卷積
    的頭像 發(fā)表于 07-02 16:47 ?1898次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)原理

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語(yǔ)言處理等領(lǐng)域。本文將詳細(xì)介紹
    的頭像 發(fā)表于 07-03 10:49 ?2102次閱讀