91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文帶你徹底了解卷積神經(jīng)網(wǎng)絡(luò)

Linux愛(ài)好者 ? 來(lái)源:SimpleAI ? 作者:Beyond ? 2021-10-26 09:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經(jīng)網(wǎng)絡(luò)是一種曾經(jīng)讓我無(wú)論如何也無(wú)法弄明白的東西,主要是名字就太“高級(jí)”了,網(wǎng)上的各種各樣的文章來(lái)介紹“什么是卷積”尤為讓人受不了。聽(tīng)了吳恩達(dá)的網(wǎng)課之后,豁然開(kāi)朗,終于搞明白了這個(gè)東西是什么和為什么。我這里大概會(huì)用6~7篇文章來(lái)講解CNN并實(shí)現(xiàn)一些有趣的應(yīng)用??赐曛蟠蠹覒?yīng)該可以自己動(dòng)手做一些自己喜歡的事兒了。

一、引子:邊界檢測(cè)我們來(lái)看一個(gè)最簡(jiǎn)單的例子:“邊界檢測(cè)(edge detection)”,假設(shè)我們有這樣的一張圖片,大小8×8:圖片中的數(shù)字代表該位置的像素值,我們知道,像素值越大,顏色越亮,所以為了示意,我們把右邊小像素的地方畫(huà)成深色。圖的中間兩個(gè)顏色的分界線就是我們要檢測(cè)的邊界。怎么檢測(cè)這個(gè)邊界呢?

我們可以設(shè)計(jì)這樣的一個(gè) 濾波器(filter,也稱為kernel),大小3×3:然后,我們用這個(gè)filter,往我們的圖片上“蓋”,覆蓋一塊跟filter一樣大的區(qū)域之后,對(duì)應(yīng)元素相乘,然后求和。計(jì)算一個(gè)區(qū)域之后,就向其他區(qū)域挪動(dòng),接著計(jì)算,直到把原圖片的每一個(gè)角落都覆蓋到了為止。這個(gè)過(guò)程就是 “卷積”。

(我們不用管卷積在數(shù)學(xué)上到底是指什么運(yùn)算,我們只用知道在CNN中是怎么計(jì)算的。)

這里的“挪動(dòng)”,就涉及到一個(gè)步長(zhǎng)了,假如我們的步長(zhǎng)是1,那么覆蓋了一個(gè)地方之后,就挪一格,容易知道,總共可以覆蓋6×6個(gè)不同的區(qū)域。那么,我們將這6×6個(gè)區(qū)域的卷積結(jié)果,拼成一個(gè)矩陣:誒?!發(fā)現(xiàn)了什么?

這個(gè)圖片,中間顏色淺,兩邊顏色深,這說(shuō)明咱們的原圖片中間的邊界,在這里被反映出來(lái)了!從上面這個(gè)例子中,我們發(fā)現(xiàn),我們可以通過(guò)設(shè)計(jì)特定的filter,讓它去跟圖片做卷積,就可以識(shí)別出圖片中的某些特征,比如邊界。

上面的例子是檢測(cè)豎直邊界,我們也可以設(shè)計(jì)出檢測(cè)水平邊界的,只用把剛剛的filter旋轉(zhuǎn)90°即可。對(duì)于其他的特征,理論上只要我們經(jīng)過(guò)精細(xì)的設(shè)計(jì),總是可以設(shè)計(jì)出合適的filter的。我們的CNN(convolutional neural network),主要就是通過(guò)一個(gè)個(gè)的filter,不斷地提取特征,從局部的特征到總體的特征,從而進(jìn)行圖像識(shí)別等等功能。那么問(wèn)題來(lái)了,我們?cè)趺纯赡苋ピO(shè)計(jì)這么多各種各樣的filter呀?

首先,我們都不一定清楚對(duì)于一大推圖片,我們需要識(shí)別哪些特征,其次,就算知道了有哪些特征,想真的去設(shè)計(jì)出對(duì)應(yīng)的filter,恐怕也并非易事,要知道,特征的數(shù)量可能是成千上萬(wàn)的。其實(shí)學(xué)過(guò)神經(jīng)網(wǎng)絡(luò)之后,我們就知道,這些filter,根本就不用我們?nèi)ピO(shè)計(jì),每個(gè)filter中的各個(gè)數(shù)字,不就是參數(shù)嗎,我們可以通過(guò)大量的數(shù)據(jù),來(lái) 讓機(jī)器自己去“學(xué)習(xí)”這些參數(shù)嘛。這,就是CNN的原理。二、CNN的基本概念1.padding 填白

從上面的引子中,我們可以知道,原圖像在經(jīng)過(guò)filter卷積之后,變小了,從(8,8)變成了(6,6)。假設(shè)我們?cè)倬硪淮危谴笮【妥兂闪耍?,4)了。這樣有啥問(wèn)題呢?

主要有兩個(gè)問(wèn)題:

每次卷積,圖像都縮小,這樣卷不了幾次就沒(méi)了;

相比于圖片中間的點(diǎn),圖片邊緣的點(diǎn)在卷積中被計(jì)算的次數(shù)很少。這樣的話,邊緣的信息就易于丟失。

為了解決這個(gè)問(wèn)題,我們可以采用padding的方法。我們每次卷積前,先給圖片周?chē)佳a(bǔ)一圈空白,讓卷積之后圖片跟原來(lái)一樣大,同時(shí),原來(lái)的邊緣也被計(jì)算了更多次。比如,我們把(8,8)的圖片給補(bǔ)成(10,10),那么經(jīng)過(guò)(3,3)的filter之后,就是(8,8),沒(méi)有變。我們把上面這種“讓卷積之后的大小不變”的padding方式,稱為 “Same”方式,

把不經(jīng)過(guò)任何填白的,稱為 “Valid”方式。這個(gè)是我們?cè)谑褂靡恍┛蚣艿臅r(shí)候,需要設(shè)置的超參數(shù)。2.stride 步長(zhǎng)

前面我們所介紹的卷積,都是默認(rèn)步長(zhǎng)是1,但實(shí)際上,我們可以設(shè)置步長(zhǎng)為其他的值。

比如,對(duì)于(8,8)的輸入,我們用(3,3)的filter,

如果stride=1,則輸出為(6,6);

如果stride=2,則輸出為(3,3);(這里例子舉得不大好,除不斷就向下取整)3.pooling 池化

這個(gè)pooling,是為了提取一定區(qū)域的主要特征,并減少參數(shù)數(shù)量,防止模型過(guò)擬合。

比如下面的MaxPooling,采用了一個(gè)2×2的窗口,并取stride=2:除了MaxPooling,還有AveragePooling,顧名思義就是取那個(gè)區(qū)域的平均值。4.對(duì)多通道(channels)圖片的卷積(重要!)

這個(gè)需要單獨(dú)提一下。彩色圖像,一般都是RGB三個(gè)通道(channel)的,因此輸入數(shù)據(jù)的維度一般有三個(gè):(長(zhǎng),寬,通道)。

比如一個(gè)28×28的RGB圖片,維度就是(28,28,3)。前面的引子中,輸入圖片是2維的(8,8),filter是(3,3),輸出也是2維的(6,6)。如果輸入圖片是三維的呢(即增多了一個(gè)channels),比如是(8,8,3),這個(gè)時(shí)候,我們的filter的維度就要變成(3,3,3)了,它的 最后一維要跟輸入的channel維度一致。

這個(gè)時(shí)候的卷積,是三個(gè)channel的所有元素對(duì)應(yīng)相乘后求和,也就是之前是9個(gè)乘積的和,現(xiàn)在是27個(gè)乘積的和。因此,輸出的維度并不會(huì)變化。還是(6,6)。但是,一般情況下,我們會(huì) 使用多了filters同時(shí)卷積,比如,如果我們同時(shí)使用4個(gè)filter的話,那么 輸出的維度則會(huì)變?yōu)椋?,6,4)。我特地畫(huà)了下面這個(gè)圖,來(lái)展示上面的過(guò)程圖中的輸入圖像是(8,8,3),filter有4個(gè),大小均為(3,3,3),得到的輸出為(6,6,4)。

我覺(jué)得這個(gè)圖已經(jīng)畫(huà)的很清晰了,而且給出了3和4這個(gè)兩個(gè)關(guān)鍵數(shù)字是怎么來(lái)的,所以我就不啰嗦了(這個(gè)圖畫(huà)了我起碼40分鐘)。其實(shí),如果套用我們前面學(xué)過(guò)的神經(jīng)網(wǎng)絡(luò)的符號(hào)來(lái)看待CNN的話,

我們的輸入圖片就是X,shape=(8,8,3);

4個(gè)filters其實(shí)就是第一層神金網(wǎng)絡(luò)的參數(shù)W1,,shape=(3,3,3,4),這個(gè)4是指有4個(gè)filters;

我們的輸出,就是Z1,shape=(6,6,4);

后面其實(shí)還應(yīng)該有一個(gè)激活函數(shù),比如relu,經(jīng)過(guò)激活后,Z1變?yōu)锳1,shape=(6,6,4);

所以,在前面的圖中,我加一個(gè)激活函數(shù),給對(duì)應(yīng)的部分標(biāo)上符號(hào),就是這樣的:

f672abf4-3582-11ec-82a8-dac502259ad0.jpg

【個(gè)人覺(jué)得,這么好的圖不收藏,真的是可惜了】三、CNN的結(jié)構(gòu)組成上面我們已經(jīng)知道了卷積(convolution)、池化(pooling)以及填白(padding)是怎么進(jìn)行的,接下來(lái)我們就來(lái)看看CNN的整體結(jié)構(gòu),它包含了3種層(layer):1. Convolutional layer(卷積層—CONV)

由濾波器filters和激活函數(shù)構(gòu)成。

一般要設(shè)置的超參數(shù)包括filters的數(shù)量、大小、步長(zhǎng),以及padding是“valid”還是“same”。當(dāng)然,還包括選擇什么激活函數(shù)。2. Pooling layer (池化層—POOL)

這里里面沒(méi)有參數(shù)需要我們學(xué)習(xí),因?yàn)檫@里里面的參數(shù)都是我們?cè)O(shè)置好了,要么是Maxpooling,要么是Averagepooling。

需要指定的超參數(shù),包括是Max還是average,窗口大小以及步長(zhǎng)。

通常,我們使用的比較多的是Maxpooling,而且一般取大小為(2,2)步長(zhǎng)為2的filter,這樣,經(jīng)過(guò)pooling之后,輸入的長(zhǎng)寬都會(huì)縮小2倍,channels不變。3. Fully Connected layer(全連接層—FC)

這個(gè)前面沒(méi)有講,是因?yàn)檫@個(gè)就是我們最熟悉的家伙,就是我們之前學(xué)的神經(jīng)網(wǎng)絡(luò)中的那種最普通的層,就是一排神經(jīng)元。因?yàn)檫@一層是每一個(gè)單元都和前一層的每一個(gè)單元相連接,所以稱之為“全連接”。

這里要指定的超參數(shù),無(wú)非就是神經(jīng)元的數(shù)量,以及激活函數(shù)。接下來(lái),我們隨便看一個(gè)CNN的模樣,來(lái)獲取對(duì)CNN的一些感性認(rèn)識(shí)上面這個(gè)CNN是我隨便拍腦門(mén)想的一個(gè)。它的結(jié)構(gòu)可以用:

X→CONV(relu)→MAXPOOL→CONV(relu)→FC(relu)→FC(softmax)→Y

來(lái)表示。這里需要說(shuō)明的是,在經(jīng)過(guò)數(shù)次卷積和池化之后,我們 最后會(huì)先將多維的數(shù)據(jù)進(jìn)行“扁平化”,也就是把 (height,width,channel)的數(shù)據(jù)壓縮成長(zhǎng)度為 height × width × channel 的一維數(shù)組,然后再與 FC層連接,這之后就跟普通的神經(jīng)網(wǎng)絡(luò)無(wú)異了。

可以從圖中看到,隨著網(wǎng)絡(luò)的深入,我們的圖像(嚴(yán)格來(lái)說(shuō)中間的那些不能叫圖像了,但是為了方便,還是這樣說(shuō)吧)越來(lái)越小,但是channels卻越來(lái)越大了。在圖中的表示就是長(zhǎng)方體面對(duì)我們的面積越來(lái)越小,但是長(zhǎng)度卻越來(lái)越長(zhǎng)了。四、卷積神經(jīng)網(wǎng)絡(luò) VS. 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)其實(shí)現(xiàn)在回過(guò)頭來(lái)看,CNN跟我們之前學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),也沒(méi)有很大的差別。

傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),其實(shí)就是多個(gè)FC層疊加起來(lái)。

CNN,無(wú)非就是把FC改成了CONV和POOL,就是把傳統(tǒng)的由一個(gè)個(gè)神經(jīng)元組成的layer,變成了由filters組成的layer。那么,為什么要這樣變?有什么好處?

具體說(shuō)來(lái)有兩點(diǎn):1.參數(shù)共享機(jī)制(parameters sharing)

我們對(duì)比一下傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的層和由filters構(gòu)成的CONV層:

假設(shè)我們的圖像是8×8大小,也就是64個(gè)像素,假設(shè)我們用一個(gè)有9個(gè)單元的全連接層:那這一層我們需要多少個(gè)參數(shù)呢?需要 64×9 = 576個(gè)參數(shù)(先不考慮偏置項(xiàng)b)。因?yàn)槊恳粋€(gè)鏈接都需要一個(gè)權(quán)重w。那我們看看 同樣有9個(gè)單元的filter是怎么樣的:其實(shí)不用看就知道,有幾個(gè)單元就幾個(gè)參數(shù),所以總共就9個(gè)參數(shù)!因?yàn)?,?duì)于不同的區(qū)域,我們都共享同一個(gè)filter,因此就共享這同一組參數(shù)。

這也是有道理的,通過(guò)前面的講解我們知道,filter是用來(lái)檢測(cè)特征的,那一個(gè)特征一般情況下很可能在不止一個(gè)地方出現(xiàn),比如“豎直邊界”,就可能在一幅圖中多出出現(xiàn),那么 我們共享同一個(gè)filter不僅是合理的,而且是應(yīng)該這么做的。由此可見(jiàn),參數(shù)共享機(jī)制,讓我們的網(wǎng)絡(luò)的參數(shù)數(shù)量大大地減少。這樣,我們可以用較少的參數(shù),訓(xùn)練出更加好的模型,典型的事半功倍,而且可以有效地 避免過(guò)擬合。

同樣,由于filter的參數(shù)共享,即使圖片進(jìn)行了一定的平移操作,我們照樣可以識(shí)別出特征,這叫做 “平移不變性”。因此,模型就更加穩(wěn)健了。2.連接的稀疏性(sparsity of connections)

由卷積的操作可知,輸出圖像中的任何一個(gè)單元,只跟輸入圖像的一部分有關(guān)系:而傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中,由于都是全連接,所以輸出的任何一個(gè)單元,都要受輸入的所有的單元的影響。這樣無(wú)形中會(huì)對(duì)圖像的識(shí)別效果大打折扣。比較,每一個(gè)區(qū)域都有自己的專屬特征,我們不希望它受到其他區(qū)域的影響。正是由于上面這兩大優(yōu)勢(shì),使得CNN超越了傳統(tǒng)的NN,開(kāi)啟了神經(jīng)網(wǎng)絡(luò)的新時(shí)代。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107802
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    19012

原文標(biāo)題:從此明白了卷積神經(jīng)網(wǎng)絡(luò)(CNN)

文章出處:【微信號(hào):LinuxHub,微信公眾號(hào):Linux愛(ài)好者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    帶你徹底搞懂K8s網(wǎng)絡(luò)

    說(shuō)實(shí)話,K8s 網(wǎng)絡(luò)是我見(jiàn)過(guò)最讓新手頭疼的知識(shí)點(diǎn),沒(méi)有之。記得我剛接觸 K8s 那會(huì)兒,看著流量在 Pod、Service、Node 之間穿梭,完全是臉懵逼。后來(lái)踩了無(wú)數(shù)坑,熬了無(wú)數(shù)夜,總算把這套
    的頭像 發(fā)表于 02-06 10:15 ?452次閱讀

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開(kāi)深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?335次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽(tīng)到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱為CNN,是種專門(mén)用來(lái)處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像
    的頭像 發(fā)表于 11-19 18:15 ?2079次閱讀
    自動(dòng)駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問(wèn)題。當(dāng)x&gt;0 時(shí),梯度恒為1,無(wú)梯度耗散問(wèn)題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的般化建議

    通過(guò)實(shí)踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的般化建議,這些建議將會(huì)在構(gòu)建高準(zhǔn)確率輕量級(jí)CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò):我們清楚
    發(fā)表于 10-28 08:02

    卷積運(yùn)算分析

    的數(shù)據(jù),故設(shè)計(jì)了ConvUnit模塊實(shí)現(xiàn)單個(gè)感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴(yán)格意義
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫(xiě)數(shù)字識(shí)別。旦模型被訓(xùn)練并保存,就可以用于對(duì)新圖像進(jìn)行推理和預(yù)測(cè)。要使用生成的模型進(jìn)行推理,可以按照以下步
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來(lái)需要使用擴(kuò)展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對(duì)第卷積+池化的部署進(jìn)行說(shuō)明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重?cái)?shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對(duì)于權(quán)重
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲(chóng)的
    的頭像 發(fā)表于 09-28 10:03 ?1226次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1130次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測(cè)皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    的診斷誤差。仿真結(jié)果驗(yàn)證了該算法的有效性。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問(wèn)題,請(qǐng)第
    發(fā)表于 06-16 22:09

    自動(dòng)駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點(diǎn)分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個(gè)方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得CNN在圖像
    的頭像 發(fā)表于 04-07 09:15 ?851次閱讀
    自動(dòng)駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點(diǎn)分析