91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)的評(píng)估和內(nèi)部狀態(tài)解析

zhKF_jqr_AI ? 2017-11-25 11:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文盡可能地減少使用數(shù)學(xué)公式,更多地基于可視化幫助讀者入門,一方面降低了對(duì)背景知識(shí)的要求,一方面也是因?yàn)橛眠@種方式介紹神經(jīng)網(wǎng)絡(luò)可能更易于理解。事實(shí)上,理解大部分機(jī)器學(xué)習(xí)的內(nèi)容都只需要高中程度的數(shù)學(xué)知識(shí),加上一點(diǎn)類比和抽象的能力。在此基礎(chǔ)上入門機(jī)器學(xué)習(xí)是可能的,也是很多人所盼望的(否則很多人可能就放棄接觸這個(gè)領(lǐng)域了)。

在本文中,我們將更仔細(xì)些地評(píng)估它的表現(xiàn),同時(shí)查看它的內(nèi)部狀態(tài),以得到一些關(guān)于它是如何運(yùn)作的直覺。在本文的后半部分,我們將嘗試在一個(gè)更復(fù)雜的數(shù)據(jù)集(狗、汽車和船舶)上訓(xùn)練神經(jīng)網(wǎng)絡(luò),看看需要什么樣的革新能將我們的網(wǎng)絡(luò)提高一個(gè)等級(jí)。

可視化權(quán)重

讓我們來訓(xùn)練一個(gè)分類MNIST手寫數(shù)字的網(wǎng)絡(luò),和前一篇文章不同的是,我們直接映射輸入層到輸出層,不設(shè)置隱藏層。所以我們的網(wǎng)絡(luò)看起來像這樣。

用于MNIST的單層神經(jīng)網(wǎng)絡(luò)。10個(gè)輸出神經(jīng)元對(duì)應(yīng)數(shù)字0-9

當(dāng)我們向神經(jīng)網(wǎng)絡(luò)輸入圖像時(shí),我們通過將像素“展開”為一列神經(jīng)元來可視化網(wǎng)絡(luò),如下圖左半部分所示。讓我們集中注意力到第一個(gè)輸出神經(jīng)元的連接,我們將這個(gè)神經(jīng)元標(biāo)記為z,并將每個(gè)輸入神經(jīng)元和相應(yīng)的權(quán)重標(biāo)記為xi和wi。

我們并不展開像素,而是將權(quán)重看成一個(gè)28x28的網(wǎng)格,其中權(quán)重的排列方式與對(duì)應(yīng)的像素完全一致。上圖右半部分和下圖看起來不同,但是它們都表達(dá)了相同的等式,即z = b + ∑ wx。

另一種可視化每個(gè)輸出神經(jīng)元的像素權(quán)重乘積的方式

現(xiàn)在讓我們看一下基于這個(gè)架構(gòu)的訓(xùn)練好的網(wǎng)絡(luò),同時(shí)可視化第一個(gè)輸出神經(jīng)元接受的學(xué)習(xí)好的權(quán)重,這是負(fù)責(zé)歸類數(shù)字0的神經(jīng)元。我們給它們標(biāo)上顏色,最低的權(quán)重是黑色的,最高的則是白色。

可視化MNIST分類器0-神經(jīng)元的權(quán)重

瞇起你的眼睛,右邊那個(gè)圖形看起來是不是有點(diǎn)像一個(gè)模糊的0?想一下這個(gè)神經(jīng)元在做什么,這樣可以更容易理解為什么這個(gè)圖形是這個(gè)形狀。這個(gè)神經(jīng)元“負(fù)責(zé)”歸類零,它的目標(biāo)是輸出一個(gè)較高的值(如果數(shù)字是零)或一個(gè)較低的值(如果數(shù)字不是零)。它將較高的權(quán)重賦值給一些像素,在表示零的圖像中,這些像素通常趨向高值。通過這樣的方法,對(duì)于表示零的圖像,它可以得出較高的值。類似地,它將較低的權(quán)重賦值給一些像素,在表示非零的圖像中,這些像素通常趨向高值,而在表示零的圖像中,這些像素通常趨向低值。通過這樣的方法,對(duì)于表示非零的圖像,它可以得出較低的值。權(quán)重圖像中相對(duì)黑的中心源自這樣一個(gè)事實(shí),表示零的圖像的像素在這個(gè)位置通常趨向于最低值(數(shù)字零當(dāng)中的空洞),而表示其他數(shù)字的圖像的像素在這個(gè)位置通常有一個(gè)相對(duì)較高的值。

讓我們來看看所有10個(gè)輸出神經(jīng)元學(xué)習(xí)到的權(quán)重。 正如我們所猜測的那樣,它們都看起來像是10個(gè)數(shù)字有些模糊的版本,看起來好像是我們平均了許多屬于每個(gè)數(shù)字類別的圖像。

可視化MNIST分類器所有輸出神經(jīng)元的權(quán)重

假設(shè)輸入是表示數(shù)字2的圖像,我們可以預(yù)見負(fù)責(zé)歸類2的神經(jīng)元的值應(yīng)該較高,因?yàn)樗臋?quán)重是這樣設(shè)定的:高權(quán)重傾向于賦值給在表示2的圖像中趨向于高值的像素。其他神經(jīng)元的一些權(quán)重也會(huì)與高值像素一致,使得他們的分?jǐn)?shù)也有所提高。然而,共同之處要少很多,并且這些圖像中的許多高值像素會(huì)被歸類2的神經(jīng)元中的低權(quán)重所抵消。激活函數(shù)不會(huì)改變這一點(diǎn),因?yàn)樗菃握{(diào)的,也就是說,輸入值越高,輸出值越高。

我們可以將這些權(quán)重解釋為輸出分類的模板。這真是引人入勝,因?yàn)槲覀儚膩頉]有事先告訴過網(wǎng)絡(luò)這些數(shù)字是什么或者這些數(shù)字是什么意思,然而它們最終卻和這些分類的對(duì)象很相似。這暗示了神經(jīng)網(wǎng)絡(luò)內(nèi)部機(jī)制的特殊性:它們形成了訓(xùn)練對(duì)象的表示,在簡單的分類或預(yù)測之外,這些表示還有其他作用。當(dāng)我們開始研究卷積神經(jīng)網(wǎng)絡(luò)時(shí),我們將把這個(gè)表示能力提升至一個(gè)新等級(jí),但就目前而言,讓我們不要過于超前了。

相比提供的答案,這引發(fā)了更多問題。例如,添加隱藏層時(shí)權(quán)重會(huì)發(fā)生什么變化?正如我們很快會(huì)看到的,這個(gè)問題的答案基于我們在前一節(jié)中以直觀的方式看到的東西。但在我們討論這一點(diǎn)之前,讓我們先檢視一下我們神經(jīng)網(wǎng)絡(luò)的表現(xiàn),特別是考慮它往往會(huì)造成哪些種類的錯(cuò)誤。

0op5, 1 d14 17 2ga1n

有時(shí)候,我們的網(wǎng)絡(luò)會(huì)犯一些情有可原的錯(cuò)誤。 在我看來,下面的第一個(gè)數(shù)字是9這一點(diǎn)并不是很明顯。有人可能很容易把它誤認(rèn)為4,就像我們的網(wǎng)絡(luò)做的那樣。類似地,我們也可以理解為什么第二個(gè)數(shù)字3被網(wǎng)絡(luò)誤認(rèn)為8。下面第三和第四個(gè)數(shù)字的錯(cuò)誤更明顯。幾乎任何人都可以立刻認(rèn)出它們分別是3和2,我們的機(jī)器卻把第一個(gè)數(shù)字誤認(rèn)為5,對(duì)第二個(gè)數(shù)字是什么則毫無頭緒。

我們的單層MNIST網(wǎng)絡(luò)的一些錯(cuò)誤。左邊兩個(gè)屬于可以理解的錯(cuò)誤,右邊兩個(gè)則是明顯的錯(cuò)誤

讓我們仔細(xì)看看上一篇的最后一個(gè)神經(jīng)網(wǎng)絡(luò)的性能,它在MNIST數(shù)字上達(dá)到了90%的精確度。達(dá)到這個(gè)精確度的其中一個(gè)方法是查找一個(gè)混淆矩陣,這個(gè)矩陣將我們的預(yù)測分解成一張表格。在下面的混淆矩陣中,行對(duì)應(yīng)MNIST數(shù)據(jù)集的實(shí)際標(biāo)簽,列對(duì)應(yīng)預(yù)測的標(biāo)簽。例如,第4行(actual 3)、第6列(predicted 5)的單元格表示有71個(gè)3被我們的神經(jīng)網(wǎng)絡(luò)誤標(biāo)記為5?;煜仃嚨木G色對(duì)角線表示預(yù)測正確的數(shù)量,而其他所有單元格均表示錯(cuò)誤的數(shù)量。

將每個(gè)單元格的頂部取樣填入混淆矩陣,我們可以得到一些很好的洞見。

MNIST混淆矩陣中網(wǎng)絡(luò)最自信的樣本

這給了我們一個(gè)網(wǎng)絡(luò)如何學(xué)習(xí)進(jìn)行某種預(yù)測的印象??辞懊鎯闪校覀兛吹?,我們的網(wǎng)絡(luò)看起來在尋找大環(huán)形來預(yù)測0,尋找細(xì)線來預(yù)測1,如果其他數(shù)字碰巧具有這些特征,網(wǎng)絡(luò)會(huì)誤認(rèn)。

玩壞我們的神經(jīng)網(wǎng)絡(luò)

到目前為止,我們只討論了訓(xùn)練識(shí)別手寫數(shù)字的神經(jīng)網(wǎng)絡(luò)。我們從中獲得了許多洞見,但是我們選擇的卻是一個(gè)非常簡單的數(shù)據(jù)集,這給了我們很多優(yōu)勢;我們只有10個(gè)分類,這些分類定義非常明確,其中的內(nèi)部差異相對(duì)很小。在大多數(shù)現(xiàn)實(shí)世界的場景中,我們試圖在非常不理想的情況下分類圖像。 讓我們來看看同一個(gè)神經(jīng)網(wǎng)絡(luò)在另一個(gè)數(shù)據(jù)集CIFAR-10上的表現(xiàn)。這個(gè)數(shù)據(jù)集包括6萬張32x32的彩色圖像,分屬10類:飛機(jī)、汽車、鳥、貓、鹿、狗、青蛙、馬、船和卡車。以下是CIFAR-10中的一些隨機(jī)樣本圖像。

現(xiàn)在,很明顯,我們必須面對(duì)這樣一個(gè)困境,這些圖像類別存在我們未曾應(yīng)對(duì)過的差異。例如,貓可以面向不同的方向,具有不同的顏色和毛皮紋理,舒展或卷曲,還有許多其他我們在手寫數(shù)字上不曾遇到過的變體。貓的照片也會(huì)與其他物體混雜在一起,加劇問題的復(fù)雜程度。

果然,如果我們在這些圖像上訓(xùn)練一個(gè)雙層神經(jīng)網(wǎng)絡(luò),我們的精確度只有37%。這還是要比隨機(jī)猜測好很多(精確度10%),但是遠(yuǎn)遠(yuǎn)低于我們的MNIST分類器達(dá)到的90%。使用卷積神經(jīng)網(wǎng)絡(luò)后,我們將大大提升精確度,不管是MNIST還是CIFAR-10。目前而言,我們可以通過審查權(quán)重來更準(zhǔn)確地了解普通神經(jīng)網(wǎng)絡(luò)的缺陷。

讓我們重復(fù)先前的試驗(yàn),觀察一個(gè)不帶隱藏層的單層神經(jīng)網(wǎng)絡(luò)的權(quán)重,只不過這次我們將訓(xùn)練CIFAR-10中的圖像。權(quán)重顯示在下面。

可視化單層CIFAR-10分類器的權(quán)重

與MNIST的權(quán)重相比,明顯的特征更少,清晰度也低很多。某些細(xì)節(jié)確實(shí)有直覺上的意義,例如飛機(jī)和船舶圖像的外邊緣大多是藍(lán)色,反映了這些圖像的周圍傾向于是藍(lán)天或者水體。由于特定類別的權(quán)重圖像確實(shí)與屬于該類別的圖像的平均值相關(guān),所以我們可以如先前一般期待斑點(diǎn)狀的平均顏色凸現(xiàn)出來。然而,由于CIFAR類的內(nèi)部一致性要低很多,我們看到的界限清晰的“模板”相比MNIST要不明顯很多。

讓我們來看看與這個(gè)CIFAR-10分類器相關(guān)的混淆矩陣。

毫無意外,表現(xiàn)非常差,精確度只有37%。顯然,我們簡單的單層神經(jīng)網(wǎng)絡(luò)不能應(yīng)付這個(gè)復(fù)雜的數(shù)據(jù)集。我們可以引入一個(gè)隱藏層,多少改善一下表現(xiàn)。下一小節(jié)將分析這樣做的效果。

添加隱藏層

到目前為止,我們專注于輸入直接連接到輸出的單層神經(jīng)網(wǎng)絡(luò)。隱藏層將如何影響我們的神經(jīng)網(wǎng)絡(luò)?在我們的MNIST網(wǎng)絡(luò)中插入一個(gè)包含10個(gè)神經(jīng)元的中間層看看。那么,現(xiàn)在我們的手寫數(shù)字分類神經(jīng)網(wǎng)絡(luò)大概是這個(gè)樣子:

MNIST雙層神經(jīng)網(wǎng)絡(luò)

上面提到的單層網(wǎng)絡(luò)的簡單模板象征不再適用于這種情況,因?yàn)?84個(gè)輸入像素并沒有直接連接到輸出類。從某種意義上來說,我們過去“強(qiáng)制”我們原來的單層網(wǎng)絡(luò)去學(xué)習(xí)這些模板,因?yàn)槊總€(gè)權(quán)重直接連接到一個(gè)類別標(biāo)簽,因而只影響該類別。但在我們現(xiàn)在引入的更復(fù)雜的網(wǎng)絡(luò)中,隱藏層的權(quán)重影響輸出層中所有10個(gè)神經(jīng)元。那么我們應(yīng)該期待這些權(quán)重看起來是什么樣子呢?

為了理解發(fā)生了什么,我們將像原來那樣可視化第一層中的權(quán)重,但是我們也會(huì)仔細(xì)查看他們的激活在第二層是如何合并的,從而得到類別分?jǐn)?shù)?;仡櫼幌虑懊嫣岬降膬?nèi)容,如果圖像在很大程度上和過濾器相交感,那么圖像將在第一層的特定神經(jīng)元中產(chǎn)生高激活。因此,隱藏層中的10個(gè)神經(jīng)元反映了原始圖像中這10個(gè)特征的存在性。在輸出層中,對(duì)應(yīng)于某個(gè)類別標(biāo)簽的單個(gè)神經(jīng)元,是前10次隱藏激活的加權(quán)組合。下圖展示了這一點(diǎn)。

讓我們先來看看上圖頂部的第一層權(quán)重。它們看起來很陌生,不再像圖像模板了。一些看起來像偽數(shù)字,其他看起來像數(shù)字的組成部分:半環(huán)、對(duì)角線、孔,等等。

過濾器圖像下面的行對(duì)應(yīng)于我們的輸出神經(jīng)元,每行代表一個(gè)圖像類別。條形代表隱藏層傳遞給10個(gè)過濾器的激活對(duì)應(yīng)的權(quán)重。例如,0類似乎偏愛外緣的值較高的第一層過濾器(因?yàn)閿?shù)字零傾向于如此)。它厭惡中間的像素的值較低的過濾器(通常對(duì)應(yīng)數(shù)字零中間的孔)。1類幾乎與此正相反,鐘愛在中間的值較高的過濾器,你可能已經(jīng)想到了,那里對(duì)應(yīng)數(shù)字1的豎筆。

這種方法的優(yōu)勢是靈活性。對(duì)于每個(gè)類別而言,更廣泛的輸入模式可以刺激相應(yīng)的輸出神經(jīng)元。每個(gè)類別都可以由前一個(gè)隱藏層的若干抽象特征或者它們的組合來觸發(fā)。從本質(zhì)上講,我們可以學(xué)習(xí)不同種類的數(shù)字零,不同種類的數(shù)字一等等。對(duì)大多數(shù)任務(wù)而言,這通常能改善網(wǎng)絡(luò)的表現(xiàn)(盡管并不總是如此)。

特征和表示

讓我們概括一下我們在本文學(xué)到的內(nèi)容。在單層和多層神經(jīng)網(wǎng)絡(luò)中,每一層都有類似的功能;它將來自前一層的數(shù)據(jù)轉(zhuǎn)換為該數(shù)據(jù)的“高層”表示。“高層”的意思是它包含了這些數(shù)據(jù)更緊湊、更突出的表示,就像內(nèi)容概要是書的“高層”表示一樣。例如,在上面提到的雙層網(wǎng)絡(luò)中,我們將“低層”像素映射到第一層網(wǎng)絡(luò)中數(shù)字(筆劃、圓圈等)的“高層”特征,然后將這些高層特征映射為下一層的更高層表示(實(shí)際數(shù)字)。這種將數(shù)據(jù)轉(zhuǎn)換成更小但更有意義的信息的觀念是機(jī)器學(xué)習(xí)的核心,也是神經(jīng)網(wǎng)絡(luò)的主要功能。

通過在神經(jīng)網(wǎng)絡(luò)中增加一個(gè)隱藏層,我們讓它有機(jī)會(huì)在多個(gè)抽象層次上學(xué)習(xí)特征。這給了我們數(shù)據(jù)的豐富表示,其中,較前的層包含低層特征,較后的層包含由前層特征組合而成的高層特征。

正如我們所看到的,隱藏層可以提高精確性,不過程度有限。隨著越來越多圖層的迅速增加,很快精確性就不能再提升了,而且這會(huì)帶來運(yùn)算成本——我們不能簡單地要求我們的神經(jīng)網(wǎng)絡(luò)在隱藏層中記憶圖像類別的每個(gè)可能版本。事實(shí)證明,使用卷積神經(jīng)網(wǎng)絡(luò)是一個(gè)更好的方法。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:初窺神經(jīng)網(wǎng)絡(luò)內(nèi)部機(jī)制

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    神經(jīng)網(wǎng)絡(luò)簡介

    神經(jīng)網(wǎng)絡(luò)簡介
    發(fā)表于 08-05 21:01

    遺傳算法 神經(jīng)網(wǎng)絡(luò) 解析

    關(guān)于遺傳算法和神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 05-19 10:22

    神經(jīng)網(wǎng)絡(luò)基本介紹

    神經(jīng)網(wǎng)絡(luò)基本介紹
    發(fā)表于 01-04 13:41

    【PYNQ-Z2試用體驗(yàn)】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)

    能在外界信息的基礎(chǔ)上改變內(nèi)部結(jié)構(gòu),是一種自適應(yīng)系統(tǒng),通俗的講就是具備學(xué)習(xí)功能?,F(xiàn)代神經(jīng)網(wǎng)絡(luò)是一種非線性統(tǒng)計(jì)性數(shù)據(jù)建模工具。簡單來說,就是給定輸入,神經(jīng)網(wǎng)絡(luò)經(jīng)過一系列計(jì)算之后,輸出最終結(jié)果。這好比人的大腦
    發(fā)表于 03-03 22:10

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別
    發(fā)表于 06-06 14:21

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問題,我們似乎可以給出相對(duì)簡明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺不是很難,只不過一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競爭學(xué)習(xí)的一個(gè)代表,
    發(fā)表于 07-21 04:30

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐
    發(fā)表于 06-14 22:21

    什么是LSTM神經(jīng)網(wǎng)絡(luò)

    簡單理解LSTM神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 01-28 07:16

    基于FPGA的神經(jīng)網(wǎng)絡(luò)的性能評(píng)估及局限性

    FPGA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)關(guān)鍵問題分析基于FPGA的ANN實(shí)現(xiàn)方法基于FPGA的神經(jīng)網(wǎng)絡(luò)的性能評(píng)估及局限性
    發(fā)表于 04-30 06:58

    基于光學(xué)芯片的神經(jīng)網(wǎng)絡(luò)訓(xùn)練解析,不看肯定后悔

    基于光學(xué)芯片的神經(jīng)網(wǎng)絡(luò)訓(xùn)練解析,不看肯定后悔
    發(fā)表于 06-21 06:33

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機(jī)的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達(dá)能力,可以通過對(duì)系統(tǒng)性能的學(xué)習(xí)來實(shí)現(xiàn)具有最佳組合的PID控制。利用BP
    發(fā)表于 09-07 07:43

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    。 遞歸神經(jīng)網(wǎng)絡(luò)的概念 遞歸神經(jīng)網(wǎng)絡(luò)是一種具有短期記憶功能的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),如時(shí)間序列、文本、語音等。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)不同,遞歸
    的頭像 發(fā)表于 07-04 14:54 ?2360次閱讀