文章目標(biāo):神經(jīng)網(wǎng)絡(luò)特別是深層神經(jīng)網(wǎng)絡(luò)是黑盒的,通過閱讀本文可以讓大家了解神經(jīng)網(wǎng)絡(luò)的基本實(shí)現(xiàn)方法、基本數(shù)學(xué)原理、實(shí)現(xiàn)流程等,同時(shí)建議初學(xué)者從基礎(chǔ)學(xué)起,查詢更多的資料豐富認(rèn)知,有不明白的地方可以關(guān)注作者或留言。
人工神經(jīng)網(wǎng)絡(luò)起源于上世紀(jì)40~50年代,它是在基于人腦的基本單元-神經(jīng)元的建模與聯(lián)結(jié),模擬人腦神經(jīng)系統(tǒng),形成一種具有學(xué)習(xí)、聯(lián)想、記憶和模式識(shí)別等智能信息處理的人工系統(tǒng),稱為人工神經(jīng)網(wǎng)絡(luò)。1969年出版的轟動(dòng)一時(shí)的《Perceptrons》一書指出簡(jiǎn)單的線性感知器的功能是有限的,它無非解決線性不可分的而分類問題,如簡(jiǎn)單的線性感知器不能實(shí)現(xiàn)“異或”的邏輯關(guān)系,加上神經(jīng)網(wǎng)絡(luò)就和黑夾子一樣,很多東西不透明,模型的解釋性不強(qiáng),參數(shù)過多,容易出錯(cuò),容易過擬合,無法保證全局最優(yōu)等問題,同時(shí)70年代集成電路和微電子技術(shù)的迅猛發(fā)展,使得傳統(tǒng)的Von Neumenn計(jì)算機(jī)進(jìn)入全盛時(shí)期,基于邏輯符號(hào)處理方法的人工智能得到了迅速發(fā)展并取得了顯著的成果。
1982年,美國(guó)科學(xué)院發(fā)表了著名的Hopfield網(wǎng)絡(luò)模型的理論,不僅對(duì)ANN信息存儲(chǔ)和提取功能進(jìn)行了非線性數(shù)學(xué)概括,提出了動(dòng)力方程和學(xué)習(xí)方程,使得ANN的構(gòu)造與學(xué)習(xí)有了理論指導(dǎo)。這一研究激發(fā)了ANN的研究熱情。
為了描述神經(jīng)網(wǎng)絡(luò),先從最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)講起,這個(gè)神經(jīng)網(wǎng)絡(luò)僅由一個(gè)“神經(jīng)元”構(gòu)成,“神經(jīng)元”的圖示如下:

那么想得到預(yù)測(cè)或者分類的結(jié)果,就需要了解激活函數(shù),激活函數(shù)的作用:能使得神經(jīng)網(wǎng)絡(luò)的每層輸出結(jié)果變得非線性化,進(jìn)行數(shù)值轉(zhuǎn)換,具有如下性質(zhì):
可微性:計(jì)算梯度時(shí)必須要有此性質(zhì);
非線性:保證數(shù)據(jù)非線性可分;
單調(diào)性:保證凸函數(shù);
輸出值與輸入值相差不會(huì)很大:保證神經(jīng)網(wǎng)絡(luò)訓(xùn)練和調(diào)參高效;
常用的激活函數(shù)有很多,本文列出3個(gè):Sigmoid、TANH、ReLU,數(shù)據(jù)經(jīng)過激活函數(shù)進(jìn)行轉(zhuǎn)換:

經(jīng)過激活函數(shù)轉(zhuǎn)換后得到預(yù)測(cè)標(biāo)簽y,對(duì)于有監(jiān)督的分類問題來說,比如二分類label是0、1,那我們?nèi)绾斡?jì)算預(yù)測(cè)標(biāo)簽y與實(shí)際值的差距呢,就是我們要講的幾個(gè)概念了。
損失函數(shù):計(jì)算的是一個(gè)樣本的誤差;
代價(jià)函數(shù):是整個(gè)訓(xùn)練集上所有樣本誤差的平均;
目標(biāo)函數(shù):代價(jià)函數(shù) + 正則化項(xiàng);
通過目標(biāo)函數(shù)我們就可以衡量訓(xùn)練集的損失,這種損失我們?nèi)绾螠p少到最小呢?就是神經(jīng)網(wǎng)絡(luò)的優(yōu)化器,常用優(yōu)化器如下:
SGD(Stochastic gradient descent)
Adagrad
RMSprop
Adam
作用:更新和計(jì)算影響模型訓(xùn)練和模型輸出的網(wǎng)絡(luò)參數(shù),使其逼近或達(dá)到最優(yōu)值,從而最小化(或最大化)損失函數(shù)E(x)
通過優(yōu)化器的多次優(yōu)化,我們就可以對(duì)模型進(jìn)行訓(xùn)練和模型優(yōu)化了,本文是個(gè)簡(jiǎn)單的Demo,后續(xù)會(huì)詳細(xì)介紹,有問題可以留言及關(guān)注;
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4839瀏覽量
108055 -
人工智能
+關(guān)注
關(guān)注
1819文章
50218瀏覽量
266517
發(fā)布評(píng)論請(qǐng)先 登錄
為什么 VisionFive V1 板上的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡(luò)引擎?
神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)
4種神經(jīng)網(wǎng)絡(luò)不確定性估計(jì)方法對(duì)比與代碼實(shí)現(xiàn)
基于級(jí)聯(lián)分類器的人臉檢測(cè)基本原理
NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹
在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)
CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作
液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)
神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)
基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案
無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究
神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用
PID串級(jí)控制在同步發(fā)電機(jī)勵(lì)磁控制中的應(yīng)用
神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究
基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析
神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)分類與預(yù)測(cè)的基本原理
評(píng)論