91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從直觀的理解上講解什么是神經(jīng)網(wǎng)絡(luò)

倩倩 ? 來源:Mcix創(chuàng)客 ? 2020-04-17 14:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

什么是神經(jīng)網(wǎng)絡(luò)

深度學(xué)習(xí)是指訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過程,有的時(shí)候深度學(xué)習(xí)表示大規(guī)模的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,本節(jié)課程我們將從直觀的理解上講解什么是神經(jīng)網(wǎng)絡(luò)。

我們還是通過舉例子的方式來解釋一下,究竟什么才是神經(jīng)網(wǎng)絡(luò),從經(jīng)典的房價(jià)預(yù)測的例子開始講起。

假如我們有一個(gè)有關(guān)于房價(jià)的數(shù)據(jù)集,這個(gè)數(shù)據(jù)集中有6個(gè)樣本,每個(gè)樣本的特征是房屋的面積,而樣本的標(biāo)簽就是房屋的價(jià)格,此時(shí)我們需要一個(gè)能夠擬合這個(gè)數(shù)據(jù)集的函數(shù),并且能夠通過這個(gè)函數(shù)根據(jù)房屋的面積來預(yù)測房價(jià)。

我們在機(jī)器學(xué)習(xí)的專欄中已經(jīng)學(xué)習(xí)過了線性回歸,所以我們很清楚如何通過線性回歸來擬合出一條直線,于是我們可能得到這樣的一條直線來擬合我們的數(shù)據(jù)集。

但是此時(shí)的模型會有一些問題,我們將我們的直線繼續(xù)擴(kuò)展,我們會發(fā)現(xiàn),當(dāng)我們的房屋的面積小于a的時(shí)候,我們的房屋的價(jià)格就會為負(fù)數(shù),這是不現(xiàn)實(shí)的,因?yàn)槲覀冎婪课莸膬r(jià)格永遠(yuǎn)都不能為負(fù)數(shù),因此為了解決這個(gè)問題,我們需要把我們的直線彎曲一點(diǎn),讓它最終在零結(jié)束,那么我們最終的函數(shù)就如下所示:

我們可以看出我們的模型在大于a的時(shí)候,也就是直線部分會擬合的很好。以上是我們通過線性回歸的方式來擬合我們的房屋的數(shù)據(jù)。

如果我們要通過神經(jīng)網(wǎng)絡(luò)的方式來實(shí)現(xiàn)上面的模型的話,這可能是最簡單的神經(jīng)網(wǎng)絡(luò)了。我們把房屋的面積作為神經(jīng)網(wǎng)絡(luò)的輸入(x),通過一個(gè)神經(jīng)元(小圓圈),最終輸出價(jià)格(y)。

我們通過上面的神經(jīng)網(wǎng)絡(luò)就能擬合出線性回歸所擬合出來的函數(shù),而這個(gè)函數(shù)我們未來在深度學(xué)習(xí)的過程中會經(jīng)常的見到,這個(gè)函數(shù)從趨近于0開始,然后變?yōu)橐粭l直線,這個(gè)函數(shù)被稱為RELU激活函數(shù),它的全稱就是Rectified Linear Unit(修正線性單元)。修正可以理解為max(0,x)。

所以我們當(dāng)前的神經(jīng)網(wǎng)絡(luò)可以做到和線性回歸一樣的功能,這個(gè)神經(jīng)網(wǎng)絡(luò)的工作原理就是輸入房屋面積,然后直接使用RELU激活函數(shù)來對房屋的面積進(jìn)行映射,然后我們就可以得出房屋的面積了,和線性回歸的效果是一樣的。

我們可以看出我們只通過一個(gè)神經(jīng)元就完成了房價(jià)預(yù)測的任務(wù),我們可以通過更多的神經(jīng)元來搭建一個(gè)更大的神經(jīng)網(wǎng)絡(luò)。我們再來看一個(gè)例子。

現(xiàn)在我們不僅使用單一的房屋的面積來預(yù)測房屋的價(jià)格,我們現(xiàn)在還有房屋的一些其它的特征,比如臥室的數(shù)量,郵政編碼(郵政編碼決定了你步行化的程度),地區(qū)富裕度。

{!-- PGC_COLUMN --}

這些特征能夠決定我們一個(gè)房子的價(jià)格,比如房子的大小和臥室的數(shù)量可以決定家庭的大小,郵政編碼可以決定步行化的程度,郵政編碼和地區(qū)富裕度還可以決定學(xué)校的質(zhì)量,而又可以根據(jù)家庭的大小,步行化的程度,以及學(xué)校的質(zhì)量可以決定最終的房屋的價(jià)格,所以我們可以根據(jù)這個(gè)邏輯建立如下所示的神經(jīng)網(wǎng)絡(luò)。

該圖中的每一個(gè)神經(jīng)元都可以是一個(gè)Relu,也就是修正線性單元,或者其它非線性的函數(shù)。

雖然我們已經(jīng)描述出來了這樣的一個(gè)神經(jīng)網(wǎng)絡(luò),但是看起來家庭的大小,步行化的程度,以及學(xué)校的質(zhì)量可能也需要我們得到,其實(shí)不用我們得到,我們只用像神經(jīng)網(wǎng)絡(luò)中輸入房屋的大小,臥室的數(shù)量,郵政編碼,富裕度這四個(gè)特征x,就能得到價(jià)格y,這正是神經(jīng)網(wǎng)絡(luò)神奇的地方,因?yàn)樯窠?jīng)網(wǎng)絡(luò)自己可以計(jì)算你訓(xùn)練集中樣本的數(shù)目以及所有的中間過程。這樣的話,我們就可以建立如下所示的神經(jīng)網(wǎng)絡(luò)了:

所以我們要做的就是將房屋大小,臥室數(shù)量,郵政編碼,富裕度這四個(gè)特征(x1、x2、x3、x4)輸入到神經(jīng)網(wǎng)絡(luò)中,輸入之后,神經(jīng)網(wǎng)絡(luò)就會預(yù)測出對應(yīng)的價(jià)格。

同時(shí)我們也要注意隱藏層的單元,我們可以看到隱藏層的單元都是從輸入的四個(gè)特征獲得自身的輸入,比如說隱藏層的第一個(gè)節(jié)點(diǎn)表示家庭人口,而家庭人口僅僅取決于特征x1和特征x2,神經(jīng)網(wǎng)絡(luò)的厲害之處在于,雖然這個(gè)隱藏層的結(jié)點(diǎn)也在和特征x3和特征x4相連,但是神經(jīng)網(wǎng)絡(luò)總是能夠通過權(quán)重參數(shù)的作用使得x3和x4對第一個(gè)隱藏層結(jié)點(diǎn)沒有作用,所以我們的特征x3和特征x4依然可以和這個(gè)隱藏層的結(jié)點(diǎn)相連(雖然x3和x4并不會對第一個(gè)隱藏層有什么意義)。

這樣的好處就是我們沒有必要去考慮很細(xì)節(jié)的東西,比如考慮第一個(gè)隱藏層和x1和x2有關(guān),從而連接x1和x2,而與x3和x4無關(guān),從而不連接x3和x4,如果我們考慮到如此細(xì)節(jié)的東西,那么我們的神經(jīng)網(wǎng)絡(luò)的搭建會異常的麻煩,當(dāng)我們喂給神經(jīng)網(wǎng)絡(luò)足夠多的數(shù)據(jù)的時(shí)候,神經(jīng)網(wǎng)絡(luò)總是能夠自動(dòng)學(xué)習(xí)到相應(yīng)的參數(shù),使得雖然與x3和x4相連,但是x3和x4卻不會對隱藏層第一個(gè)單元造成任何影響。

這里我們可以把神經(jīng)網(wǎng)絡(luò)的隱藏層看成是特征的升級,比如一開始我們輸入的是房屋大小,臥室數(shù)量,郵政編碼,富裕度,經(jīng)過隱藏層之后,我們的特征變?yōu)榱思彝サ拇笮?,步行化的程度,以及學(xué)校的質(zhì)量(有可能)然后輸入到最后輸出層,相比來說家庭的大小,步行化的程度,以及學(xué)校的質(zhì)量更能決定房價(jià)y,所以我們可以簡單的看成神經(jīng)網(wǎng)絡(luò)的隱藏層就是對我們特征的升級。

至此我們就知道了什么是神經(jīng)網(wǎng)絡(luò),希望能夠通過本節(jié)課程能夠了解到神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)非常擅長從x到y(tǒng)的精準(zhǔn)映射函數(shù)。它非常的強(qiáng)大,只要你輸入x,我們就可以將映射成y,就像我們上面的預(yù)測房價(jià)的例子一樣。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    為什么 VisionFive V1 板的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡(luò)引擎?

    我想知道為什么 VisionFive V1 板的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡(luò)引擎,請問?您能否舉一些關(guān)于他們的用例的例子?
    發(fā)表于 03-25 06:01

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?378次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問題。當(dāng)x&gt;0 時(shí),梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個(gè)功能,每個(gè)功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫數(shù)字識別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1386次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長等
    的頭像 發(fā)表于 09-17 13:31 ?1200次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進(jìn)行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概念對非專業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?960次閱讀
    如何在機(jī)器視覺中部署深度學(xué)習(xí)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對整個(gè)系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3543次閱讀

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計(jì)精度下降和對電動(dòng)機(jī)參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點(diǎn),使估計(jì)更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1392次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開
    的頭像 發(fā)表于 04-07 11:33 ?1283次閱讀