91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工神經(jīng)網(wǎng)絡(luò)和生物神經(jīng)網(wǎng)絡(luò)到底有多像

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-11-17 09:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)已經(jīng)成為大眾媒體的熱門主題。智能機(jī)器這一想法勾起了很多人的想象,而且人們特別喜歡把它和人類放一起比較。特別是有一個(gè)關(guān)于人工智能的底層機(jī)制的基礎(chǔ)問(wèn)題經(jīng)常出現(xiàn)——這些人工神經(jīng)網(wǎng)絡(luò)的工作方式真的和我們大腦中的神經(jīng)元相似嗎?

Tl;Dr

不。盡管從高層概念上說(shuō),ANN(人工神經(jīng)網(wǎng)絡(luò))受到了大腦中的神經(jīng)元和神經(jīng)網(wǎng)絡(luò)的啟發(fā),但這些概念的ML實(shí)現(xiàn)和大腦的工作方式大有徑庭。不僅如此,隨著這些年來(lái)ML領(lǐng)域的進(jìn)展,新的復(fù)雜想法和技術(shù)的提出(RNN、GAN等)——這一聯(lián)系進(jìn)一步削弱了。

關(guān)鍵相似點(diǎn)

前饋全連接網(wǎng)絡(luò)的高層架構(gòu)和一般原則體現(xiàn)了人工神經(jīng)網(wǎng)絡(luò)和大腦中的神經(jīng)網(wǎng)絡(luò)的相似性。

從高層看,大腦的神經(jīng)元由三部分組成:

樹(shù)突(輸入機(jī)制)—— 通過(guò)突觸接受輸入的樹(shù)狀結(jié)構(gòu)。輸入可能是來(lái)自感覺(jué)神經(jīng)細(xì)胞的感覺(jué)輸入,也可能是來(lái)自其他神經(jīng)細(xì)胞的“計(jì)算”輸入。單個(gè)細(xì)胞可以有多達(dá)10萬(wàn)輸入(每個(gè)來(lái)自不同的細(xì)胞)。

胞體(計(jì)算機(jī)制)—— 細(xì)胞體收集所有樹(shù)突的輸入,并基于這些信號(hào)決定是否激活輸出(脈沖)。這是一個(gè)概括性的說(shuō)法,因?yàn)橛行┯?jì)算在傳入胞體前就完成了(在樹(shù)突結(jié)構(gòu)中編碼)。

軸突(輸出機(jī)制)—— 一旦胞體決定是否激活輸出信號(hào)(也就是激活細(xì)胞),軸突負(fù)責(zé)傳輸信號(hào),通過(guò)末端的樹(shù)狀結(jié)構(gòu)將信號(hào)以脈沖連接傳遞給下一層神經(jīng)元的樹(shù)突。

類似地,ANN中也有等價(jià)的結(jié)構(gòu):

輸入連接—— 每個(gè)神經(jīng)元接受一組輸入,或者來(lái)自輸入層(等價(jià)于感覺(jué)輸入),或者來(lái)自網(wǎng)絡(luò)中前一層的神經(jīng)元。

線性計(jì)算和激活函數(shù)—— 這些“累加”輸入,接著非線性地決定是否激活神經(jīng)元。

輸出連接—— 這些傳遞激活信號(hào)至網(wǎng)絡(luò)中下一層的神經(jīng)元。

類似地,卷積神經(jīng)網(wǎng)絡(luò)借鑒了視覺(jué)通路。很酷的一件事情是,CNN原本主要借鑒的是架構(gòu)(對(duì)應(yīng)特定形狀或模式的較小的核/過(guò)濾器,每次應(yīng)用于較小的區(qū)域)。然而,多年之后,當(dāng)ML研究人員開(kāi)發(fā)了新的可視化CNN隱藏層的技術(shù)后,人們發(fā)現(xiàn)CNN表示圖像的方式和視皮層的層次表示十分類似——從表示簡(jiǎn)單模式的第一層開(kāi)始,較深的層復(fù)合出復(fù)雜形狀和對(duì)象。

可塑性—— 大腦的獨(dú)特性質(zhì)之一,學(xué)習(xí)和記憶得以成立的關(guān)鍵特性。大腦基于經(jīng)歷創(chuàng)建新的脈沖連接,廢棄舊的脈沖連接,加強(qiáng)或削弱現(xiàn)有的連接??伤苄陨踔猎趩蝹€(gè)神經(jīng)元中起作用——影響它的電磁行為,以及對(duì)特定輸入作出回應(yīng)觸發(fā)激活的趨向。

可塑性這一想法是訓(xùn)練ANN的關(guān)鍵原則——基于批次輸入迭代修改網(wǎng)絡(luò)參數(shù)(權(quán)重)。最近,元學(xué)習(xí)領(lǐng)域的進(jìn)展將ANN中可塑性的應(yīng)用范圍從參數(shù)拓展到超參數(shù)乃至整個(gè)模型。

關(guān)鍵區(qū)別

大腦神經(jīng)元的復(fù)雜性和魯棒性要比人工神經(jīng)元復(fù)雜強(qiáng)大得多。這不僅體現(xiàn)在神經(jīng)元的數(shù)量及每個(gè)神經(jīng)元的樹(shù)突數(shù)量上——比我們現(xiàn)在的ANN高出若干數(shù)量級(jí),還體現(xiàn)在單個(gè)神經(jīng)元的內(nèi)部復(fù)雜性上:和人工神經(jīng)元相比,神經(jīng)元的化學(xué)和電學(xué)機(jī)制精細(xì)得多,也強(qiáng)健得多。例如,神經(jīng)元不是零電位差的——細(xì)胞的不同區(qū)域可能具有不同的電位,有不同的電流通過(guò)。這讓單個(gè)神經(jīng)元可以進(jìn)行非線性運(yùn)算,識(shí)別隨著時(shí)間發(fā)生的變動(dòng)(例如,移動(dòng)的目標(biāo)),或者將不同的區(qū)域并行映射至不同的樹(shù)突區(qū)域——這樣整個(gè)細(xì)胞就可以完成復(fù)雜的復(fù)合任務(wù)。和非常簡(jiǎn)單的人造神經(jīng)元相比,這些都是高級(jí)很多的結(jié)構(gòu)和能力。

實(shí)現(xiàn)—— 大腦中的神經(jīng)元是以非常復(fù)雜和精細(xì)的機(jī)制實(shí)現(xiàn)的,可以進(jìn)行非常復(fù)雜的非線性計(jì)算:

信號(hào)在神經(jīng)元突觸間隙中的化學(xué)傳播,是通過(guò)神經(jīng)遞質(zhì)和感受器完成的,并由各種興奮和抑制元素放大。

基于復(fù)雜的時(shí)空電磁波推斷邏輯,興奮/抑制性突觸后電位構(gòu)建了動(dòng)作電位。

離子通道和微電位差控制脈沖的觸發(fā),細(xì)胞體中的脈沖將沿著軸突傳播。

大量我們尚未理解的機(jī)制……

和這些相比,ANN中使用的參數(shù)、權(quán)重、線性函數(shù)、激活函數(shù)十分簡(jiǎn)單粗暴。

在此之上,大腦中的神經(jīng)元的整體架構(gòu)要比大多數(shù)ANN復(fù)雜得多,特別是和常見(jiàn)的前饋網(wǎng)絡(luò)相比(前饋網(wǎng)絡(luò)的每一層只和前一層、后一層連接)。不過(guò),即使是和多層RNN或者殘差網(wǎng)絡(luò)相比,大腦中的神經(jīng)元網(wǎng)絡(luò)也是不可思議地復(fù)雜,在許多方向上有著數(shù)萬(wàn)跨“層”、跨區(qū)域的樹(shù)突。

另一方面,大腦不太可能使用反向傳播這樣的方法——基于誤差函數(shù)的偏導(dǎo)數(shù)上的鏈?zhǔn)椒▌t。

能源消耗—— 大腦是一個(gè)極端高效的計(jì)算機(jī),差不多十瓦左右,約為單個(gè)CPU能耗的三分之一。

GAN、RL、RNN等新進(jìn)展—— 在ML的理論和應(yīng)用上,都不斷涌現(xiàn)新的想法和創(chuàng)新。這些都不再基于大腦的工作機(jī)制。它們也許受到了大腦的啟發(fā),或者人類行為的啟發(fā),但在許多方面,現(xiàn)在的ML方面的研究和工作過(guò)著屬于自己的生活——迎接自身的挑戰(zhàn),追尋自身的機(jī)遇。

大腦是持續(xù)的靈感來(lái)源

盡管有上面列出的這些不同,ML研究仍然不斷將大腦列為靈感來(lái)源,因?yàn)榇竽X比我們現(xiàn)有的計(jì)算設(shè)備要強(qiáng)健和高效太多。認(rèn)識(shí)人工神經(jīng)網(wǎng)絡(luò)和大腦的差距,以及關(guān)于大腦機(jī)制的研究,激發(fā)了一些最激動(dòng)人心也最具挑戰(zhàn)性的ML近期研究。例如:

能效—— 如前所述,大腦的神經(jīng)元和連接數(shù)量比我們創(chuàng)建的任何ANN都要大上若干數(shù)量級(jí),但它消耗的能量卻要少若干數(shù)量級(jí)。這是一個(gè)很活躍的研究領(lǐng)域,包括基于DNA和其他分子的生物網(wǎng)絡(luò),以及試圖模仿神經(jīng)元和突觸的神經(jīng)形態(tài)(neuromorphic)電子開(kāi)關(guān)。

從很小的訓(xùn)練樣本集學(xué)習(xí)—— 最有可能是通過(guò)一些內(nèi)置的模型,這些模型對(duì)物理法則、心理學(xué)、因果關(guān)系和其他決定地球上的決策和行動(dòng)的規(guī)則有一些“直覺(jué)上的”理解。和現(xiàn)有的通用白板神經(jīng)網(wǎng)絡(luò)相比,這些加速了學(xué)習(xí),并能指導(dǎo)預(yù)測(cè)/行動(dòng)。

釋放無(wú)監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的威力—— 無(wú)監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)是AI的“暗能量”。物理上,暗能量占據(jù)了我們的宇宙的大部分,而我們對(duì)其知之甚少。與此類似,很明顯我們的大腦主要通過(guò)無(wú)監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的方式進(jìn)行學(xué)習(xí)。而當(dāng)前的大部分ML應(yīng)用使用監(jiān)督學(xué)習(xí)。解開(kāi)這一謎題是構(gòu)建能像人類一樣學(xué)習(xí)的機(jī)器的關(guān)鍵。

新的方法和架構(gòu)。例如,嗅覺(jué)背后的神經(jīng)系統(tǒng),可以為新的ML方法提供靈感,處理現(xiàn)有方法無(wú)法很好應(yīng)對(duì)的一些問(wèn)題。

最后,這當(dāng)然不可能是一個(gè)全面的答案,明顯還有很多我沒(méi)提到的相似性和區(qū)別。例如,來(lái)自多倫多的Blake Richards做了一個(gè)很棒的簡(jiǎn)短演講:從一個(gè)新穎獨(dú)特的角度陳述了大腦和深度學(xué)習(xí)在原則上的相似性。事實(shí)上,這一問(wèn)題是我們的時(shí)代最激動(dòng)人心、最復(fù)雜、進(jìn)展最快的兩個(gè)研究領(lǐng)域的交匯之處,所以你可以期望在未來(lái)我們會(huì)了解更多。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:人工神經(jīng)網(wǎng)絡(luò)真的像神經(jīng)元一樣工作嗎?

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開(kāi)深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大
    的頭像 發(fā)表于 12-17 15:05 ?337次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽(tīng)到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱為CNN,是一種專門用來(lái)處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見(jiàn),因?yàn)閳D像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2083次閱讀
    自動(dòng)駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問(wèn)題。當(dāng)x&gt;0 時(shí),梯度恒為1,無(wú)梯度耗散問(wèn)題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開(kāi)發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫(xiě)數(shù)字識(shí)別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)器內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過(guò) readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲(chóng)的
    的頭像 發(fā)表于 09-28 10:03 ?1243次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+神經(jīng)形態(tài)計(jì)算、類腦芯片

    奇妙的突觸結(jié)構(gòu),多個(gè)分支,承載著多個(gè)突觸群,使復(fù)雜網(wǎng)絡(luò)的通信和處理成為可能。 不同的神經(jīng)網(wǎng)絡(luò) 五、自選波類腦芯片 書(shū)里的內(nèi)容越來(lái)越燒腦了, 需要不斷的學(xué)習(xí)才能理解 加油吧少年
    發(fā)表于 09-17 16:43

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1137次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對(duì)整個(gè)系統(tǒng)性能和能效何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3478次閱讀

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問(wèn)題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡(jiǎn)單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開(kāi)發(fā)。但是MRAS仍存在在低速區(qū)速度估計(jì)精度下降和對(duì)電動(dòng)機(jī)參數(shù)變化非常敏感的問(wèn)題。本文利用神經(jīng)網(wǎng)絡(luò)的特點(diǎn),使估計(jì)更為簡(jiǎn)單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過(guò)python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1236次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開(kāi)
    的頭像 發(fā)表于 04-07 11:33 ?1198次閱讀