91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

如意 ? 來源: 人工智能遇見磐創(chuàng) ? 作者: 人工智能遇見磐創(chuàng) ? 2020-07-05 11:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

什么是神經(jīng)網(wǎng)絡(luò)激活函數(shù)?

激活函數(shù)有助于決定我們是否需要激活神經(jīng)元。如果我們需要發(fā)射一個神經(jīng)元那么信號的強度是多少。

激活函數(shù)是神經(jīng)元通過神經(jīng)網(wǎng)絡(luò)處理和傳遞信息的機制

為什么在神經(jīng)網(wǎng)絡(luò)中需要一個激活函數(shù)?

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

在神經(jīng)網(wǎng)絡(luò)中,z是輸入節(jié)點與節(jié)點權(quán)值加上偏差的乘積。z的方程與線性方程非常相似,取值范圍從+∞到-∞

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

如果神經(jīng)元的值可以從負(fù)無窮到正無窮變化,那么我們就無法決定是否需要激活神經(jīng)元。這就是激活函數(shù)幫助我們解決問題的地方。

如果z是線性的,那么我們就不能解決復(fù)雜的問題。這是我們使用激活函數(shù)的另一個原因。

有以下不同類型的激活函數(shù)

閥值函數(shù)或階梯激活函數(shù)

Sigmoid

Softmax

Tanh或雙曲正切

ReLU

Leaky ReLU

為什么我們需要這么多不同的激活函數(shù),我怎么決定用哪一個呢?

讓我們回顧一下每一個激活函數(shù),并了解它們的最佳使用位置和原因。這將幫助我們決定在不同的場景中使用哪個激活函數(shù)。

閥值函數(shù)或階梯激活函數(shù)

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

這是最簡單的函數(shù)

如果z值高于閾值,則激活設(shè)置為1或yes,神經(jīng)元將被激活。

如果z值低于閾值,則激活設(shè)置為0或no,神經(jīng)元不會被激活。

它們對二分類很有用?!?/p>

Sigmoid激活函數(shù)

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

Sigmoid函數(shù)是一種光滑的非線性函數(shù),無扭結(jié),形狀類似于S形。

它預(yù)測輸出的概率,因此被用于神經(jīng)網(wǎng)絡(luò)和邏輯回歸的輸出層。

由于概率范圍在0到1之間,所以sigmoid函數(shù)值存在于0到1之間。

但是如果我們想分類更多的是或不是呢?如果我想預(yù)測多個類,比如預(yù)測晴天、雨天或陰天,該怎么辦?

Softmax激活有助于多類分類

Softmax激活函數(shù)

Sigmoid激活函數(shù)用于兩類或二類分類,而softmax用于多類分類,是對Sigmoid函數(shù)的一種推廣。

在softmax中,我們得到了每個類的概率,它們的和應(yīng)該等于1。當(dāng)一個類的概率增大時,其他類的概率減小,因此概率最大的類是輸出類。

例如:在預(yù)測天氣時,我們可以得到輸出概率,晴天為0.68,陰天為0.22,雨天為0.20。在這種情況下,我們以最大概率的輸出作為最終的輸出。在這種情況下我們預(yù)測明天將是晴天。

Softmax計算每個目標(biāo)類的概率除以所有可能的目標(biāo)類的概率。

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

雙曲正切或Tanh激活函數(shù)

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

對于雙曲tanh函數(shù),輸出以0為中心,輸出范圍在-1和+1之間。

看起來很像Sigmoid。實際上雙曲tanh是縮放的s形函數(shù)。與Sigmoid相比,tanh的梯度下降作用更強,因此比Sigmoid更受歡迎。

tanh的優(yōu)點是,負(fù)輸入將被映射為強負(fù),零輸入將被映射為接近零,這在sigmoid中是不會發(fā)生的,因為sigmoid的范圍在0到1之間

ReLU

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

ReLU本質(zhì)上是非線性的,這意味著它的斜率不是常數(shù)。Relu在0附近是非線性的,但斜率不是0就是1,因此具有有限的非線性。

范圍是從0到∞

當(dāng)z為正時,ReLU的輸出與輸入相同。當(dāng)z為0或小于0時,輸出為0。因此,當(dāng)輸入為0或低于0時,ReLU會關(guān)閉神經(jīng)元。

所有的深度學(xué)習(xí)模型都使用Relu,但由于Relu的稀疏性,只能用于隱含層。稀疏性指的是空值或“NA”值的數(shù)量。

當(dāng)隱層暴露于一定范圍的輸入值時,RELU函數(shù)將導(dǎo)致更多的零,從而導(dǎo)致更少的神經(jīng)元被激活,這將意味著更少的神經(jīng)網(wǎng)絡(luò)交互作用。

ReLU比sigmoid或tanh更積極地打開或關(guān)閉神經(jīng)元

Relu的挑戰(zhàn)在于,負(fù)值變?yōu)榱憬档土四P驼_訓(xùn)練數(shù)據(jù)的能力。為了解決這個問題,我們有Leaky ReLU

Leaky ReLU

圖文詳解:神經(jīng)網(wǎng)絡(luò)的激活函數(shù)

a的值通常是0.01

在Leaky ReLU中,我們引入了一個小的負(fù)斜率,所以它的斜率不是0。這有助于加快訓(xùn)練。

Leaky ReLU的范圍從-∞到+∞

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107724
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4417

    瀏覽量

    67494
  • 神經(jīng)元
    +關(guān)注

    關(guān)注

    1

    文章

    369

    瀏覽量

    19164
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?316次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識

    激活函數(shù)ReLU的理解與總結(jié)

    激活函數(shù)的作用 神經(jīng)網(wǎng)絡(luò)中使用激活函數(shù)來加入非線性因素,提高模型的表達能力。 如果不用激勵函數(shù)
    發(fā)表于 10-31 06:16

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時的梯度耗散問題。當(dāng)x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSISI庫的使用

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   
    發(fā)表于 10-29 07:07

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    , batch_size=512, epochs=20)總結(jié) 這個核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過程,是用來對MNIST手寫數(shù)字圖像進行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進行分類預(yù)測。訓(xùn)練過程中,模型通過最小化損失函數(shù)來優(yōu)化
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1194次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓(xùn)練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1115次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計算與加速技術(shù)

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3465次閱讀

    無刷電機小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機轉(zhuǎn)速估計中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者MATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1186次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計數(shù)據(jù)怎么查看?

    無法觀察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計數(shù)據(jù)
    發(fā)表于 03-06 07:10