91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

長短時記憶網(wǎng)絡(luò)(LSTM)介紹

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2022-02-14 14:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

長短時記憶網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)很難訓(xùn)練的原因?qū)е滤膶嶋H應(yīng)用中很處理長距離的依賴。本文將介紹改進后的循環(huán)神經(jīng)網(wǎng)絡(luò):長短時記憶網(wǎng)絡(luò)(Long Short Term Memory Network, LSTM),

原始RNN的隱藏層只有一個狀態(tài),即h,它對于短期的輸入非常敏感。那么如果我們再增加一個狀態(tài),即c,讓它來保存長期的狀態(tài),這就是長短時記憶網(wǎng)絡(luò)。

pIYBAGAISreAdMcwAAApJFPBAYY877.png

新增加的狀態(tài)c,稱為單元狀態(tài)。我們把上圖按照時間維度展開:

o4YBAGAISvWAckC2AABA0INGCCg320.png

可以看到在 t 時刻,LSTM的輸入有三個:當(dāng)前時刻網(wǎng)絡(luò)的輸出值 xt 、上一時刻LSTM的輸出值 ht?1、以及上一時刻的單元狀態(tài) ct?1;LSTM的輸出有兩個:當(dāng)前時刻LSTM輸出值 ht 、和當(dāng)前時刻的單元狀態(tài) xt 。注意 x、h、c 都是向量。

LSTM的關(guān)鍵,就是怎樣控制長期狀態(tài)c。在這里,LSTM的思路是使用三個控制開關(guān)。第一個開關(guān),負責(zé)控制繼續(xù)保存長期狀態(tài)c;第二個開關(guān),負責(zé)控制把即時狀態(tài)輸入到長期狀態(tài)c;第三個開關(guān),負責(zé)控制是否把長期狀態(tài)c作為當(dāng)前的LSTM的輸出。三個開關(guān)的作用如下圖所示:

o4YBAGAISzSAaVGLAABdnag0k6w525.png

接下來我們要描述一下,輸出h和單元狀態(tài)c的具體計算方法。

長短時記憶網(wǎng)絡(luò)的前向計算

我們引入“門(gate)”的概念。門實際上就是一層全連接層,它的輸入是一個向量,輸出是一個0到1之間的實數(shù)向量。假設(shè)W是門的權(quán)重向量,b是偏置項,那么門可以表示為:

pIYBAGAIS3GAM73JAAAE1R52yfQ997.png

門的輸出是0到1之間的實數(shù)向量,用門向量的輸出向量按元素乘以我們需要控制的那個向量,當(dāng)門輸出為0時,任何向量與之相乘都會得到0向量,這就相當(dāng)于啥都不能通過;輸出為1時,任何向量與之相乘都不會有任何改變,這就相當(dāng)于啥都可以通過。因為σ(也就是sigmoid函數(shù))的值域是(0,1),所以門的狀態(tài)都是半開半閉的。

LSTM用兩個門來控制單元狀態(tài) c 的內(nèi)容,一個是遺忘門,它決定了上一時刻的單元狀態(tài) t?1 有多少保留到當(dāng)前時刻 ct ;另外一個是輸出門,他決定了當(dāng)前時刻網(wǎng)絡(luò)的輸入 xt 有多少保存到單元狀態(tài) ct 。LSTM用輸出門來控制單元狀態(tài) ct 有多少輸出到LSTM的當(dāng)前輸出值 ht 。LSTM用輸出門來控制單元狀態(tài) ct 有多少輸出到LSTM的當(dāng)前輸出值ht。

遺忘門的表達式是:

o4YBAGAIS6-AYA5JAAAIumgvVIE262.png

上式中,Wf 是遺忘門的權(quán)重矩陣,ht?1 , xt 表示把兩個向量連接成一個更長的向量,bf 是遺忘門的偏置項,σ是sigmoid函數(shù)。如果輸入的維度是dx,隱藏層的維度是 dh,單元狀態(tài)的維度是 dc( d_c = d_h ),則遺忘門的權(quán)重矩陣 Wf維度是 dcx(dh + dx ) 。事實上,權(quán)重矩陣 Wf 都是兩個矩陣拼接而成的:一個是Wfh,它對應(yīng)著輸入項 ht?1 ,其維度為 dcxdh;一個是Wfx,它對應(yīng)著輸入項 xt ,其維度為dcxdx。Wf 可以寫為:

o4YBAGAIS-6AeeUqAAAL40brfDE660.png

下圖顯示了遺忘門的計算:

pIYBAGAITCyABllyAAAx2gXi2VE706.png

接下來看看輸入門:

o4YBAGAITIiAHl-MAAAHBHhgbW4336.png

上式中,Wi 是輸入門的權(quán)重矩陣,$b_i$是輸入門的偏置項。下圖表示了輸入門的計算:

o4YBAGAITMaAdJusAAAyyP2YpDE827.png

接下來,我們計算用于描述當(dāng)前輸入的單元狀態(tài)o4YBAGAITQOAJV-JAAABTWl_Do0900.png,它是根據(jù)上一次的輸出和本次輸入來計算的:

pIYBAGAITUCAbLH_AAAHg-93rGk067.png

下圖是o4YBAGAITQOAJV-JAAABTWl_Do0900.png的計算:

pIYBAGAITbyAS2F0AAA3Ixp84xY912.png

現(xiàn)在,我們計算當(dāng)前時刻的單元狀態(tài) ct。它是由上一次的單元狀態(tài) ct?1 按元素乘以遺忘門 ft ,再用當(dāng)前輸入的單元狀態(tài)o4YBAGAITQOAJV-JAAABTWl_Do0900.png按元素乘以輸入門 it ,再將兩個積加和產(chǎn)生的:

pIYBAGAITjmACK0WAAAFHe049mE332.png

符號O表示按元素乘。下圖是 ct 的計算:

o4YBAGAITneAe4ZGAABC5iL1jv8396.png

這樣,我們就把LSTM關(guān)于當(dāng)前的記憶o4YBAGAITQOAJV-JAAABTWl_Do0900.png和長期的記憶 ct?1 組合在一起,形成了新的單元狀態(tài) ct 。由于遺忘門的控制,它可以保存很久很久之前的信息,由于輸入門的控制,它又可以避免當(dāng)前無關(guān)緊要的內(nèi)容進入記憶。下面,我們要看看輸出門,它控制了長期記憶對當(dāng)前輸出的影響:

o4YBAGAITvKAWwfGAAAG4I3NkQk500.png

下面表示輸出門的計算:

o4YBAGAITzCAeFFvAABFRWC5uO8185.png

LSTM最終的輸出,是由輸出門和單元狀態(tài)共同確定的:

pIYBAGAIT3SAbXpiAAAFYp4ak90425.png

下圖表示LSTM最終輸出的計算:

o4YBAGAIT7KARwrFAABL8irwcA4091.png

式1到式6就是LSTM前向計算的全部公式。至此,我們就把LSTM前向計算講完了。

長短時記憶網(wǎng)絡(luò)的訓(xùn)練

LSTM訓(xùn)練算法框架

LSTM的訓(xùn)練算法仍然是反向傳播算法,對于這個算法,我們已經(jīng)非常熟悉了。主要有下面三個步驟:

1、前向計算每個神經(jīng)元的輸出值,對于LSTM來說,即 ft、it、ct、ot、ht 五個向量的值。計算方法已經(jīng)在上一節(jié)中描述過了。

2、反向計算每個神經(jīng)元的誤差項δ值。與循環(huán)神經(jīng)網(wǎng)絡(luò)一樣,LSTM誤差項的反向傳播也是包括兩個方向:一個是沿時間的反向傳播,即從當(dāng)前t時刻開始,計算每個時刻的誤差項;一個是將誤差項向上一層傳播。

3、根據(jù)相應(yīng)的誤差項,計算每個權(quán)重的梯度。

作者:凌逆戰(zhàn)
來源:博客園
原文鏈接:https://www.cnblogs.com/LXP-Never/p/10398531.html

審核編輯:何安

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Evermind AI 研發(fā)三階段 AI 記憶存儲提取架構(gòu)

    近日,由盛大集團全資孵化的AI技術(shù)團隊EverMind,正式對外系統(tǒng)性地展示AI記憶操作系統(tǒng)——EverMemOS,最新版本在四大記憶基準上實現(xiàn)了最先進(SOTA)準確率。 EverMemOS:打破
    的頭像 發(fā)表于 03-04 15:21 ?136次閱讀

    Evermem 突破大模型記憶瓶頸實現(xiàn)低耗高效

    由陳天橋和鄧亞峰帶隊的EverMind最新發(fā)布世界級長期記憶系統(tǒng)——EverMemOS,即SOTA,一舉打破多項記憶基準測試的同時,還能遠超此前所有的基線方法。 其次,它是真正能用的。 不是只會跑
    的頭像 發(fā)表于 03-03 13:44 ?104次閱讀
    Evermem 突破大模型<b class='flag-5'>記憶</b>瓶頸實現(xiàn)低耗高效

    海洋生物實驗室利用AI和虛擬現(xiàn)實探索人類記憶

    位于馬薩諸塞州的實驗室正在利用 NVIDIA RTX GPU、HP Z 工作站和虛擬現(xiàn)實技術(shù)研究人類記憶功能的分子機制。
    的頭像 發(fā)表于 01-20 09:30 ?628次閱讀

    DeepSeek開源Engram:讓大模型擁有&quot;過目不忘&quot;的類腦記憶

    of Sparsity for Large Language Models》,并同步開源記憶模塊Engram。這一機制通過可擴展查找結(jié)構(gòu),讓大模型實現(xiàn)O(1)時間復(fù)雜度的"條件反射式"記憶檢索,被業(yè)界視為破解
    的頭像 發(fā)表于 01-14 16:07 ?294次閱讀
    DeepSeek開源Engram:讓大模型擁有&quot;過目不忘&quot;的類腦<b class='flag-5'>記憶</b>

    單片機Io口檢測到高電平的最短時間是多少?

    請教一下大神單片機Io口檢測到高電平的最短時間是多少?
    發(fā)表于 01-14 08:20

    一鍵開啟涂鴉OmniMem:打通跨設(shè)備記憶壁壘,實現(xiàn)毫秒級高精度召回

    當(dāng)AI仍受困于“聊完就忘”的記憶難題,重復(fù)提問成為交互中難以擺脫的低效循環(huán);當(dāng)不同智能設(shè)備間的記憶割裂,玩具、家電、音箱各存“碎片化記憶”,導(dǎo)致用戶不得不在不同設(shè)備間反復(fù)配置、重復(fù)表達。用戶要的不是
    的頭像 發(fā)表于 12-17 18:11 ?375次閱讀
    一鍵開啟涂鴉OmniMem:打通跨設(shè)備<b class='flag-5'>記憶</b>壁壘,實現(xiàn)毫秒級高精度召回

    一文讀懂LSTM與RNN:從原理到實戰(zhàn),掌握序列建模核心技術(shù)

    在AI領(lǐng)域,文本翻譯、語音識別、股價預(yù)測等場景都離不開序列數(shù)據(jù)處理。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)作為最早的序列建模工具,開創(chuàng)了“記憶歷史信息”的先河;而長短記憶
    的頭像 發(fā)表于 12-09 13:56 ?1384次閱讀
    一文讀懂<b class='flag-5'>LSTM</b>與RNN:從原理到實戰(zhàn),掌握序列建模核心技術(shù)

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    ST AEKD-AICAR1:基于邊緣AI的汽車狀態(tài)分類開發(fā)套件解析

    STMicroelectronics AEKD-AICAR1車用AI套件基于長短記憶 (LSTM) 循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN)。該套件提供汽車狀態(tài)分類:汽車停車、普通道路行車、崎嶇道路
    的頭像 發(fā)表于 10-28 14:40 ?595次閱讀
    ST AEKD-AICAR1:基于邊緣AI的汽車狀態(tài)分類開發(fā)套件解析

    能源管理平臺在光電、儲能等新能源領(lǐng)域有什么應(yīng)用

    ,最大化光伏價值 實時監(jiān)控與預(yù)測優(yōu)化 能源管理平臺通過物聯(lián)網(wǎng)技術(shù)實時采集光伏電站的發(fā)電數(shù)據(jù)(如逆變器效率、發(fā)電量),結(jié)合氣象數(shù)據(jù)和歷史發(fā)電記錄,利用AI算法(如LSTM神經(jīng)網(wǎng)絡(luò))進行短時、超
    的頭像 發(fā)表于 10-20 17:29 ?639次閱讀

    記憶科技亮相2025云棲大會

    9月24日,以“云智一體·碳硅共生”為主題的2025云棲大會在杭州云棲小鎮(zhèn)隆重開幕。記憶科技作為IT硬件領(lǐng)域國內(nèi)領(lǐng)先的品牌部件提供商,受邀出席本次盛會,并攜全棧產(chǎn)品矩陣亮相展區(qū),全面展示其在服務(wù)器主板及整機、內(nèi)存、固態(tài)存儲及智能卡等領(lǐng)域的創(chuàng)新成果,為云計算與AI應(yīng)用提供先進的解決方案與技術(shù)支撐。
    的頭像 發(fā)表于 09-28 17:20 ?3150次閱讀

    CYW20829在ESL場景下,event和Subevent時間長短的設(shè)置是什么?

    CYW20829在ESL上的應(yīng)用問題,還望您能幫忙指導(dǎo)下,謝謝。 1. ESL場景下,event和Subevent時間長短的設(shè)置是什么?現(xiàn)在您那里已經(jīng)支持的產(chǎn)品,他們設(shè)置的周期是多少?帶載數(shù)量多少?低功耗特性
    發(fā)表于 07-07 07:32

    基于CAN的娛樂車通信網(wǎng)絡(luò)RV-C介紹

    電子發(fā)燒友網(wǎng)站提供《基于CAN的娛樂車通信網(wǎng)絡(luò)RV-C介紹.pdf》資料免費下載
    發(fā)表于 04-19 17:01 ?2次下載

    記憶示波器校準儀能校準哪些參數(shù)?

    記憶示波器校準儀是一種綜合性電子計量標準儀器,能夠校準記憶示波器的多項關(guān)鍵參數(shù),主要包括以下方面:1. 垂直系統(tǒng)參數(shù) 幅度校準:通過標準信號源輸出精確電壓,校準示波器的垂直靈敏度,確保幅度測量準確
    發(fā)表于 04-11 14:05

    智能計算新紀元:具記憶功能的晶體管問世

    。隨著數(shù)字數(shù)據(jù)的急劇增長,這種方法變得不可持續(xù)。來自約翰霍普金斯大學(xué)的研究團隊發(fā)現(xiàn)了一種新型記憶電阻器(memristor),能夠擁有更豐富的記憶,提升其效率。該研究
    的頭像 發(fā)表于 03-11 11:34 ?809次閱讀
    智能計算新紀元:具<b class='flag-5'>記憶</b>功能的晶體管問世