r”的一個映射,第二個數(shù)據(jù) “向/p”,神經(jīng)網(wǎng)絡學習一個 “向->p”的映射,這樣一直將訓練數(shù)據(jù)學習完,更新到最后的參數(shù),從而學習到model。" />

91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

普通神經(jīng)網(wǎng)絡MLP與RNN不得不說的秘密

智能感知與物聯(lián)網(wǎng)技術研究所 ? 2017-12-11 09:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

記錄一下RNN為什么可以記錄以前歷史信息,如何從公式中體現(xiàn)出?

那么首先介紹一下為什么普通的神經(jīng)網(wǎng)絡不能記憶以前的歷史信息,然后引出RNN的相應能力,因為如果普通的神經(jīng)網(wǎng)絡能夠記錄以前的歷史信息的話,那么也就不會有RNN思想的誕生了。

1普通神經(jīng)網(wǎng)絡(MLP)

首先我們有一個任務,就是進行詞性標注,下面有兩個訓練數(shù)據(jù)。

他向我表白我覺得他的表白不夠真誠

正確的詞性是:

那么將這些訓練數(shù)據(jù)送給神經(jīng)網(wǎng)絡進行訓練,比如第一個數(shù)據(jù) “他/r”,神經(jīng)網(wǎng)絡學習 “他->r”的一個映射,第二個數(shù)據(jù) “向/p”,神經(jīng)網(wǎng)絡學習一個 “向->p”的映射,這樣一直將訓練數(shù)據(jù)學習完,更新到最后的參數(shù),從而學習到model,但是問題來了。

學習示例圖如下:

在上面的訓練數(shù)據(jù)中,有些詞語的詞性并不是唯一的,比如“表白”一詞,在“他向我表白”這句話中作為動詞v,在“我覺得他的表白不夠真誠”這句話中作為名詞n,所以對于神經(jīng)網(wǎng)絡來說,它是會學亂的。

一下子神經(jīng)網(wǎng)絡要學習“表白”是動詞,一下子又要學習“表白”是名詞,神經(jīng)網(wǎng)絡也很無辜呀,它沒有能力來處理什么情況下應該將“表白”判別為名詞,什么情況下降“表白”判斷為動詞,因為神經(jīng)網(wǎng)絡學習不到周圍的語境。喂給神經(jīng)網(wǎng)絡的數(shù)據(jù)和之前的數(shù)據(jù)并沒有聯(lián)系。

所以我們這個時候就需要一個能夠記憶以前歷史信息的網(wǎng)絡出現(xiàn),比如在第一句話中,碰到表達一詞的時候,我知道他前面的詞是“我”/代詞,那么代詞后面的表白作為動詞的概率就遠大于名詞的表白,當然RNN還能夠看到他前面好幾個詞語,理論上rnn可以記憶當前詞語前面的任何詞。

同理在第二句話的時候,碰到“表白”一詞的時候,我們的網(wǎng)絡能夠知道他前面的詞是“的”/助詞,那么助詞后面的“表白”作為名詞的概率就遠大于動詞的”表白“。

所以我們希望能夠有一個網(wǎng)絡在預測當前任務的時候,能夠記憶以前的知識幫助當前的任務完成,這樣RNN就閃亮登場了,可能有些小伙伴會說,它存在很多問題,比如不能長期記憶,但是這篇文章不介紹,但是無論如何,RNN提供了這種問題解決的可能。

2循環(huán)神經(jīng)網(wǎng)絡記錄歷史信息RNN

首先來介紹一下RNN

首先看一個簡單的循環(huán)神經(jīng)網(wǎng)絡如,它由輸入層、一個隱藏層和一個輸出層組成:

不知道初學的同學能夠理解這個圖嗎,反正我剛開始學習的時候是懵逼的,每個結點到底代表的是一個值的輸入,還是說一層的向量結點集合,如何隱藏層又可以連接到自己,等等這些疑惑~這個圖是一個比較抽象的圖。

我們現(xiàn)在這樣來理解,如果把上面有W的那個帶箭頭的圈去掉,它就變成了最普通的全連接神經(jīng)網(wǎng)絡。x是一個向量,它表示輸入層的值(這里面沒有畫出來表示神經(jīng)元節(jié)點的圓圈);s是一個向量,它表示隱藏層的值(這里隱藏層面畫了一個節(jié)點,你也可以想象這一層其實是多個節(jié)點,節(jié)點數(shù)與向量s的維度相同);

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • rnn
    rnn
    +關注

    關注

    0

    文章

    92

    瀏覽量

    7356

原文標題:【干貨】循環(huán)神經(jīng)網(wǎng)絡(RNN)為什么能夠記憶歷史信息

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    有關充電電池不得不說的幾個問題

    有關充電電池不得不說的幾個問題 1,認識記憶效應電池記憶效應是指電池的可逆失效,即電池失效后可重新回復的性能。記憶效應是指電池長時間經(jīng)
    發(fā)表于 11-05 16:24 ?1416次閱讀

    什么是RNN (循環(huán)神經(jīng)網(wǎng)絡)?

    循環(huán)神經(jīng)網(wǎng)絡 (RNN) 是一種深度學習結構,它使用過去的信息來提高網(wǎng)絡處理當前和將來輸入的性能。RNN 的獨特之處在于該網(wǎng)絡包含隱藏狀態(tài)和
    發(fā)表于 02-29 14:56 ?5579次閱讀
    什么是<b class='flag-5'>RNN</b> (循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>)?

    遞歸神經(jīng)網(wǎng)絡RNN

    遞歸神經(jīng)網(wǎng)絡RNNRNN是最強大的模型之一,它使我們能夠開發(fā)如分類、序列數(shù)據(jù)標注、生成文本序列(例如預測下一輸入詞的SwiftKey keyboard應用程序),以及將一個序列轉換為另一個序列
    發(fā)表于 07-20 09:27

    筆記本電池不得不說秘密

    筆記本電池不得不說秘密 前段時間APPLE、DELL、SONY、HP等國際知名PC巨頭的筆記本電池紛紛出現(xiàn)了種種問題而召回原廠?今天筆者想在這里延伸
    發(fā)表于 10-28 09:18 ?648次閱讀

    筆記本電池不得不說秘密

    筆記本電池不得不說秘密      前段時間APPLE、DELL、SONY、HP等國際知名PC巨頭的筆記本電池紛紛出現(xiàn)了種種問題而召回原廠?今天筆者想在這里延
    發(fā)表于 11-10 15:02 ?583次閱讀

    循環(huán)神經(jīng)網(wǎng)絡RNN)的詳細介紹

    在循環(huán)神經(jīng)網(wǎng)絡可以用于文本生成、機器翻譯還有看圖描述等,在這些場景中很多都出現(xiàn)了RNN的身影。
    的頭像 發(fā)表于 05-11 14:58 ?1.5w次閱讀
    循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>(<b class='flag-5'>RNN</b>)的詳細介紹

    三個最流行神經(jīng)網(wǎng)絡

    在本文中,我們將了解深度神經(jīng)網(wǎng)絡的基礎知識和三個最流行神經(jīng)網(wǎng)絡:多層神經(jīng)網(wǎng)絡(MLP),卷積神經(jīng)網(wǎng)絡(CNN)和遞歸
    發(fā)表于 05-15 14:19 ?2068次閱讀
    三個最流行<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    rnn神經(jīng)網(wǎng)絡基本原理

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡)是一種具有循環(huán)結構的神經(jīng)網(wǎng)絡,它能夠處理序列數(shù)據(jù),并且能夠捕捉時間序列數(shù)據(jù)中的動態(tài)特征。RNN在自然語言處理、語
    的頭像 發(fā)表于 07-04 15:02 ?2054次閱讀

    RNN神經(jīng)網(wǎng)絡適用于什么

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡)是一種具有循環(huán)結構的神經(jīng)網(wǎng)絡,它可以處理序列數(shù)據(jù),具有記憶功能。RNN在許多領域都有廣泛的應用,以下是一些
    的頭像 發(fā)表于 07-04 15:04 ?2208次閱讀

    rnn神經(jīng)網(wǎng)絡模型原理

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡)是一種具有循環(huán)結構的神經(jīng)網(wǎng)絡,它能夠處理序列數(shù)據(jù),具有記憶功能。RNN在自然語言處理、語音識別、時間序列預測等領
    的頭像 發(fā)表于 07-04 15:40 ?1815次閱讀

    rnn是什么神經(jīng)網(wǎng)絡

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡)是一種具有循環(huán)連接的神經(jīng)網(wǎng)絡,它能夠處理序列數(shù)據(jù),并且具有記憶能力。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(Feedforward
    的頭像 發(fā)表于 07-05 09:49 ?2364次閱讀

    rnn是什么神經(jīng)網(wǎng)絡模型

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡)是一種具有循環(huán)結構的神經(jīng)網(wǎng)絡模型,它能夠處理序列數(shù)據(jù),并對序列中的元素進行建模。RNN在自然語言處理、語音識別、
    的頭像 發(fā)表于 07-05 09:50 ?2026次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡還是循環(huán)神經(jīng)網(wǎng)絡

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡,而非遞歸神經(jīng)網(wǎng)絡。循環(huán)神經(jīng)網(wǎng)絡是一種具有時間序列特性的神經(jīng)網(wǎng)絡,能
    的頭像 發(fā)表于 07-05 09:52 ?1681次閱讀

    LSTM神經(jīng)網(wǎng)絡與傳統(tǒng)RNN的區(qū)別

    在深度學習領域,循環(huán)神經(jīng)網(wǎng)絡RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關注。然而,傳統(tǒng)RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 11-13 09:58 ?1952次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡的區(qū)別

    神經(jīng)網(wǎng)絡是機器學習領域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術的發(fā)展,神經(jīng)網(wǎng)絡的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?2317次閱讀