91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度學習:神經網絡和函數(shù)

新機器視覺 ? 來源:人工智能與算法學習 ? 作者:人工智能與算法學 ? 2022-04-07 10:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

據報道稱,由于采用基于云的技術和在大數(shù)據中使用深度學習系統(tǒng),深度學習的使用在過去十年中迅速增長,預計到 2028 年,深度學習的市場規(guī)模將達到 930 億美元。但究竟什么是深度學習,它是如何工作的?深度學習是機器學習的一個子集,它使用神經網絡來執(zhí)行學習和預測。深度學習在各種任務中都表現(xiàn)出了驚人的表現(xiàn),無論是文本、時間序列還是計算機視覺。深度學習的成功主要來自大數(shù)據的可用性和計算能力。然而,不僅如此,這使得深度學習遠遠優(yōu)于任何經典的機器學習算法。

深度學習:神經網絡和函數(shù)

神經網絡是一個相互連接的神經元網絡,每個神經元都是一個有限函數(shù)逼近器。這樣,神經網絡被視為通用函數(shù)逼近器。如果你還記得高中的數(shù)學,函數(shù)就是從輸入空間到輸出空間的映射。一個簡單的 sin(x) 函數(shù)是從角空間(-180° 到 180° 或 0° 到 360°)映射到實數(shù)空間(-1 到 1)。 讓我們看看為什么神經網絡被認為是通用函數(shù)逼近器。每個神經元學習一個有限的函數(shù):f(.) = g(W*X) 其中 W 是要學習的權重向量,X 是輸入向量,g(.) 是非線性變換。W*X 可以可視化為高維空間(超平面)中的一條線(正在學習),而 g(.) 可以是任何非線性可微函數(shù),如 sigmoid、tanh、ReLU 等(常用于深度學習領域)。在神經網絡中學習無非就是找到最佳權重向量 W。例如,在 y = mx+c 中,我們有 2 個權重:m 和 c?,F(xiàn)在,根據 2D 空間中點的分布,我們找到滿足某些標準的 m & c 的最佳值:對于所有數(shù)據點,預測 y 和實際點之間的差異最小。

層的效果

現(xiàn)在每個神經元都是一個非線性函數(shù),我們將幾個這樣的神經元堆疊在一個「層」中,每個神經元接收相同的一組輸入但學習不同的權重 W。因此,每一層都有一組學習函數(shù):[f1, f2, …, fn],稱為隱藏層值。這些值再次組合,在下一層:h(f1, f2, ..., fn) 等等。這樣,每一層都由前一層的函數(shù)組成(類似于 h(f(g(x))))。已經表明,通過這種組合,我們可以學習任何非線性復函數(shù)。 深度學習是具有許多隱藏層(通常 > 2 個隱藏層)的神經網絡。但實際上,深度學習是從層到層的函數(shù)的復雜組合,從而找到定義從輸入到輸出的映射的函數(shù)。例如,如果輸入是獅子的圖像,輸出是圖像屬于獅子類的圖像分類,那么深度學習就是學習將圖像向量映射到類的函數(shù)。類似地,輸入是單詞序列,輸出是輸入句子是否具有正面/中性/負面情緒。因此,深度學習是學習從輸入文本到輸出類的映射:中性或正面或負面。

深度學習作為插值

從生物學的解釋來看,人類通過逐層解釋圖像來處理世界的圖像,從邊緣和輪廓等低級特征到對象和場景等高級特征。神經網絡中的函數(shù)組合與此一致,其中每個函數(shù)組合都在學習關于圖像的復雜特征。用于圖像的最常見的神經網絡架構是卷積神經網絡 (CNN),它以分層方式學習這些特征,然后一個完全連接的神經網絡將圖像特征分類為不同的類別。 通過再次使用高中數(shù)學,給定一組 2D 數(shù)據點,我們嘗試通過插值擬合曲線,該曲線在某種程度上代表了定義這些數(shù)據點的函數(shù)。我們擬合的函數(shù)越復雜(例如在插值中,通過多項式次數(shù)確定),它就越適合數(shù)據;但是,它對新數(shù)據點的泛化程度越低。這就是深度學習面臨挑戰(zhàn)的地方,也就是通常所說的過度擬合問題:盡可能地擬合數(shù)據,但在泛化方面有所妥協(xié)。幾乎所有深度學習架構都必須處理這個重要因素,才能學習在看不見的數(shù)據上表現(xiàn)同樣出色的通用功能。 深度學習先驅 Yann LeCun(卷積神經網絡的創(chuàng)造者和 ACM 圖靈獎獲得者)在他的推特上發(fā)帖(基于一篇論文):「深度學習并沒有你想象的那么令人印象深刻,因為它僅僅是美化曲線擬合的插值。但是在高維中,沒有插值之類的東西。在高維空間,一切都是外推?!挂虼耍鳛楹瘮?shù)學習的一部分,深度學習除了插值,或在某些情況下,外推。就這樣!

894f7054-b604-11ec-aa7f-dac502259ad0.png

Twitter 地址:https://twitter.com/ylecun/status/1409940043951742981?lang=en

學習方面

那么,我們如何學習這個復雜的函數(shù)呢?這完全取決于手頭的問題,而這決定了神經網絡架構。如果我們對圖像分類感興趣,那么我們使用 CNN。如果我們對時間相關的預測或文本感興趣,那么我們使用 RNN 或 Transformer,如果我們有動態(tài)環(huán)境(如汽車駕駛),那么我們使用強化學習。除此之外,學習還涉及處理不同的挑戰(zhàn):

確保模型學習通用函數(shù),而不僅僅適合訓練數(shù)據;這是通過使用正則化處理的;

根據手頭的問題,選擇損失函數(shù);松散地說,損失函數(shù)是我們想要的(真實值)和我們當前擁有的(當前預測)之間的誤差函數(shù);

梯度下降是用于收斂到最優(yōu)函數(shù)的算法;決定學習率變得具有挑戰(zhàn)性,因為當我們遠離最優(yōu)時,我們想要更快地走向最優(yōu),而當我們接近最優(yōu)時,我們想要慢一些,以確保我們收斂到最優(yōu)和全局最小值;

大量隱藏層需要處理梯度消失問題;跳過連接和適當?shù)姆蔷€性激活函數(shù)等架構變化,有助于解決這個問題。

計算挑戰(zhàn)

現(xiàn)在我們知道深度學習只是一個學習復雜的函數(shù),它帶來了其他計算挑戰(zhàn):

要學習一個復雜的函數(shù),我們需要大量的數(shù)據;

為了處理大數(shù)據,我們需要快速的計算環(huán)境;

我們需要一個支持這種環(huán)境的基礎設施。

使用 CPU 進行并行處理不足以計算數(shù)百萬或數(shù)十億的權重(也稱為 DL 的參數(shù))。神經網絡需要學習需要向量(或張量)乘法的權重。這就是 GPU 派上用場的地方,因為它們可以非??焖俚剡M行并行向量乘法。根據深度學習架構、數(shù)據大小和手頭的任務,我們有時需要 1 個 GPU,有時,數(shù)據科學家需要根據已知文獻或通過測量 1 個 GPU 的性能來做出決策。 通過使用適當?shù)纳窠浘W絡架構(層數(shù)、神經元數(shù)量、非線性函數(shù)等)以及足夠大的數(shù)據,深度學習網絡可以學習從一個向量空間到另一個向量空間的任何映射。這就是讓深度學習成為任何機器學習任務的強大工具的原因。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107836
  • 計算機視覺
    +關注

    關注

    9

    文章

    1715

    瀏覽量

    47639
  • 深度學習
    +關注

    關注

    73

    文章

    5599

    瀏覽量

    124411

原文標題:這就是深度學習如此強大的原因

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    面向嵌入式部署的神經網絡優(yōu)化:模型壓縮深度解析

    1.為什么需要神經網絡模型壓縮? 神經網絡已經成為解決復雜機器學習問題的強大工具。然而,這種能力往往伴隨著模型規(guī)模和計算復雜度的增加。當輸入維度較大(例如長時序窗口、高分辨率特征空間)時,模型需要
    的頭像 發(fā)表于 02-24 15:37 ?4988次閱讀
    面向嵌入式部署的<b class='flag-5'>神經網絡</b>優(yōu)化:模型壓縮<b class='flag-5'>深度</b>解析

    神經網絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經網絡的實現(xiàn)。什么是神經網絡?
    的頭像 發(fā)表于 12-17 15:05 ?337次閱讀
    <b class='flag-5'>神經網絡</b>的初步認識

    自動駕駛中常提的卷積神經網絡是個啥?

    在自動駕駛領域,經常會聽到卷積神經網絡技術。卷積神經網絡,簡稱為CNN,是一種專門用來處理網格狀數(shù)據(比如圖像)的深度學習模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?2086次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經網絡</b>是個啥?

    激活函數(shù)ReLU的理解與總結

    激活函數(shù)的作用 神經網絡中使用激活函數(shù)來加入非線性因素,提高模型的表達能力。 如果不用激勵函數(shù)(其實相當于激勵函數(shù)是f(x) = x)
    發(fā)表于 10-31 06:16

    CNN卷積神經網絡設計原理及在MCU200T上仿真測試

    的提出很大程度的解決了BP算法在優(yōu)化深層神經網絡時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經網絡庫使用介紹

    :   神經網絡卷積函數(shù)   神經網絡激活函數(shù)   全連接層函數(shù)   神經網絡池化
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗

    , batch_size=512, epochs=20)總結 這個核心算法中的卷積神經網絡結構和訓練過程,是用來對MNIST手寫數(shù)字圖像進行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進行分類預測。訓練過程中,模型通過最小化損失函數(shù)來優(yōu)化
    發(fā)表于 10-22 07:03

    CICC2033神經網絡部署相關操作

    在完成神經網絡量化后,需要將神經網絡部署到硬件加速器上。首先需要將所有權重數(shù)據以及輸入數(shù)據導入到存儲器內。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經網絡(LNN):時間連續(xù)性與動態(tài)適應性的神經網絡

    1.算法簡介液態(tài)神經網絡(LiquidNeuralNetworks,LNN)是一種新型的神經網絡架構,其設計理念借鑒自生物神經系統(tǒng),特別是秀麗隱桿線蟲的神經結構,盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1243次閱讀
    液態(tài)<b class='flag-5'>神經網絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經網絡</b>

    神經網絡的并行計算與加速技術

    隨著人工智能技術的飛速發(fā)展,神經網絡在眾多領域展現(xiàn)出了巨大的潛力和廣泛的應用前景。然而,神經網絡模型的復雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1140次閱讀
    <b class='flag-5'>神經網絡</b>的并行計算與加速技術

    如何在機器視覺中部署深度學習神經網絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學習時,經常會出現(xiàn)“神經網絡
    的頭像 發(fā)表于 09-10 17:38 ?910次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>神經網絡</b>

    基于神經網絡的數(shù)字預失真模型解決方案

    在基于神經網絡的數(shù)字預失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3478次閱讀

    無刷電機小波神經網絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經網絡來實現(xiàn)轉角預測,并采用改進遺傳算法來訓練網絡結構與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經網絡專家系統(tǒng)在電機故障診斷中的應用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學習、自適應的問題,本文提出了基于種經網絡專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經網絡和專家系統(tǒng)相結合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    基于FPGA搭建神經網絡的步驟解析

    本文的目的是在一個神經網絡已經通過python或者MATLAB訓練好的神經網絡模型,將訓練好的模型的權重和偏置文件以TXT文件格式導出,然后通過python程序將txt文件轉化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1238次閱讀
    基于FPGA搭建<b class='flag-5'>神經網絡</b>的步驟解析