91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度學習基本概念總結

汽車玩家 ? 來源:CSDN ? 作者:HamTam12 ? 2020-04-04 17:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經網絡(CNN) 具有局部互聯(lián)、權值共享、下采樣(池化)和使用多個卷積層的特點。

局部互聯(lián) 是指每個神經元只感受局部的圖像區(qū)域,也就是卷積操作。

權值共享 是指當前層所有特征圖共用一個卷積核,每個卷積核提取一種特征,參數(shù)量明顯下降;使用多個卷積核可以提取多種特征。

下采樣 每次對輸入的特征圖錯開一行或一列,能夠壓縮特征圖大小,特征降維,提取主要特征,將語義相似的特征融合,對平移形變不敏感,提高模型泛化能力。

使用多個卷積層 能夠提取更深層次的特征,組合特征實現(xiàn)從低級到高級、局部到整體的特征提取。

卷積層 任務是檢測前一層的局部特征,即用來進行特征提取,用不同的卷積核卷積得到不同的特征,通過多層卷積實現(xiàn)特征的組合,完成從低級到高級、局部與整體的特征提取。例如,圖像先提取邊緣特征,組合成形狀特征,再得到更高級的特征;語音和文本具有相似特征,從聲音到語音,再到音素、音節(jié)、單詞、句子。

下采樣(池化)層 對輸入的特征圖錯開行或列,壓縮特征圖大小,降低參數(shù)量和計算復雜度,也對特征進行了壓縮,提取主要特征,將語義相似的特征融合起來,對微小的平移和形變不敏感。包括平均池化和最大池化和隨機池化,平均池化領域內方差小,更多的保留圖像的背景信息,最大池化領域內均值偏移大,更多的保留圖像的紋理信息,隨機池化(Stochastic Pooling)則介于兩者之間。

全連接層 將二維空間轉化成一維向量,將全連接層的輸出送入分類器或回歸器來做分類和回歸。

在卷積神經網絡中,前面的卷積層的參數(shù)少但計算量大,后面的全連接層則相反,因此加速優(yōu)化重心放在前面的卷積層,參數(shù)調優(yōu)的重心放在后面的全連接層。

全卷積網絡 將一般的卷積神經網絡的全連接層替換成1x1的卷積層,使得網絡可以接受任意大小的輸入圖像,網絡輸出的是一張?zhí)卣鲌D,特征圖上的每個點對應其輸入圖像上的感受野區(qū)域。

多個3x3卷積比7x7卷積的優(yōu)點在于,參數(shù)量減少并且非線性表達能力增強;1x1卷積的作用在于,可以用于特征降維與升維,各通道特征融合,以及全卷積網絡(支持任意輸入圖像大?。?。

深度神經網絡具有從低級到高級、局部到整體的特征表達和學習能力,相比于淺層網絡能更簡潔緊湊的提取特征,但訓練時容易發(fā)生過擬合、梯度彌散和局部極值的問題。

過擬合(Overfitting) 一般發(fā)生在數(shù)據量較少而模型參數(shù)較多時,其表現(xiàn)是模型在訓練時變現(xiàn)的很好(error和loss很低)、但在測試時較差(error和loss較大),使得模型的泛化能力不行。歸根結底是數(shù)據量不夠多不夠好,最好的辦法是通過增加數(shù)據量(更多更全的數(shù)據、數(shù)據增廣、數(shù)據清洗),還可以通過使用dropout、BN、正則化等來防止過擬合,訓練時的trick是適當增加訓練時的batchsize、適當降低學習率。

梯度彌散(Gradient Vanish) 是指在靠近輸出層的隱層訓練的好,但在靠近輸入層的隱層幾乎無法訓練,是多層使用sigmoid激活函數(shù)所致(sigmoid函數(shù)在接近1的部分梯度下降的太快),用ReLu激活函數(shù)可以緩解這個問題。

局部極值 是指在訓練深度網絡時求解一個高度非凸的優(yōu)化問題如最小化訓練誤差loss可能會得到壞的局部極值而非全局極值。采用梯度下降法也可能存在這種問題。

Dropout 是在訓練時隨機拋棄隱層中的部分神經元,在某次訓練時不更新權值,防止過擬合(過擬合發(fā)生在模型參數(shù)遠大于數(shù)據量時,而dropout變相的減少了模型參數(shù)),提高泛化能力,在全連接層使用。感覺是模仿了生物神經系統(tǒng)。Dropout使得隨機拋棄的神經元既不參加前向計算,也不需要反向傳播。

歸一化(Normalization) 用于加速收斂,提高模型精度,包括LRN(Local Response Normalization)、BN(Batch Normalization)等,有助于模型泛化。

BN(Batch Normalization) 希望激活函數(shù)的輸出盡量滿足高斯分布,可以在全連接層后、激活層前加上BN,本質目的是促進模型收斂,降低初始值對模型訓練的影響,提高模型精度和泛化能力。使用了BN,就不需要使用LRN(AlexNet中用到的局部響應歸一化),也不需要過多的考慮權重初始值、Dropout和權重懲罰項的參數(shù)設置問題。

正則化(Regularization)包括L1、L2范數(shù)正則化,加入正則化懲罰項,能夠防止過擬合,提高模型泛化能力。

梯度下降 包括批量梯度下降、隨機梯度下降??梢员茸飨律絾栴},下山方向永遠是梯度下降最快的方向,學習率即下山的步長。

批量梯度下降 每次迭代使用全部訓練樣本來計算損失函數(shù)和梯度,來更新模型參數(shù)。每次迭代都朝著正確的方向進行,保證收斂于極值點(也可能是局部極值點。.),但迭代太慢,計算冗余,消耗大量內存。

隨機梯度下降 實際上是小批量梯度下降,每次迭代隨機使用小批量例如k個訓練樣本計算損失函數(shù)和梯度,來更新模型參數(shù)。每次迭代不一定會朝著正確方向進行,可能會有波動,但也會收斂于極值點,即保證收斂性又保證收斂速度。

激活函數(shù) 主要有ReLu激活函數(shù)、Sigmoid激活函數(shù)、Tanh激活函數(shù)。它們都是非線性激活函數(shù)(ReLu是規(guī)整化線性函數(shù)),比線性激活函數(shù)具有更強的特征表達能力。Sigmoid函數(shù)的x越大,導數(shù)越接近0,反向傳播到遠離輸出層時容易出現(xiàn)梯度彌散,現(xiàn)在一般用ReLu用作激活函數(shù)來防止梯度彌散。

數(shù)據預處理 數(shù)據歸一化(去均值歸一化)、PCA主成分分析、ZCA白化。數(shù)據歸一化的好處在于使得訓練數(shù)據和測試數(shù)據具有一致的數(shù)據分布,增強模型的泛化能力。

PCA主分量分析 用于數(shù)據降維和降低特征間相關度,需要特征均值接近0且各特征的方差接近,因此需要先做去均值,一般情況下都不需要做方差歸一化。

ZCA白化 用于降低特征冗余度(不降維),需要特征間相關度較低且特征具有相同的方差,因此ZCA白化一般是在PCA白化的基礎上做的,可以看做是各個特征的幅度歸一化。

圖像處理與數(shù)據增廣 顏色轉換、對比度拉伸、直方圖均衡、局部直方圖均衡、加隨機噪聲、平移、縮放、旋轉、鏡像、投影變換、隨機裁剪等。

如何提高深度學習算法性能?

1.通過數(shù)據

更多的數(shù)據樣本

數(shù)據的代表性、全面性

數(shù)據預處理

圖像處理與數(shù)據增廣

數(shù)據清洗

難例

2.通過算法

選擇合適的網絡模型(包括網絡結構和網絡參數(shù))

在已有模型上進行fine-tune

dropout、normalization、正則化

合理調節(jié)訓練參數(shù)(學習率、batchsize等)

根據具體應用場景還可能需要修改損失函數(shù)

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 卷積
    +關注

    關注

    0

    文章

    95

    瀏覽量

    19019
  • 深度學習
    +關注

    關注

    73

    文章

    5600

    瀏覽量

    124475
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    機器學習深度學習中需避免的 7 個常見錯誤與局限性

    無論你是剛入門還是已經從事人工智能模型相關工作一段時間,機器學習深度學習中都存在一些我們需要時刻關注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關注數(shù)據、模型架構
    的頭像 發(fā)表于 01-07 15:37 ?250次閱讀
    機器<b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>中需避免的 7 個常見錯誤與局限性

    穿孔機頂頭檢測儀 機器視覺深度學習

    LX01Z-DG626穿孔機頂頭檢測儀采用深度學習技術,能夠實現(xiàn)頂頭狀態(tài)的在線實時檢測,頂頭丟失報警,頂頭異常狀態(tài)報警等功能,響應迅速,異常狀態(tài)視頻回溯,檢測頂頭溫度,配備吹掃清潔系統(tǒng),維護周期長
    發(fā)表于 12-22 14:33

    TVS二極管的基本概念和主要作用

    芝識課堂的全新內容又和大家見面啦!從本期開始,我們將用四節(jié)課為大家系統(tǒng)介紹一位在電路設計中默默奉獻的“無名英雄”——TVS二極管。我們會從它的基本概念、工作原理,聊到如何為電路挑選合適的型號、布局
    的頭像 發(fā)表于 11-28 09:27 ?1.7w次閱讀
    TVS二極管的<b class='flag-5'>基本概念</b>和主要作用

    如何深度學習機器視覺的應用場景

    深度學習視覺應用場景大全 工業(yè)制造領域 復雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標準化缺陷模式 非標產品分類:對形狀、顏色、紋理多變的產品進行智能分類 外觀質量評估:基于學習的外觀質量標準判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?250次閱讀

    學習物聯(lián)網怎么入門?

    聯(lián)網的基本概念和技術是學習物聯(lián)網的重要第一步。物聯(lián)網是指互聯(lián)網上的物品相互連接,通過網絡實現(xiàn)信息交流和共享的一種技術。學習物聯(lián)網需要了解物聯(lián)網的基本概念,如物聯(lián)網的架構、物聯(lián)網的協(xié)議、
    發(fā)表于 10-14 10:34

    如何在機器視覺中部署深度學習神經網絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學習時,經常會出現(xiàn)“神經網絡”、“黑箱”、“標注”等術語。這些
    的頭像 發(fā)表于 09-10 17:38 ?942次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學習</b>神經網絡

    深度學習對工業(yè)物聯(lián)網有哪些幫助

    深度學習作為人工智能的核心分支,通過模擬人腦神經網絡的層級結構,能夠自動從海量工業(yè)數(shù)據中提取復雜特征,為工業(yè)物聯(lián)網(IIoT)提供了從數(shù)據感知到智能決策的全鏈路升級能力。以下從技術賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1083次閱讀

    USB/HID及其基本概念

    USB幀概念 如上圖所示,在USB1.1規(guī)范當中,把USB總線時間按幀劃分,每一幀占用時間是1ms; 每一幀內的最開始處是SOF token,在SOF內包含有11位的幀號; 每一幀的SOF幀號相比前
    的頭像 發(fā)表于 08-20 10:32 ?3671次閱讀
    USB/HID及其<b class='flag-5'>基本概念</b>

    自動駕駛中Transformer大模型會取代深度學習嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領域的驚艷表現(xiàn),“Transformer架構是否正在取代傳統(tǒng)深度學習”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4247次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學習</b>嗎?

    ARM入門學習方法分享

    。 以下是一些入門學習方法的分享: 一、 理解基本概念:首先,了解ARM是什么以及它的基本概念是很重要的。ARM(Advanced RISC Machines)指的是一種精簡指令集計算機(RISC
    發(fā)表于 07-23 10:21

    電壓波動與閃變的基本概念

    如果您是電力系統(tǒng)工程師、電氣設備維護人員或者相關專業(yè)的學生,應該注意到了有關電能質量的國家標準GB/T 12326-2008是有關電壓波動和閃變的,那這兩個參數(shù)的考核意義是什么?國家標準規(guī)定這兩個參數(shù)如何計算、測量和考核?這篇文章帶您全面了解電壓波動和閃變的基本概念、重要性以及國家標準的規(guī)定。
    的頭像 發(fā)表于 07-22 14:10 ?3193次閱讀
    電壓波動與閃變的<b class='flag-5'>基本概念</b>

    群延遲的基本概念和仿真實例分析

    在高速數(shù)字通信和射頻系統(tǒng)中,信號從發(fā)送端到接收端的傳輸過程中會遇到各種失真和畸變。群延遲(Group Delay)作為描述系統(tǒng)相位線性度的重要參數(shù),直接影響著信號保真度和系統(tǒng)性能。本文將深入淺出地介紹群延遲的基本概念、應用場景,并通過仿真示例展示其在實際工程中的重要性。
    的頭像 發(fā)表于 07-08 15:14 ?2460次閱讀
    群延遲的<b class='flag-5'>基本概念</b>和仿真實例分析

    第十三章 通訊的基本概念

    本章介紹通訊基本概念,包括串行/并行、全雙工/半雙工/單工、同步/異步通訊,還提及通訊速率中比特率與波特率的概念。
    的頭像 發(fā)表于 05-22 17:29 ?2161次閱讀
    第十三章 通訊的<b class='flag-5'>基本概念</b>

    嵌入式AI技術之深度學習:數(shù)據樣本預處理過程中使用合適的特征變換對深度學習的意義

    ? 作者:蘇勇Andrew 使用神經網絡實現(xiàn)機器學習,網絡的每個層都將對輸入的數(shù)據做一次抽象,多層神經網絡構成深度學習的框架,可以深度理解數(shù)據中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1557次閱讀

    射頻基礎知識培訓(華為)—PPT版

    資料介紹 射頻子系統(tǒng)位于整個基站的最前端,是整個NodeB系統(tǒng)正常運行的關鍵環(huán)節(jié)之一。本膠片主要講述射頻基本概念和知識,以便大家更加深入理解NodeB系統(tǒng)。 學習完本課程,您將能夠:熟悉和掌握射頻
    發(fā)表于 03-22 16:30