91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2025-11-19 18:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號(hào)]在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因?yàn)閳D像本身就可以看作是由像素排列成的二維網(wǎng)格。

卷積神經(jīng)網(wǎng)絡(luò)可以概括為“從局部入手,逐步抽象”的一項(xiàng)技術(shù),即通過一系列可學(xué)習(xí)的運(yùn)算,讓網(wǎng)絡(luò)能夠自動(dòng)從原始像素中識(shí)別出邊緣、角點(diǎn)、紋理等基礎(chǔ)特征,再逐步組合成更高級(jí)的語(yǔ)義信息,最終完成類似“識(shí)別出一只貓”這樣的感知任務(wù)。

wKgZPGkYGMSAP6LKAAB01FgQ2NM253.jpg

圖片源自:網(wǎng)絡(luò)

和傳統(tǒng)的全連接網(wǎng)絡(luò)相比,CNN不僅參數(shù)更少,還能更好地適應(yīng)圖像中物體的平移變化,因此在計(jì)算效率和泛化能力上的表現(xiàn)會(huì)更加出色。

01核心組件和工作原理

想理解清楚CNN,要抓住“卷積核滑動(dòng)”與“層層抽象”兩個(gè)要點(diǎn)。卷積操作就像拿著一個(gè)小窗口在圖像上逐格滑動(dòng),每次將窗口內(nèi)的像素值與一組可訓(xùn)練的權(quán)重(也就是卷積核或濾波器)做點(diǎn)乘并求和,得到輸出特征圖上的一個(gè)數(shù)值。

這樣訓(xùn)練的目的,正是調(diào)整這些卷積核的參數(shù),讓它們能提取出有用的特征。由于卷積核遠(yuǎn)小于整張圖像,并且在整個(gè)圖像上共享參數(shù),這種“局部連接”和“參數(shù)共享”的設(shè)計(jì),大大減少了網(wǎng)絡(luò)的參數(shù)量。

卷積層后面通常會(huì)接一個(gè)如ReLU這樣的非線性激活函數(shù),它的作用是把負(fù)數(shù)值置零,從而引入非線性,讓網(wǎng)絡(luò)能夠表達(dá)更復(fù)雜的關(guān)系。之后就會(huì)進(jìn)行如最大池化這樣的下采樣操作,它在局部區(qū)域中選取最大值輸出,這樣不僅能降低數(shù)據(jù)維度、壓縮信息,還能增強(qiáng)網(wǎng)絡(luò)對(duì)平移的魯棒性。

通過多個(gè)卷積層和池化層的堆疊,網(wǎng)絡(luò)會(huì)逐層把低級(jí)特征信息(如邊緣、紋理)組合成中級(jí)特征信息(如角點(diǎn)、局部形狀),再進(jìn)一步抽象為高級(jí)特征信息(如物體部件或語(yǔ)義概念)。在網(wǎng)絡(luò)的末端,這些特征會(huì)被“展平”,再輸入到全連接層或經(jīng)過全局池化處理,最終通過分類器(如softmax)輸出每個(gè)類別的概率。

wKgZPGkYGMWAQlEzAAFALwHHgY8174.jpg

圖片源自:網(wǎng)絡(luò)

卷積并不局限于二維圖像。它可以擴(kuò)展到一維數(shù)據(jù)(如語(yǔ)音、時(shí)間序列)和三維數(shù)據(jù)(如醫(yī)學(xué)影像中的體積數(shù)據(jù))。對(duì)于多通道輸入(例如彩色圖像的RGB三個(gè)通道),卷積核也會(huì)為每個(gè)通道配備一組權(quán)重,分別計(jì)算后再求和,生成單通道的特征圖。而為了提取不同類型的特征,可同時(shí)使用多個(gè)卷積核,以便得到多個(gè)特征圖(也稱為輸出通道)。

02訓(xùn)練、優(yōu)化與常見技巧

訓(xùn)練CNN的基本流程與其他神經(jīng)網(wǎng)絡(luò)類似,即先定義損失函數(shù)(分類任務(wù)常用交叉熵?fù)p失),再通過反向傳播計(jì)算梯度,最后使用優(yōu)化器(如隨機(jī)梯度下降SGD或Adam)更新網(wǎng)絡(luò)參數(shù)。在卷積層中,反向傳播本質(zhì)上是對(duì)卷積運(yùn)算求導(dǎo),分別計(jì)算卷積核和輸入數(shù)據(jù)的梯度并更新。

在卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中,學(xué)習(xí)率、批次大小和權(quán)重初始化等超參數(shù)的選擇至關(guān)重要,它們共同決定了訓(xùn)練過程的穩(wěn)定性和模型的最終性能。為了抑制過擬合、提升模型的泛化能力,可綜合運(yùn)用以下幾種實(shí)用技巧。

數(shù)據(jù)增強(qiáng)是非常有效的一種方法。通過對(duì)訓(xùn)練圖像進(jìn)行隨機(jī)翻轉(zhuǎn)、裁剪、旋轉(zhuǎn)或調(diào)整亮度對(duì)比度等操作,可以顯著增加數(shù)據(jù)的多樣性,這能迫使模型學(xué)習(xí)更加魯棒,而不是僅僅記住訓(xùn)練集中的特定樣本。

權(quán)重衰減(L2正則化)和Dropout(隨機(jī)屏蔽部分神經(jīng)元)等正則化手段也是一種有效方式,不過在卷積層中使用Dropout通常會(huì)低于全連接層。批量歸一化如今已成為訓(xùn)練深層網(wǎng)絡(luò)的標(biāo)準(zhǔn)配置,它通過對(duì)每批數(shù)據(jù)進(jìn)行規(guī)范化處理,有效穩(wěn)定了訓(xùn)練過程,加快了收斂速度,并允許我們使用更大的學(xué)習(xí)率。此外,在訓(xùn)練過程中動(dòng)態(tài)調(diào)整學(xué)習(xí)率的策略,以及根據(jù)驗(yàn)證集表現(xiàn)適時(shí)停止訓(xùn)練的“早停法”,也都是防止模型過擬合的常用手段。

除了上述訓(xùn)練技巧,模型架構(gòu)層面的改進(jìn)也會(huì)對(duì)訓(xùn)練結(jié)果產(chǎn)生深遠(yuǎn)影響。殘差連接的引入是一項(xiàng)關(guān)鍵突破,它通過允許信息跨層直接傳遞,有效緩解了深層網(wǎng)絡(luò)中的梯度消失問題,使得訓(xùn)練上百層的超深網(wǎng)絡(luò)成為可能。

wKgZPGkYGMaAYBZwAACbEiYvjeA479.jpg

圖片源自:網(wǎng)絡(luò)

深度可分離卷積則從計(jì)算效率入手,將標(biāo)準(zhǔn)的卷積操作拆解為逐通道卷積和逐點(diǎn)卷積兩個(gè)步驟,從而大幅降低了計(jì)算量和參數(shù)數(shù)量,這一設(shè)計(jì)對(duì)于在手機(jī)等移動(dòng)設(shè)備上部署模型尤為關(guān)鍵。在實(shí)際的工程部署中,還會(huì)進(jìn)一步運(yùn)用模型壓縮、量化等技術(shù),對(duì)訓(xùn)練好的網(wǎng)絡(luò)進(jìn)行優(yōu)化,以確保其在資源受限的環(huán)境中也能高效運(yùn)行。

03重要架構(gòu)演進(jìn)與設(shè)計(jì)選擇

回顧卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程,可以清晰地了解其設(shè)計(jì)思想的演變。早期的LeNet成功地將卷積思想應(yīng)用于手寫數(shù)字識(shí)別,證明了其有效性。隨后,AlexNet在大規(guī)模圖像分類競(jìng)賽中取得突破性成果,極大地推動(dòng)了深度學(xué)習(xí)的熱潮。VGG網(wǎng)絡(luò)則通過反復(fù)堆疊小巧的3x3卷積核,構(gòu)建起結(jié)構(gòu)規(guī)整而深厚的網(wǎng)絡(luò),證明了深度的重要性。Inception系列則另辟蹊徑,采用并行結(jié)構(gòu)來同時(shí)捕捉不同尺度的特征。ResNet引入的殘差連接,從根本上解決了深度網(wǎng)絡(luò)的訓(xùn)練難題。近年來,為了在準(zhǔn)確率和效率間取得平衡,出現(xiàn)了像MobileNet(使用深度可分離卷積)和EfficientNet(復(fù)合縮放模型深度、寬度和分辨率)這樣的輕量級(jí)架構(gòu)。

卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用已經(jīng)非常廣泛,從基礎(chǔ)的圖像分類,到目標(biāo)檢測(cè)、語(yǔ)義分割、人臉識(shí)別、姿態(tài)估計(jì),乃至圖像生成和檢索,都能看到它的身影。

當(dāng)然,CNN也有局限性,它在捕捉圖像中的長(zhǎng)距離依賴及全局關(guān)系方面,天生不如基于自注意力機(jī)制的Transformer模型靈活。雖然可以通過加深網(wǎng)絡(luò)或使用大卷積核來擴(kuò)大感受野,但這會(huì)帶來計(jì)算成本的急劇上升。此外,其引以為傲的平移不變性,在某些需要精確定位(如實(shí)例分割)的任務(wù)中,也需要額外的機(jī)制來輔助。

04最后的話

卷積神經(jīng)網(wǎng)絡(luò)通過“局部感知、參數(shù)共享、層次化抽象”這一核心思想,為處理圖像等網(wǎng)格數(shù)據(jù)提供了一個(gè)強(qiáng)大而高效的框架。卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì),源于它與生俱來的合理結(jié)構(gòu)。它采用“從小范圍入手”的策略,通過局部連接和權(quán)重共享,一層層地從圖像中提取特征,從簡(jiǎn)單的邊緣、紋理,逐步組合成復(fù)雜的物體部件和整體概念。這種設(shè)計(jì)不僅極大地減少了需要計(jì)算的參數(shù)數(shù)量,更讓它天生就擅長(zhǎng)處理圖像這類數(shù)據(jù)。這使CNN在擁有出色識(shí)別能力的同時(shí),也保證了很高的計(jì)算效率,成為計(jì)算機(jī)視覺領(lǐng)域堅(jiān)實(shí)的技術(shù)基石。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛中常的“深度估計(jì)”是個(gè)?

    [首發(fā)于智駕最前沿微信公眾號(hào)]當(dāng)我們看一張照片時(shí),可以通過肉眼自然地判斷照片中的物體遠(yuǎn)近,這種對(duì)于空間和距離的感知,對(duì)于人類來說是本能,是從幼兒時(shí)期開始就形成的一種能力。 對(duì)于自動(dòng)駕駛汽車來說
    的頭像 發(fā)表于 02-16 13:18 ?1.7w次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的“深度估計(jì)”是<b class='flag-5'>個(gè)</b><b class='flag-5'>啥</b>?

    Transformer如何讓自動(dòng)駕駛變得更聰明?

    ]自動(dòng)駕駛中常的Transformer本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語(yǔ)言處理里火起來。與卷積神經(jīng)
    的頭像 發(fā)表于 11-19 18:17 ?2252次閱讀

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    (q7_t) 和 16 位整數(shù) (q15_t)。 卷積神經(jīng)網(wǎng)絡(luò)示例: 本示例中使用的 CNN 基于來自 Caffe 的 CIFAR-10 示例。神經(jīng)網(wǎng)絡(luò)由 3 個(gè)
    發(fā)表于 10-29 06:08

    自動(dòng)駕駛中常的“強(qiáng)化學(xué)習(xí)”是個(gè)?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在談及自動(dòng)駕駛時(shí),有些方案中會(huì)提到“強(qiáng)化學(xué)習(xí)(Reinforcement Learning,簡(jiǎn)稱RL)”,強(qiáng)化學(xué)習(xí)是一類讓機(jī)器通過試錯(cuò)來學(xué)會(huì)做決策的技術(shù)。簡(jiǎn)單理解
    的頭像 發(fā)表于 10-23 09:00 ?657次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的“強(qiáng)化學(xué)習(xí)”是<b class='flag-5'>個(gè)</b><b class='flag-5'>啥</b>?

    自動(dòng)駕駛中常的“專家數(shù)據(jù)”是個(gè)?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在談及自動(dòng)駕駛時(shí),經(jīng)常會(huì)聽到一個(gè)概念,那便是“專家數(shù)據(jù)”。專家數(shù)據(jù),說白了就是“按理應(yīng)該這么做”的那類示范數(shù)據(jù)。它不是隨機(jī)抓來的日志,也不是隨便標(biāo)注的標(biāo)簽,而是來源可靠
    的頭像 發(fā)表于 10-09 09:33 ?584次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的“專家數(shù)據(jù)”是<b class='flag-5'>個(gè)</b><b class='flag-5'>啥</b>?

    自動(dòng)駕駛中常的ODD是個(gè)?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在自動(dòng)駕駛中,經(jīng)常會(huì)聽到一個(gè)概念,那就是ODD。所謂ODD,全稱為Operational Design Domain,中文常譯為“運(yùn)行設(shè)計(jì)域”或者“作業(yè)域”。直觀一點(diǎn)
    的頭像 發(fā)表于 09-22 09:04 ?898次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的ODD是<b class='flag-5'>個(gè)</b><b class='flag-5'>啥</b>?

    自動(dòng)駕駛中常的硬件在環(huán)是個(gè)?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在談及自動(dòng)駕駛技術(shù)時(shí),經(jīng)常會(huì)提及一個(gè)技術(shù),那就是硬件在環(huán),所謂的硬件在環(huán)是個(gè)?對(duì)于自動(dòng)駕駛來說有
    的頭像 發(fā)表于 08-14 08:54 ?1233次閱讀

    自動(dòng)駕駛中常的RTK是個(gè)?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在談及自動(dòng)駕駛關(guān)鍵技術(shù)時(shí),經(jīng)常會(huì)聽到一個(gè)技術(shù),那就是RTK,很多人看到RTK后一定會(huì)想,這到底是個(gè)技術(shù)?為啥這個(gè)技術(shù)很少在發(fā)布會(huì)上看到,但對(duì)于
    的頭像 發(fā)表于 08-10 10:35 ?1115次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的RTK是<b class='flag-5'>個(gè)</b><b class='flag-5'>啥</b>?

    自動(dòng)駕駛中常的慣性導(dǎo)航系統(tǒng)是個(gè)?可以不用嗎?

    每次提到自動(dòng)駕駛硬件時(shí),大家可能第一反應(yīng)想到的是激光雷達(dá)、車載攝像頭、毫米波雷達(dá)等,但想要讓自動(dòng)駕駛車輛實(shí)際落地,有一個(gè)硬件也非常重要,那就是慣性導(dǎo)航系統(tǒng)。在很多討論自動(dòng)駕駛技術(shù)的內(nèi)容
    的頭像 發(fā)表于 07-24 18:12 ?1919次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的慣性導(dǎo)航系統(tǒng)是<b class='flag-5'>個(gè)</b><b class='flag-5'>啥</b>?可以不用嗎?

    自動(dòng)駕駛中常的世界模型是個(gè)

    對(duì)外部環(huán)境進(jìn)行抽象和建模的技術(shù),讓自動(dòng)駕駛系統(tǒng)在一個(gè)簡(jiǎn)潔的內(nèi)部“縮影”里,對(duì)真實(shí)世界進(jìn)行描述與預(yù)測(cè),從而為感知、決策和規(guī)劃等關(guān)鍵環(huán)節(jié)提供有力支持。 什么是世界模型? 我們不妨先把“世界模型”想象成一種“數(shù)字化的地
    的頭像 發(fā)表于 06-24 08:53 ?1122次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的世界模型是<b class='flag-5'>個(gè)</b><b class='flag-5'>啥</b>?

    自動(dòng)駕駛中常的HMI是個(gè)?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在自動(dòng)駕駛汽車領(lǐng)域,HMI(Human–Machine Interface,人機(jī)交互界面)正成為很多車企相互競(jìng)爭(zhēng)的一大領(lǐng)域。之所以如此,是因?yàn)樵谲囕v從“人控”過渡到“機(jī)
    的頭像 發(fā)表于 06-22 13:21 ?2340次閱讀

    自動(dòng)駕駛中常的“點(diǎn)云”是個(gè)?

    ?對(duì)自動(dòng)駕駛有何影響? 點(diǎn)云是個(gè)? 點(diǎn)云(Point Cloud)是一種在三維空間中由大量離散點(diǎn)組成的數(shù)據(jù)集合,每個(gè)點(diǎn)包含自身的笛卡爾坐標(biāo)(X、Y、Z),并可附帶顏色、強(qiáng)度、時(shí)間戳
    的頭像 發(fā)表于 05-21 09:04 ?1116次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的“點(diǎn)云”是<b class='flag-5'>個(gè)</b><b class='flag-5'>啥</b>?

    自動(dòng)駕駛中常的“NOA”是個(gè)

    近年來,自動(dòng)駕駛技術(shù)發(fā)展迅速,業(yè)界不斷探索如何在復(fù)雜交通場(chǎng)景中實(shí)現(xiàn)真正的無人駕駛。城市NOA作為自動(dòng)駕駛的一項(xiàng)前沿技術(shù),正成為各大廠商相互爭(zhēng)奪的關(guān)鍵技術(shù)。 何為NOA? NOA,全稱
    的頭像 發(fā)表于 04-09 09:03 ?3057次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>中常</b><b class='flag-5'>提</b>的“NOA”是<b class='flag-5'>個(gè)</b><b class='flag-5'>啥</b>?

    自動(dòng)駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點(diǎn)分析

    和語(yǔ)音識(shí)別等領(lǐng)域取得了顯著成就,并廣泛用于車輛自動(dòng)駕駛的圖像目標(biāo)識(shí)別中。 1.局部連接:CNN通過局部連接的方式減少了網(wǎng)絡(luò)自由參數(shù)的個(gè)數(shù),從而降低了計(jì)算復(fù)雜度,并使網(wǎng)絡(luò)更易于訓(xùn)練。與全連接網(wǎng)絡(luò)
    的頭像 發(fā)表于 04-07 09:15 ?844次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b>感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點(diǎn)分析

    自動(dòng)駕駛大模型中常的Token是個(gè)?對(duì)自動(dòng)駕駛有何影響?

    、多模態(tài)傳感器數(shù)據(jù)的實(shí)時(shí)處理與決策。在這一過程中,大模型以其強(qiáng)大的特征提取、信息融合和預(yù)測(cè)能力為自動(dòng)駕駛系統(tǒng)提供了有力支持。而在大模型的中,有一個(gè)“Token”的概念,有些人看到后或許會(huì)問: Token是個(gè)
    的頭像 發(fā)表于 03-28 09:16 ?1333次閱讀