91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳解百度深度學(xué)習(xí)技術(shù)在Apollo自動(dòng)駕駛目標(biāo)檢測(cè)中的應(yīng)用

電子工程師 ? 來(lái)源:lp ? 2019-03-07 09:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本次直播課程是由深度學(xué)習(xí)資深研究者-楊陽(yáng)博士從百度Apollo自動(dòng)駕駛感知技術(shù)出發(fā),講解環(huán)境感知中深度學(xué)習(xí)的實(shí)用性與高效性。

課程從Apollo 3.5感知技術(shù)介紹、自動(dòng)駕駛中的目標(biāo)檢測(cè)與識(shí)別、深度學(xué)習(xí)在目標(biāo)檢測(cè)中的意義、Apollo中深度學(xué)習(xí)的應(yīng)用、百度深度學(xué)習(xí)框架對(duì)目標(biāo)檢測(cè)的實(shí)操五個(gè)方面著手,全面解讀深度學(xué)習(xí)在目標(biāo)檢測(cè)中的運(yùn)用。

以下是楊陽(yáng)博士分享的全部?jī)?nèi)容,希望給各位開(kāi)發(fā)者帶來(lái)更多的幫助。

首先,本次課程將以百度Apollo自動(dòng)駕駛技術(shù)為出發(fā)點(diǎn),詳解百度深度學(xué)習(xí)技術(shù)在Apollo自動(dòng)駕駛目標(biāo)檢測(cè)中的應(yīng)用。其次,基于百度深度學(xué)習(xí)框架對(duì)目標(biāo)檢測(cè)技術(shù)進(jìn)一步探討,最后理論聯(lián)系實(shí)際,通過(guò)一個(gè)典型案例體驗(yàn)百度深度學(xué)習(xí)在環(huán)境感知中的實(shí)用性與高效性。

簡(jiǎn)要了解一下自動(dòng)駕駛

首先我們可以從安全駕駛角度來(lái)簡(jiǎn)單了解自動(dòng)駕駛的重要性。為什么我們需要自動(dòng)駕駛?這里羅列了一些自動(dòng)駕駛的優(yōu)勢(shì),除了減少交通事故、節(jié)省燃料外,還涉及到獲得更多自主休息的時(shí)間。此外,自動(dòng)駕駛技術(shù)還有很多其它優(yōu)點(diǎn),例如可以輕輕松松停車(chē),讓老人開(kāi)車(chē)相對(duì)更安全一些。

表中給出了全球?qū)τ谧詣?dòng)駕駛技術(shù)的評(píng)級(jí),包括從純粹的人工駕駛L0級(jí)到高度的自動(dòng)駕駛L4級(jí)。不過(guò)目前各國(guó)重點(diǎn)研發(fā)的還是有條件的自動(dòng)駕駛,例如L3級(jí)的自動(dòng)駕駛以及高度的自動(dòng)駕駛L4級(jí),完全的自動(dòng)駕駛(L5級(jí))目前還沒(méi)有辦法預(yù)測(cè)。

其中一些企業(yè)推出了有條件的自動(dòng)駕駛,還有一些停留在部分自動(dòng)駕駛L2級(jí)和輔助自動(dòng)駕駛L1級(jí)的測(cè)試階段,暫未投入到商用。

不過(guò)值得高興的一點(diǎn),百度今年剛剛推出了L4級(jí)的自動(dòng)駕駛車(chē)輛以及相關(guān)解決方案,相信未來(lái)在L5級(jí)的自動(dòng)駕駛領(lǐng)域,我們國(guó)家一定會(huì)有所突破,實(shí)現(xiàn)L5級(jí)自動(dòng)駕駛指日可待。

接下來(lái)我們探究自動(dòng)駕駛車(chē)輛的基本組成,以百度Apollo3.5的無(wú)人駕駛車(chē)輛為例,明確整個(gè)自動(dòng)駕駛車(chē)輛包括哪些部分。首先,車(chē)輛頂端應(yīng)配置360度的3D掃描雷達(dá),以及前排陣列攝像頭、后排攝像頭陣列,同時(shí)還包含GPS天線、前置雷達(dá)等。這些都是用來(lái)對(duì)周?chē)h(huán)境進(jìn)行感知的。

感知結(jié)果得到實(shí)時(shí)處理后,就會(huì)產(chǎn)生大量數(shù)據(jù),從而匯總到車(chē)后端的實(shí)時(shí)處理系統(tǒng)中,也就是計(jì)算和存儲(chǔ)系統(tǒng),隨后做到汽車(chē)在行進(jìn)過(guò)程中對(duì)車(chē)輛周?chē)h(huán)境的完全感知。如今的Apollo3.5,傳感器部分以及計(jì)算存儲(chǔ)系統(tǒng)還是相當(dāng)完善的。從Apollo完整框架分析,我們可以看到上端是云端服務(wù),下端三層屬于車(chē)端服務(wù)。

全新的Apollo3.5技術(shù)框架對(duì)其中14個(gè)模塊進(jìn)行了升級(jí),主要分布在硬件系統(tǒng)以及軟件系統(tǒng)中。例如,3.5版本感知算法加上全新的傳感器升級(jí),可以達(dá)到360度無(wú)死角的全面覆蓋。

云端服務(wù)方面,涉及例如高精度地圖、仿真數(shù)據(jù)平臺(tái)、安全模塊等。全新的基于多場(chǎng)景的決策和預(yù)測(cè)架構(gòu),使開(kāi)發(fā)變得更加靈活與友好,所以一些開(kāi)發(fā)者完全可以選擇這種軟件平臺(tái)和硬件平臺(tái)來(lái)進(jìn)行相應(yīng)開(kāi)發(fā),同時(shí)我們也將90%仿真驅(qū)動(dòng)開(kāi)放,大力提升開(kāi)發(fā)者們的效率以及研發(fā)安全性。

Apollo對(duì)于自動(dòng)駕駛具備至關(guān)重要的四個(gè)部分,我們也給予相應(yīng)升級(jí),包括規(guī)劃、預(yù)測(cè)、感知以及定位。

如今Apollo3.5在感知能力上也得到了升級(jí),可以做到通過(guò)增加盲區(qū)檢測(cè)傳感器以及雷達(dá)等方式,例如用于盲區(qū)檢測(cè)的傳感器套件以及新的128線的激光雷達(dá)拓展檢測(cè)范圍,同時(shí)包含3D定位算法以及目標(biāo)檢測(cè)算法,表現(xiàn)更強(qiáng)大。

自動(dòng)駕駛中的目標(biāo)檢測(cè)與識(shí)別

所謂目標(biāo)檢測(cè),就是區(qū)分圖像或者視頻中的目標(biāo)與其他不感興趣的部分,例如圖中的建筑物、樹(shù)林、盒子以及瓶子等,其實(shí)這些物體同畫(huà)面產(chǎn)生了一些明顯區(qū)分,那么如何讓計(jì)算機(jī)像人類一樣做到明確區(qū)分呢?這就涉及目標(biāo)檢測(cè),可以說(shuō)讓計(jì)算機(jī)能夠區(qū)分出這些,是目標(biāo)檢測(cè)的第一步。

目標(biāo)檢測(cè)的第二步是什么?是讓計(jì)算機(jī)識(shí)別剛才區(qū)分出來(lái)的畫(huà)面究竟是什么,從而確定視頻或圖像中目標(biāo)的種類。例如為了實(shí)現(xiàn)自動(dòng)駕駛的目標(biāo),最初需要讓計(jì)算機(jī)認(rèn)識(shí)交通目標(biāo),才能讓其成為真正的AI老司機(jī)。

如何建立一個(gè)高準(zhǔn)確率、高召回率的物體識(shí)別系統(tǒng)?這實(shí)際是無(wú)人車(chē)感知的一個(gè)核心問(wèn)題,而物體檢測(cè)更是重中之重,要求我們對(duì)不同傳感器設(shè)計(jì)不同的算法來(lái)準(zhǔn)確檢測(cè)障礙物。例如Apollo技術(shù)框架中為3D設(shè)計(jì)了CNSEG(音譯)深度學(xué)習(xí)算法,還包括為二級(jí)圖像設(shè)計(jì)的YOLO3D深度學(xué)習(xí)算法等。

具體說(shuō)到物體檢測(cè),我們要求完成單幀障礙物的檢測(cè),并借助傳感器內(nèi)外參數(shù)標(biāo)定轉(zhuǎn)換矩陣,將檢測(cè)結(jié)果統(tǒng)一影射到車(chē)身的座標(biāo)系中,這種物體檢測(cè)算法既快速又準(zhǔn)確。

引入深度學(xué)習(xí)究竟為何般?

有些小伙伴可能產(chǎn)生疑問(wèn),描述了這么多種方法,為什么一定要使用深度學(xué)習(xí)呢?或許將深度學(xué)習(xí)與傳統(tǒng)圖像處理PK下,就能明了其中緣由。

業(yè)界共知,傳統(tǒng)的目標(biāo)檢測(cè)與識(shí)別算法分為三部分,包含目標(biāo)特征提取、目標(biāo)識(shí)別以及目標(biāo)定位,其中涉及的典型算法就是基于組件檢測(cè)的DPM算法。

實(shí)際上DPM算法就是訓(xùn)練出物體的梯度模型,然后對(duì)實(shí)際物體進(jìn)行套用。但很顯然,人為提取出來(lái)模型種類還是有限的,面對(duì)現(xiàn)實(shí)中紛繁多變的大千世界,即便是后來(lái)人為成功提取了更多特征因素,也很難做到對(duì)圖像中全部細(xì)節(jié)進(jìn)行詳細(xì)描述,因此類似DPM算法。

由于傳統(tǒng)目標(biāo)檢測(cè)算法主要基于人為特征提取,對(duì)于更復(fù)雜或者更高階的圖像特征很難進(jìn)行有效描述,所以限制了目標(biāo)檢測(cè)的識(shí)別效果,這一點(diǎn)可以被認(rèn)定是人為特征提取導(dǎo)致傳統(tǒng)算法的性能瓶頸。

同傳統(tǒng)的圖像處理方法不同,采用深度學(xué)習(xí)的方法進(jìn)行圖像處理,最大的區(qū)別就是特征圖不再通過(guò)人工特征提取,而是利用計(jì)算機(jī),這樣提取出來(lái)的特征會(huì)非常豐富,也很全面。

所謂的深度學(xué)習(xí)就是通過(guò)集聯(lián)多層的神經(jīng)網(wǎng)絡(luò)形成一個(gè)很深的層,當(dāng)層數(shù)越多,提取出來(lái)的特征也就越多而且越豐富。所以在目標(biāo)檢測(cè)和識(shí)別的過(guò)程中,最主要使用的深度學(xué)習(xí)特征提取模型就是深度卷積網(wǎng)絡(luò),英文簡(jiǎn)稱CNN。

為什么CNN圖像處理的方式比以前更好呢?究其原因,根本還是在于對(duì)圖像特征提取。例如,當(dāng)我們使用多層進(jìn)行特征提取的時(shí)候,其實(shí)有些層是針對(duì)圖像的邊緣輪廓來(lái)提取的,有些則是針對(duì)質(zhì)地或者紋理來(lái)進(jìn)行的,還有些是針對(duì)物體特征進(jìn)行操作,總而言之不同的層有不同的分割方式。

回歸到目標(biāo)檢測(cè)這個(gè)問(wèn)題上,卷積神經(jīng)網(wǎng)絡(luò)的每一層如果能夠準(zhǔn)確提取出所需特征,最后也就容易判斷許多。因此決定CNN的目標(biāo)檢測(cè)和識(shí)別的關(guān)鍵就在于對(duì)每一層如何設(shè)計(jì)。

這可能就是八仙過(guò)海各顯神通的時(shí)刻了,不過(guò)不得不提及的是,一個(gè)著名的卷積神經(jīng)網(wǎng)絡(luò)AlexNet,這個(gè)網(wǎng)絡(luò)由多倫多大學(xué)的Hinton教授團(tuán)隊(duì)于2012年提出,一經(jīng)提出立馬轟動(dòng)了計(jì)算機(jī)的視覺(jué)領(lǐng)域,對(duì)其他相關(guān)行業(yè)后期也產(chǎn)生了深遠(yuǎn)的影響。

AlexNet在整個(gè)算法處理的步驟,其實(shí)與之前提到的一般CNN的處理方式?jīng)]有本質(zhì)區(qū)別,而且在國(guó)際上每年都會(huì)舉辦圖像檢測(cè)算法的比賽,AlexNet就在某屆圖像檢測(cè)比賽中獲得了冠軍。那一年AlexNet橫空出世,把當(dāng)年的top5錯(cuò)誤率硬生生降到了17%以下。

既然深度學(xué)習(xí)能夠在目標(biāo)檢測(cè)中大顯身手,那么針對(duì)當(dāng)前目標(biāo)檢測(cè)的方法又有哪些?簡(jiǎn)單將當(dāng)前的方法進(jìn)行分類,其實(shí)可以歸納為三種算法方案:

第一種是對(duì)于候選區(qū)域的目標(biāo)檢測(cè)算法,典型的網(wǎng)絡(luò)是R-CNN和FasterR-CNN;第二個(gè)方案則是基于回歸的目標(biāo)檢測(cè)算法,典型實(shí)現(xiàn)是YOLO和SSD,最后一種是基于增強(qiáng)學(xué)習(xí)的目標(biāo)檢測(cè)算法,典型表現(xiàn)為深度Q學(xué)習(xí)網(wǎng)絡(luò),但這幾種算法其實(shí)各有各的優(yōu)缺點(diǎn)。

由于今天的話題是目標(biāo)檢測(cè),自然就會(huì)想到在多種算法門(mén)派中如何進(jìn)行選擇的問(wèn)題,以及在自動(dòng)駕駛領(lǐng)域中適合其研發(fā)的算法以及框架是什么。

深度學(xué)習(xí)框架呼之欲出

關(guān)于深度學(xué)習(xí)框架的選擇,大家可以嘗試用百度PaddlePaddle。就目前而言,市面上深度學(xué)習(xí)框架很多,包括Tensorflow、Caffe、PyTorch、MXNet等在內(nèi),而PaddlePaddle是眾多深度學(xué)習(xí)框架中唯一一款國(guó)內(nèi)自主研發(fā)的。

它支持分布式計(jì)算,即多GPU多臺(tái)機(jī)器并行計(jì)算,同時(shí)還支持FPGA,與其他一些僅支持GPU的框架不同,支持FPGA是PaddlePaddle的一個(gè)亮點(diǎn)。

有了解稱,F(xiàn)PGA特有的流水線結(jié)構(gòu)降低了數(shù)據(jù)同內(nèi)存的反復(fù)交互,從而大大降低了運(yùn)行功耗,這對(duì)于深度學(xué)習(xí)進(jìn)行大規(guī)模的推斷有諸多好處。如果能將這一特性擴(kuò)展到自動(dòng)駕駛領(lǐng)域,對(duì)于未來(lái)降低汽車(chē)的發(fā)熱問(wèn)題顯然有很大幫助。而PaddlePaddle中的PaddleMobile框架以及API的方式支持移動(dòng)端設(shè)備,這樣就可以利用手機(jī)來(lái)完成想要的功能。

算法方案如何高效選擇?

先前提到的三種方案,首先來(lái)看候選區(qū)域目標(biāo)檢測(cè)算法。這類算法的典型案例是FasterR-CNN。工作的基本步驟可歸納為首先提取圖像中的候選區(qū)域,隨后針對(duì)這些候選區(qū)域進(jìn)行分類判斷,當(dāng)然由于這些候選區(qū)域是通過(guò)算法搜索出來(lái)的,所以并不一定準(zhǔn)確,因此還需要對(duì)選出的區(qū)域做位置回歸,隨之進(jìn)行目標(biāo)定位,最后輸出一個(gè)定位結(jié)果??傮w來(lái)說(shuō),首先要先選擇、再判斷,最后剔除不想要的。

類似于找工作,選擇這種方法進(jìn)行圖像目標(biāo)檢測(cè)是可以做到精準(zhǔn)定位以及識(shí)別,所以精度較高,不過(guò)由于需要反復(fù)進(jìn)行候選區(qū)域的選擇,所以算法的效率被限制。

值得注意的一點(diǎn),F(xiàn)asterR-CNN引入了一種稱為區(qū)域生成網(wǎng)絡(luò)RPN(音譯)的概念,用來(lái)進(jìn)行算法加速??梢钥吹?,RPN實(shí)際上是在分類和特征圖,也就是卷積層出來(lái)之后的特征圖之間,這樣就解決了端到端的問(wèn)題。

同時(shí),我們可以利用GPU來(lái)進(jìn)行網(wǎng)絡(luò)加速,從而提升檢測(cè)的速率,這也是為什么FasterR-CNN和R-CNN相比多了一個(gè)Faster的原因。此外,候選區(qū)域檢測(cè)這類算法在VOC2007數(shù)據(jù)集上,也可以達(dá)到檢測(cè)精度為73.2%的準(zhǔn)確率。講到候選區(qū)域目標(biāo)檢測(cè)算法,實(shí)際上前面候選區(qū)域的目標(biāo)檢測(cè)算法主要是利用對(duì)于候選區(qū)域進(jìn)行目標(biāo)提取。

接下來(lái)介紹的第二個(gè)算法就是剛才提到的回歸目標(biāo)檢測(cè)算法,它的特點(diǎn)是SingleShot,也就是只需觀測(cè)一次圖片就能進(jìn)行目標(biāo)的檢測(cè)以及識(shí)別,因此算法的效率非常高。

在此羅列了一個(gè)稱之為SSD的典型回歸目標(biāo)檢測(cè)算法,這個(gè)算法分為四個(gè)步驟:第一步通過(guò)深度神經(jīng)網(wǎng)絡(luò)提取整個(gè)圖片的特征;第二步對(duì)于不同尺度的深度特征圖設(shè)計(jì)不同大小的特征抓取盒;第三步通過(guò)提取出這些抓去盒中的特征進(jìn)行目標(biāo)識(shí)別,最后,在識(shí)別出的這些結(jié)果中運(yùn)用非極大值抑制選擇最佳的目標(biāo)識(shí)別結(jié)果。

所以其實(shí)SSD算法核心思想與第一種算法類型類似,都是從深度神經(jīng)網(wǎng)絡(luò)的不同層提取特征,分別利用這些特征進(jìn)行回歸預(yù)測(cè)。當(dāng)然基于回歸的目標(biāo)檢測(cè)算法是不能同候選區(qū)域目標(biāo)檢測(cè)算法那樣特別精確的,尤其是對(duì)畫(huà)面中一些小目標(biāo),同樣給出SSD算法在VOC2007數(shù)據(jù)集上準(zhǔn)確度的數(shù)值,為68%。

雖然比候選區(qū)域目標(biāo)檢測(cè)算法低那么一丟丟,但是基本上性能沒(méi)有太大損失,此外,由于它是SingleShot,算法的效率也是相當(dāng)高的。

之前說(shuō)到的兩種類型算法,對(duì)于圖中目標(biāo)的邊框、尺寸都是固定的,也就是說(shuō)檢測(cè)算法中目標(biāo)邊框雖然數(shù)目特別多,但一旦邊框確定就無(wú)法改變,因此并不能適應(yīng)場(chǎng)景變化。所以為了檢測(cè)出不同目標(biāo)、不同場(chǎng)景,就需要準(zhǔn)備出多種區(qū)域選擇框。然而大千世界紛繁多變,檢測(cè)目標(biāo)在畫(huà)面中的大小更是差別巨大,如果能夠根據(jù)不同的情況在目標(biāo)候選區(qū)域進(jìn)行邊框調(diào)整,就可以做到適應(yīng)各種各樣的環(huán)境了。

回到第三種算法的介紹,也就是增強(qiáng)學(xué)習(xí)算法,可以說(shuō)場(chǎng)景適應(yīng)性算是比較強(qiáng)的。增強(qiáng)學(xué)習(xí)算法目標(biāo)檢測(cè)可被看成不斷動(dòng)態(tài)調(diào)整候選區(qū)域邊框的過(guò)程,這種算法的典型代表是Q學(xué)習(xí)算法。

首先,通過(guò)圖像進(jìn)行特征提取,可以通過(guò)一個(gè)CNN網(wǎng)絡(luò)來(lái)完成,第二,主動(dòng)搜索,目的是根據(jù)不同的目標(biāo)和場(chǎng)景調(diào)整搜索的步長(zhǎng),并且結(jié)合歷史動(dòng)作反饋的信息,憑借深度Q學(xué)習(xí)網(wǎng)絡(luò)來(lái)預(yù)測(cè)下一步的動(dòng)作,也就是通過(guò)算法中設(shè)定一定的獎(jiǎng)勵(lì)機(jī)制來(lái)判斷這個(gè)特征提取邊框的大小變化以及上下左右移動(dòng)是否有效。當(dāng)網(wǎng)絡(luò)中預(yù)測(cè)下一步動(dòng)作完成后,再開(kāi)始進(jìn)行識(shí)別并最后輸出結(jié)果。因此,這類算法的核心思想可以看成是由原來(lái)不可以改變大小的、靜態(tài)的特征抓取框,變成了現(xiàn)在可變的動(dòng)態(tài)抓取框,但這類算法目前在VOC2007數(shù)據(jù)集上準(zhǔn)確度的數(shù)值是46.1%,比較低。

原因主要是在進(jìn)行邊框調(diào)整過(guò)程中很容易造成特征抓取框和標(biāo)定的區(qū)域差距比較大,這樣會(huì)嚴(yán)重影響模型的訓(xùn)練效果,從而造成性能的下降;此外由于要進(jìn)行主動(dòng)搜索和多次邊框的調(diào)整,所以算法的計(jì)算也比較耗時(shí)。不過(guò)這種算法唯一的好處是相對(duì)靈活,俗稱百搭。

最后總結(jié)下,可以看到,從速度上回歸目標(biāo)檢測(cè)算法是最快的,原因在于只需看一次圖片就能夠“一見(jiàn)鐘情”;而從精度角度而言,后續(xù)區(qū)域目標(biāo)檢測(cè)算法已經(jīng)可以達(dá)到很高的精度水平了,然而回歸目標(biāo)檢測(cè)算法的能力也能夠做到和候選區(qū)域算法比較接近的程度。

以上我們介紹的都是典型的基本算法,最后從框架支持的角度來(lái)看,開(kāi)發(fā)者很容易搭建候選區(qū)域檢測(cè)算法和回歸目標(biāo)檢測(cè)算法框架來(lái)實(shí)現(xiàn)。由于增強(qiáng)學(xué)習(xí)這種算法的動(dòng)態(tài)變化比較大,直接用框架來(lái)實(shí)現(xiàn)目前是有一定難度的,但如果大家對(duì)深度學(xué)習(xí)框架有所了解,其實(shí)目前已經(jīng)有可支持深度Q網(wǎng)絡(luò)的模型。

三種算法介紹完畢之后,究竟哪種算法最適合人們熟知的自動(dòng)駕駛場(chǎng)景呢?當(dāng)然是回歸目標(biāo)檢測(cè)算法。雖然在理論上候選區(qū)域目標(biāo)檢測(cè)算法能夠做到精確度特別高,但由于需要反復(fù)觀測(cè)畫(huà)面,所以大大降低了檢測(cè)速度,特別是在自動(dòng)駕駛領(lǐng)域中,需要進(jìn)行高速反應(yīng)來(lái)完成目標(biāo)識(shí)別,在這個(gè)層面并不適合。

百度Apollo中深度學(xué)習(xí)的應(yīng)用

第一點(diǎn),關(guān)于車(chē)道線的檢測(cè)。目前百度Apollo采用了稱為分離車(chē)道線網(wǎng)絡(luò)的結(jié)構(gòu),圖像通過(guò)一個(gè)D9和一個(gè)空間卷積神經(jīng)網(wǎng)絡(luò)S-CNN完成對(duì)于道路上車(chē)道線的檢測(cè)和識(shí)別,整個(gè)網(wǎng)絡(luò)的核心是下面展示的S-CNN,網(wǎng)絡(luò)中用來(lái)增強(qiáng)對(duì)于行車(chē)時(shí)車(chē)道的檢測(cè)能力。S-CNN首先將特征圖的行和列分別看成多個(gè)層級(jí)的形式。

同時(shí)采用順序卷積,非線性激活函數(shù)以及求和操作形成一個(gè)深度神經(jīng)網(wǎng)絡(luò),好處是將原來(lái)CNN隱藏層之間空間關(guān)系關(guān)聯(lián)起來(lái),從而更好處理畫(huà)面中連續(xù)相關(guān)的目標(biāo),這個(gè)算法特別對(duì)于行車(chē)時(shí)車(chē)道的目標(biāo)檢測(cè)任務(wù),精度很高,準(zhǔn)確率高達(dá)96.53%。

可以看出,傳統(tǒng)情況下都是在實(shí)際檢測(cè)過(guò)程中有一些干擾,使得在檢測(cè)過(guò)程中原來(lái)需要正確檢測(cè)出的像素點(diǎn)和其他的像素點(diǎn)發(fā)生了關(guān)聯(lián),受到的周?chē)h(huán)境干擾比較大。

不過(guò)S-CNN就不一樣了,這是深度挖掘了前后線條間的相關(guān)性,避免這種情況出現(xiàn),所以可以清晰的看到圖上檢測(cè)出來(lái)的電線桿和車(chē)道線都是比較粗和連續(xù)的。

針對(duì)百度Apollo和當(dāng)前版本的百度Apollo對(duì)于車(chē)道線檢測(cè)效果的對(duì)比,很直觀看到,采用剛才提出的算法以后,對(duì)于自動(dòng)駕駛的視覺(jué)系統(tǒng)而言,性能提升非常明顯。原來(lái)路邊車(chē)道線模糊或者根本看不到車(chē)道線的地方現(xiàn)在通過(guò)引入新的分離的車(chē)道線檢測(cè)技術(shù)以后,可以看出Apollo在行使過(guò)程中可以準(zhǔn)確檢測(cè)出車(chē)道線了。

在Apollo2.5和3.0中,基于YOLO設(shè)計(jì)了一些單物攝像頭下的物體檢測(cè)神經(jīng)網(wǎng)絡(luò),稱為Multi-Task YOLO 3D。因?yàn)樗淖罱K輸出是單目攝像頭3D障礙物檢測(cè)的信息,最后會(huì)輸出多于2D圖像檢測(cè)的全部信息,所以可以看到與普通的CNN網(wǎng)絡(luò)檢測(cè)出來(lái)的效果并不一樣,這是立體的檢測(cè)結(jié)果,也就是說(shuō)檢測(cè)出來(lái)的那個(gè)框結(jié)果是立體的。

不同之處在于首先就是3D框輸出,其次它也會(huì)輸出相對(duì)障礙物所檢測(cè)出來(lái)的一些偏轉(zhuǎn)角,此外現(xiàn)在的Apollo3.5還包含物體的分割信息,具有物體分割的功能,包括車(chē)道線的信息,用來(lái)提供給定位模塊等。

在Apollo檢測(cè)的事例中可以看到,算法其實(shí)對(duì)于路邊的行人判斷還是比較準(zhǔn)確的,可以在一堆繁忙的公路上清晰看到最終要檢測(cè)出來(lái)的某個(gè)行人。此外,Apollo單目攝像頭下的障礙物檢測(cè)速度是比較快的,特別是對(duì)繁忙路段和高速場(chǎng)景都是比較適配,檢測(cè)速度達(dá)到了30赫茲,也就是說(shuō)每秒鐘可以檢測(cè)30張圖像。

除此之外,Apollo還有一些相關(guān)功能,例如典型目標(biāo)的檢測(cè),包含了基于經(jīng)典計(jì)算機(jī)視覺(jué)障礙的物體識(shí)別和基于深度學(xué)習(xí)的障礙物識(shí)別。基于經(jīng)典計(jì)算機(jī)視覺(jué)的障礙物識(shí)別的計(jì)算復(fù)雜度比較低,單核CPU可以達(dá)到實(shí)現(xiàn),同時(shí)因?yàn)閺?fù)雜度比較低,訓(xùn)練也比較快。此外,深度學(xué)習(xí)主要依賴GPU,當(dāng)速度比較快,而且訓(xùn)練數(shù)據(jù)足夠多的時(shí)候,可以得到最好的準(zhǔn)確度。

百度深度學(xué)習(xí)框架對(duì)目標(biāo)檢測(cè)的實(shí)操

為了方便開(kāi)發(fā)者們的理解,我們以百度PaddlePaddle為例為大家介紹實(shí)際目標(biāo)檢測(cè)中的可喜效果。

首先提出PaddlePaddle官方倉(cāng)庫(kù)里的MobileNet+SSD的檢測(cè)效果,這個(gè)模型可以從官方倉(cāng)庫(kù)上下載,整個(gè)模型也非常適合移動(dòng)端場(chǎng)景,算法的流程和前面介紹的比較類似。

最初采用G網(wǎng)絡(luò)MobileNet來(lái)抽取特征,隨后利用前面介紹的SDD中的堆疊卷積盒來(lái)進(jìn)行特征識(shí)別,不同位置檢測(cè)不同大小、不同形狀的目標(biāo),最后再利用非極大值抑制篩選出最合適的識(shí)別結(jié)果,整個(gè)模型最重要的是對(duì)候選框信息的獲取,包括框的位置、目標(biāo)類別、置信概率三個(gè)信息在內(nèi)。

具體如何獲取這些框的相關(guān)信息呢?實(shí)際上PaddlePaddle已經(jīng)提供了封裝好的API,使用時(shí)直接調(diào)用即可。我們調(diào)用這個(gè)函數(shù),就是Multi_box_head,從MobileNet最后一層進(jìn)行連接,用來(lái)生成SSD中的特征抓取盒,其中包含所謂的四個(gè)返回值,分別是候選框邊界的精細(xì)回歸、框內(nèi)出現(xiàn)物體的置信度、候選框原始位置、候選框原始位置方差。實(shí)際上就是候選框的位置以及關(guān)于這些位置相對(duì)偏移的量。

如果把這些值進(jìn)行輸出可視化,首先給出的是出現(xiàn)物體的置信度,通常用框進(jìn)行識(shí)別的過(guò)程中,一般認(rèn)為框里只近似保留一種,最后只會(huì)出現(xiàn)一類判斷結(jié)果。第一個(gè)值如果是最大的,就被認(rèn)為屬于背景類,也就是說(shuō)第一個(gè)張量,它的這個(gè)框的目標(biāo)就是背景。接著把所有背景選出來(lái)之后,再把這些背景去掉,剩下來(lái)的自然而然就是畫(huà)面中要識(shí)別出來(lái)的目標(biāo)。

接下來(lái)利用Detection_output這一層,加入一個(gè)可視化的邊框的操作,可以看到,藍(lán)色的表示人,紅色的表示摩托車(chē),最后利用非極大值抑制的操作,把這些框當(dāng)中多余的框全部去掉,只保留最貼近檢測(cè)效果的框,也就是最后想要的結(jié)果。可以看到,經(jīng)過(guò)非極大值抑制后,同類的折疊框一般只保留概率較高的、重疊較小的,這就完成了最終的目標(biāo)檢測(cè)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    793

    文章

    14879

    瀏覽量

    179787
  • Apollo
    +關(guān)注

    關(guān)注

    5

    文章

    350

    瀏覽量

    19717
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5598

    瀏覽量

    124396

原文標(biāo)題:深度學(xué)習(xí)在自動(dòng)駕駛感知領(lǐng)域的應(yīng)用

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛中常提的模仿學(xué)習(xí)是什么?

    當(dāng)談及自動(dòng)駕駛模型學(xué)習(xí)時(shí),經(jīng)常會(huì)提到模仿學(xué)習(xí)的概念。所謂模仿學(xué)習(xí),就是模型先看別人怎么做,然后學(xué)著去做。自動(dòng)駕駛
    的頭像 發(fā)表于 01-16 16:41 ?1991次閱讀

    百度世界2025進(jìn)行 百度昆侖芯超節(jié)點(diǎn)亮相 性能巨幅提升

    百度世界大會(huì)是百度每年面向行業(yè)、媒體、合作伙伴和廣大用戶的最高級(jí)別盛事,作為百度年度最重要的的戰(zhàn)略、技術(shù)、產(chǎn)品發(fā)布會(huì),自2006年以來(lái)已連續(xù)舉辦19年,持續(xù)為行業(yè)搭建起交流前沿
    的頭像 發(fā)表于 11-13 11:51 ?1244次閱讀

    百度快訊:蘿卜快跑獲批在香港九龍跨區(qū)測(cè)試;百度2025十大科技前沿發(fā)明亮相;入選國(guó)家知識(shí)產(chǎn)權(quán)局首批產(chǎn)業(yè)

    給大家?guī)?lái)百度近期的一些最新消息: ? 01 蘿卜快跑獲批在香港九龍跨區(qū)測(cè)試 10月30日,香港特別行政區(qū)運(yùn)輸署稱,已根據(jù)《道路交通(自動(dòng)駕駛車(chē)輛)規(guī)例》批準(zhǔn)蘿卜快跑九龍東(啟德發(fā)展區(qū)及九龍灣指定
    的頭像 發(fā)表于 11-05 09:25 ?484次閱讀
    <b class='flag-5'>百度</b>快訊:蘿卜快跑獲批在香港九龍跨區(qū)測(cè)試;<b class='flag-5'>百度</b>2025十大科技前沿發(fā)明亮相;入選國(guó)家知識(shí)產(chǎn)權(quán)局首批產(chǎn)業(yè)

    自動(dòng)駕駛Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是自動(dòng)駕駛領(lǐng)域,部分廠商開(kāi)始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過(guò)時(shí)”的激烈爭(zhēng)論。然而,從
    的頭像 發(fā)表于 08-13 09:15 ?4183次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>中</b>Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    2025百度Apollo星火自動(dòng)駕駛大賽成功舉辦

    近日,第 27 屆中國(guó)機(jī)器人及人工智能大賽 - 百度 Apollo 星火自動(dòng)駕駛大賽總決賽蘇州圓滿落幕。作為國(guó)內(nèi)自動(dòng)駕駛領(lǐng)域最具影響力的高
    的頭像 發(fā)表于 08-08 10:46 ?1760次閱讀

    低速自動(dòng)駕駛與乘用車(chē)自動(dòng)駕駛技術(shù)要求上有何不同?

    [首發(fā)于智駕最前沿微信公眾號(hào)]自動(dòng)駕駛技術(shù)的發(fā)展正朝著多元化方向邁進(jìn),其中低速自動(dòng)駕駛小車(chē)(以下簡(jiǎn)稱“低速小車(chē)”)因其物流配送、園區(qū)運(yùn)維、社區(qū)服務(wù)等場(chǎng)景
    的頭像 發(fā)表于 07-14 09:10 ?1023次閱讀
    低速<b class='flag-5'>自動(dòng)駕駛</b>與乘用車(chē)<b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>在</b><b class='flag-5'>技術(shù)</b>要求上有何不同?

    寧暢與與百度文心大模型展開(kāi)深度技術(shù)合作

    近日,百度正式開(kāi)源文心大模型4.5系列模型。作為文心開(kāi)源合作伙伴,寧暢模型開(kāi)源首日即實(shí)現(xiàn)即刻部署,做到“開(kāi)源即接入、發(fā)布即可用”。據(jù)悉,文心4.5開(kāi)源系列全部基于飛槳深度學(xué)習(xí)框架進(jìn)行
    的頭像 發(fā)表于 07-07 16:26 ?870次閱讀

    卡車(chē)、礦車(chē)的自動(dòng)駕駛和乘用車(chē)的自動(dòng)駕駛技術(shù)要求上有何不同?

    [首發(fā)于智駕最前沿微信公眾號(hào)]自動(dòng)駕駛技術(shù)的發(fā)展,讓組合輔助駕駛得到大量應(yīng)用,但現(xiàn)在對(duì)于自動(dòng)駕駛技術(shù)的宣傳,普遍是
    的頭像 發(fā)表于 06-28 11:38 ?1364次閱讀
    卡車(chē)、礦車(chē)的<b class='flag-5'>自動(dòng)駕駛</b>和乘用車(chē)的<b class='flag-5'>自動(dòng)駕駛</b><b class='flag-5'>在</b><b class='flag-5'>技術(shù)</b>要求上有何不同?

    歐洲央行行長(zhǎng)一行到訪百度Apollo Park

    近日,拉加德一行到訪位于北京亦莊(經(jīng)濟(jì)技術(shù)開(kāi)發(fā)區(qū))的百度Apollo Park,與百度Jackson等人交流自動(dòng)駕駛、AI發(fā)展等話題,并在亦
    的頭像 發(fā)表于 06-18 15:44 ?846次閱讀

    百度Apollo向北京工商大學(xué)捐贈(zèng)自動(dòng)駕駛車(chē)輛

    近日,百度Apollo自動(dòng)駕駛車(chē)輛捐贈(zèng)儀式北京工商大學(xué)計(jì)算機(jī)與人工智能學(xué)院舉行。捐贈(zèng)儀式上,百度Apo
    的頭像 發(fā)表于 06-18 14:43 ?1058次閱讀

    百度地圖重磅發(fā)布地圖AI開(kāi)放平臺(tái)

    近日,WGDC25全球時(shí)空智能大會(huì)上,百度地圖重磅發(fā)布地圖AI開(kāi)放平臺(tái)。百度地圖深耕20年的數(shù)據(jù)能力、引擎能力與AI技術(shù)全面開(kāi)放,向開(kāi)發(fā)者深度
    的頭像 發(fā)表于 05-26 11:26 ?1741次閱讀

    百度最新消息:蘿卜快跑自動(dòng)駕駛測(cè)試區(qū)再擴(kuò)大 百度智能云持續(xù)領(lǐng)跑中國(guó)大模型

    分享幾條百度的最新消息: 蘿卜快跑港新進(jìn)展: 自動(dòng)駕駛測(cè)試區(qū)域再擴(kuò)大 香港特別行政區(qū)運(yùn)輸署根據(jù)《道路交通(自動(dòng)駕駛車(chē)輛)規(guī)例》更新自動(dòng)駕駛
    的頭像 發(fā)表于 05-12 19:10 ?992次閱讀
    <b class='flag-5'>百度</b>最新消息:蘿卜快跑<b class='flag-5'>在</b>港<b class='flag-5'>自動(dòng)駕駛</b>測(cè)試區(qū)再擴(kuò)大 <b class='flag-5'>百度</b>智能云持續(xù)領(lǐng)跑中國(guó)大模型

    新能源車(chē)軟件單元測(cè)試深度解析:自動(dòng)駕駛系統(tǒng)視角

    )和AI模塊(如激光雷達(dá)目標(biāo)檢測(cè))。例如,測(cè)試自動(dòng)駕駛路徑規(guī)劃模塊時(shí),可同步注入CAN總線信號(hào)(車(chē)速、轉(zhuǎn)向角)和虛擬點(diǎn)云數(shù)據(jù)(模擬障礙物),實(shí)現(xiàn)多維度耦合驗(yàn)證。 ? 智能覆蓋率
    發(fā)表于 05-12 15:59

    Apollo與神州租車(chē)合作探索全球首個(gè)自動(dòng)駕駛汽車(chē)租賃服務(wù)

    ? 2025年5月8日,Apollo與中國(guó)最大的租車(chē)平臺(tái)神州租車(chē)北京舉行戰(zhàn)略簽約儀式,并宣布正式達(dá)成深度合作。雙方將聯(lián)合推出全球首個(gè)自動(dòng)駕駛汽車(chē)租賃服務(wù),依托
    的頭像 發(fā)表于 05-08 17:31 ?901次閱讀

    百度AI領(lǐng)域的最新進(jìn)展

    近日,我們武漢舉辦了Create2025百度AI開(kāi)發(fā)者大會(huì),與全球各地的5000多名開(kāi)發(fā)者,分享了百度AI領(lǐng)域的新進(jìn)展。
    的頭像 發(fā)表于 04-30 10:14 ?1330次閱讀