91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于激光雷達(dá)的全稀疏3D物體檢測(cè)器

CVer ? 來(lái)源:CVer ? 作者:明月不諳離苦 ? 2022-11-15 14:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

介紹一下我們組前段時(shí)間的一個(gè)微小工作

3d56525e-64a4-11ed-8abf-dac502259ad0.png

Fully Sparse 3D Object Detection (NeurIPS 2022)

Authors:Lue Fan,王峰, 王乃巖,Zhaoxiang Zhang

論文:https://arxiv.org/abs/2207.10035

代碼已經(jīng)開(kāi)源在:

https://github.com/tusen-ai/SST

長(zhǎng)話短說(shuō),我們提出了一種基于激光雷達(dá)的全稀疏3D物體檢測(cè)器,在Waymo數(shù)據(jù)集和Argoverse 2數(shù)據(jù)集上都達(dá)到了不錯(cuò)的精度和速度。下面是一個(gè)簡(jiǎn)要的介紹。

一、導(dǎo)言

目前以SECOND,PointPillars以及CenterPoint為代表的主流一階段點(diǎn)云物體檢測(cè)器都或多或少依賴致密特征圖(dense feature map)。這些方法基本都會(huì)把稀疏體素特征“拍成“dense BEV feature map。這樣做可以沿用2D檢測(cè)器的很多套路,取得了非常不錯(cuò)的性能。但是由于dense feature map的計(jì)算量和檢測(cè)范圍的平方成正比,使得這些檢測(cè)器很難scale up到大范圍long-range檢測(cè)場(chǎng)景中。比如新出的Argoverse 2數(shù)據(jù)集具有[-200, 200] x [-200, 200]的理論檢測(cè)范圍,比常用的不超過(guò)[-75. 75] x [-75, 75]的范圍大了許多。于是便引出了本文想解決的一個(gè)痛點(diǎn)問(wèn)題:

如何去掉這些dense feature map,把檢測(cè)器做成fully sparse的,以此高效地實(shí)現(xiàn) long-range LiDAR detection?

這里補(bǔ)一句:全稀疏其實(shí)并不是一個(gè)新概念,在點(diǎn)云物體檢測(cè)發(fā)展的早期,以PointRCNN為代表的眾多純point-based 方法天生就是全稀疏的。但由于Neighborhood query和FPS的存在,純point-based方法在大規(guī)模點(diǎn)云數(shù)據(jù)上的效率不是很理想。這就導(dǎo)致純point-based方法在點(diǎn)云規(guī)模較大的benchmark上性能表現(xiàn)不佳(沒(méi)辦法用較大的模型和分辨率。)

而去掉dense feature map的一個(gè)直接問(wèn)題就是會(huì)導(dǎo)致物體中心特征的缺失(center feature missing)。這是由于點(diǎn)云常常分布在物體的側(cè)表面,對(duì)于大物體尤其如此。在dense detector中,多層的卷積會(huì)把物體邊緣的有效特征擴(kuò)散到物體中心,因此這些檢測(cè)器不存在直接的中心特征缺失問(wèn)題,可以使用已被證明非常有效的center assignment。下圖展示了特征擴(kuò)散的過(guò)程:

3d8a4cd0-64a4-11ed-8abf-dac502259ad0.jpg

為了解決在全稀疏結(jié)構(gòu)下中心特征缺失的問(wèn)題,我們有一個(gè)基本想法:

既然中心特征缺失了,那么就不依靠中心特征做預(yù)測(cè),而是依靠物體整體的有效特征做預(yù)測(cè)。

二、方法

順著上面的基本想法,一個(gè)具體的思路就是先把物體分割出來(lái),再將物體當(dāng)作一個(gè)整體,并用稀疏的方式提取特征。第一步的分割在全稀疏的結(jié)構(gòu)下很好實(shí)現(xiàn),接下來(lái)物體特征的提取也可以通過(guò)眾多成熟的point-based方法實(shí)現(xiàn)。那么我們的方法就呼之欲出了:

sparse voxel encoder作為backbone和segmentor來(lái)分割物體并預(yù)測(cè)每個(gè)點(diǎn)所對(duì)應(yīng)的物體中心

對(duì)預(yù)測(cè)出來(lái)的眾多中心點(diǎn)進(jìn)行聚類,得到一個(gè)一個(gè)的instance。這一步類似VoteNet,但我們采用了connected component labeling的方式來(lái)聚類,這一點(diǎn)其實(shí)對(duì)大物體性能挺重要的。

對(duì)于每一個(gè)instance用稀疏的方式提取整體特征,并進(jìn)行該instance外接框的reasoning。

前兩步都很簡(jiǎn)單直接,但第三步稍有麻煩。對(duì)instance提取特征最常用的選擇就是在instance內(nèi)部做point-based operation, 但是之前提到這類方法效率較低。因此我們?cè)噲D規(guī)避其中諸如neighborhood query和FPS這種比較耗時(shí)的操作。我們的想法是,既然已經(jīng)得到了一個(gè)個(gè)instance,何不直接將instance作為一個(gè)一個(gè)獨(dú)立neighborhood group,扔掉進(jìn)一步的ball query或者KNN操作。

這樣做實(shí)質(zhì)上是把instance當(dāng)成了“voxel”來(lái)處理,因?yàn)閕nstance和voxel本質(zhì)上都屬于對(duì)整個(gè)點(diǎn)云的一種non-overlapping劃分。那么我們就可以直接套用提取單個(gè)體素特征那一套方案來(lái)提取instance特征,比如Dynamic VFE。具體而言,就是對(duì)instance內(nèi)的每個(gè)點(diǎn)做MLP,再做instance-wise的pooling得到instance feature。instance feature又可以重新assign到instance內(nèi)部的每個(gè)point上,這一過(guò)程可以不斷重復(fù)。這本質(zhì)上是多個(gè)簡(jiǎn)單的PointNet疊加,也可以換成其他更強(qiáng)力的操作。值得強(qiáng)調(diào)的是,由于3D空間里instance之間天然不會(huì)重疊(正如同voxel),以上的pooling操作可以通過(guò)torch中scatter operation來(lái)高效地動(dòng)態(tài)實(shí)現(xiàn)(無(wú)需對(duì)每個(gè)組進(jìn)行padding或者設(shè)置點(diǎn)數(shù)上限)。

得到最終的instance feature之后,直接預(yù)測(cè)對(duì)應(yīng)instance的外接框和類別即可,我們將整個(gè)對(duì)instance進(jìn)行處理的模塊稱之為 Sparse Instance Recognition (SIR)。

方法總體框架如下圖所示:

3d9d7c60-64a4-11ed-8abf-dac502259ad0.png

Overall Pipeline

這其中還包含著一些后續(xù)操作,比如對(duì)重新分割出比聚類得到的更準(zhǔn)確的instance,感興趣的讀者可以查看原文。

三、結(jié)果

提出的方法在Waymo的單幀單模型標(biāo)準(zhǔn)賽道上達(dá)到了SOTA的性能

3de4ad74-64a4-11ed-8abf-dac502259ad0.jpg

Waymo validation 上的性能,截圖不全,感興趣的讀者可查看原論文

同時(shí)也在新出的Argoverse 2數(shù)據(jù)集上超越了主流的CenterPoint(雖然還沒(méi)幾個(gè)人刷。。)。

值得多提一嘴的是我們的方法在長(zhǎng)距離檢測(cè)上有巨大的效率優(yōu)勢(shì),如下圖所示

3dfb29f0-64a4-11ed-8abf-dac502259ad0.jpg

這是用SST backbone測(cè)的,用SparseConv的backbone效果更佳

四、一些特性

我們的方法不受sparse backbone的類型限制,比如文中我們就使用了sparse transformer和sparse conv兩種結(jié)構(gòu)。這一點(diǎn)使得FSD可以作為sparse backbone方面研究的一個(gè)strong baseline。

該方法雖然暫時(shí)聚焦在檢測(cè)任務(wù),但已經(jīng)有了multi task的影子,可以把segmentation和detection一體化。

前向速度很快,再加上收斂也極快,Waymo上訓(xùn)練6個(gè)epoch就可以達(dá)到準(zhǔn)sota水平。這在8 x 3090上只需要不到半天時(shí)間,其他方法達(dá)到相同性能可能需要至少2天的訓(xùn)練時(shí)間。這應(yīng)該會(huì)給大家的快速實(shí)驗(yàn)迭代提供很大便利。

我們相信稀疏化是將來(lái)的一個(gè)趨勢(shì)。在很多場(chǎng)景下,sparse feature都比相比笨重的dense feature map具有更高的可操作性和靈活性,歡迎大家試用我們的模型。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 檢測(cè)器
    +關(guān)注

    關(guān)注

    1

    文章

    936

    瀏覽量

    49955
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    980

    文章

    4473

    瀏覽量

    196586

原文標(biāo)題:NeurIPS 2022 | 中科院&圖森未來(lái)提出FSD:全稀疏的3D目標(biāo)檢測(cè)器

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    激光雷達(dá)助力泳池水下機(jī)器人建圖+定位覆蓋

    激光雷達(dá)助力泳池水下機(jī)器人建圖+定位覆蓋
    的頭像 發(fā)表于 02-25 14:24 ?223次閱讀
    <b class='flag-5'>激光雷達(dá)</b>助力泳池水下機(jī)器人建圖+定位<b class='flag-5'>全</b>覆蓋

    禾賽科技2025年割草機(jī)器人3D激光雷達(dá)出貨量第一

    1 月 8 日,全球激光雷達(dá)領(lǐng)導(dǎo)者禾賽科技(NASDAQ: HSAI;HKEX: 2525)今日宣布,禾賽 2025 年割草機(jī)器人 3D 激光雷達(dá)出貨量第一,2026 CES 現(xiàn)場(chǎng)搭載 3D
    的頭像 發(fā)表于 01-10 11:49 ?951次閱讀

    全球體積最小4D FMCW激光雷達(dá)亮相!

    激光雷達(dá),首次成功跨越FMCW激光雷達(dá)成本與性能平衡的行業(yè)臨界點(diǎn),讓高性價(jià)比的4D FMCW激光雷達(dá)技術(shù)真正落地人形機(jī)器人、機(jī)器狗、無(wú)人配送、智能割草機(jī)及
    發(fā)表于 12-29 08:49 ?1238次閱讀
    全球體積最小4<b class='flag-5'>D</b> FMCW<b class='flag-5'>激光雷達(dá)</b>亮相!

    如何為自動(dòng)駕駛汽車選擇一款合適的激光雷達(dá)?

    物體離傳感多遠(yuǎn)。把很多這樣的測(cè)距結(jié)果按角度組織起來(lái),就能得到一個(gè)三維的“點(diǎn)云”,用來(lái)表示周圍物體的形狀和位置。激光雷達(dá)的主要作用就是讓車知道周圍有哪些東西、在什么位置、大概是什么大小
    的頭像 發(fā)表于 12-14 09:58 ?2612次閱讀
    如何為自動(dòng)駕駛汽車選擇一款合適的<b class='flag-5'>激光雷達(dá)</b>?

    什么是激光雷達(dá) 3D SLAM技術(shù)?

    在智能移動(dòng)設(shè)備自主運(yùn)行的賽道上,激光雷達(dá)3DSLAM技術(shù)正成為破局關(guān)鍵,但多數(shù)人對(duì)其認(rèn)知仍停留在表層。要讀懂這一核心技術(shù),不妨先回溯“SLAM”的本質(zhì)——SLAM
    的頭像 發(fā)表于 12-02 19:23 ?607次閱讀
    什么是<b class='flag-5'>激光雷達(dá)</b> <b class='flag-5'>3D</b> SLAM技術(shù)?

    多線激光雷達(dá) 3D SLAM 無(wú)人叉車系統(tǒng)解決方案:開(kāi)啟工業(yè)物流新變革

    在全球工業(yè)自動(dòng)化與物流智能化轉(zhuǎn)型的關(guān)鍵時(shí)刻,鐳神智能憑借十余年激光雷達(dá)自主導(dǎo)航技術(shù)積淀,成功打造出世界領(lǐng)先的多線激光雷達(dá)3DSLAM無(wú)人叉車/AMR(自主移動(dòng)機(jī)器人)系統(tǒng)解決方案。核心技術(shù)解析
    的頭像 發(fā)表于 11-28 19:46 ?1095次閱讀
    多線<b class='flag-5'>激光雷達(dá)</b> <b class='flag-5'>3D</b> SLAM 無(wú)人叉車系統(tǒng)解決方案:開(kāi)啟工業(yè)物流新變革

    3D傳感到立體相機(jī),解鎖工業(yè)應(yīng)用新可能

    3D傳感是實(shí)現(xiàn)深度感知的核心技術(shù)。這些傳感廣泛應(yīng)用于多種常見(jiàn)的3D視覺(jué)技術(shù)中,例如立體相機(jī)、激光雷達(dá)(LiDAR)、飛行時(shí)間(ToF)相
    的頭像 發(fā)表于 11-28 17:03 ?1868次閱讀
    從<b class='flag-5'>3D</b>傳感<b class='flag-5'>器</b>到立體相機(jī),解鎖工業(yè)應(yīng)用新可能

    【CIE全國(guó)RISC-V創(chuàng)新應(yīng)用大賽】+基于MUSE Pi Pro的3d激光里程計(jì)實(shí)現(xiàn)

    基于Point-LIO算法的系統(tǒng)設(shè)計(jì)、實(shí)現(xiàn)方法和優(yōu)化策略。 1. 系統(tǒng)概述 項(xiàng)目目標(biāo) 利用MUSE Pi Pro開(kāi)發(fā)板和速騰聚創(chuàng)Airy 96線激光雷達(dá)傳感,基于Point-LIO算法開(kāi)發(fā)高性能的3D
    發(fā)表于 10-24 17:02

    洛微科技攜4D FMCW激光雷達(dá)3D感知方案閃耀光博會(huì),引領(lǐng)行業(yè)新趨勢(shì)

    2025年9月10至12日,第二十六屆中國(guó)國(guó)際光電博覽會(huì)(CIOE)在深圳隆重舉行。杭州洛微科技有限公司作為激光雷達(dá)3D感知領(lǐng)域的創(chuàng)新企業(yè)受邀參展。公司營(yíng)銷副總劉飛在會(huì)上發(fā)表了題為《FMCW
    的頭像 發(fā)表于 09-18 15:12 ?1112次閱讀
    洛微科技攜4<b class='flag-5'>D</b> FMCW<b class='flag-5'>激光雷達(dá)</b>與<b class='flag-5'>3D</b>感知方案閃耀光博會(huì),引領(lǐng)行業(yè)新趨勢(shì)

    奧比中光發(fā)布最新一代3D激光雷達(dá)及雙目深度相機(jī)

    近日,世界機(jī)器人大會(huì)現(xiàn)場(chǎng),奧比中光發(fā)布最新一代3D激光雷達(dá)及雙目深度相機(jī),以“場(chǎng)景拓展”與“極限感知”為核心優(yōu)勢(shì),進(jìn)階領(lǐng)域能力矩陣,刷新機(jī)器人性能上限,為各類機(jī)器人帶來(lái)更靈活可靠的視覺(jué)解決方案。
    的頭像 發(fā)表于 08-15 15:05 ?1444次閱讀

    海伯森面陣固態(tài)激光雷達(dá)產(chǎn)品概述

    HPS-3D160 Pr0、HPS-3D640面陣固態(tài)激光雷達(dá)基于ToF(Time-of-Flight)原理,集成了精密的紅外鏡頭和激光照明系統(tǒng),內(nèi)置高性能處理
    的頭像 發(fā)表于 06-23 10:07 ?1214次閱讀
    海伯森面陣固態(tài)<b class='flag-5'>激光雷達(dá)</b>產(chǎn)品概述

    為什么割草機(jī)都在轉(zhuǎn)向3D激光雷達(dá)技術(shù)

    在忙碌的生活中,打理草坪似乎總是一件讓人頭疼的事情。但如今,一項(xiàng)原本用于高端自動(dòng)駕駛的技術(shù)——3D 激光雷達(dá),正在悄然改變庭院維護(hù)的方式。它讓割草機(jī)變得更加智能,極大地提升了我們的生活品質(zhì)。想象一下,你只需按下啟動(dòng)鍵,割草機(jī)就能自動(dòng)規(guī)劃路徑、避開(kāi)障礙物,大幅減輕人力勞動(dòng),
    的頭像 發(fā)表于 05-17 11:20 ?1067次閱讀

    自動(dòng)駕駛激光雷達(dá):原理、類型與應(yīng)用梳理

    來(lái)探測(cè)物體。白天或黑夜下的物體與車之間的距離。甚至由于反射度的不同,車道線和路面也可以區(qū)分。光束無(wú)法探測(cè)到被遮擋的物體。 2.激光雷達(dá)的關(guān)鍵參數(shù) 點(diǎn)頻:每幀水平方向平均點(diǎn)數(shù)x垂直方向平
    的頭像 發(fā)表于 04-25 11:48 ?2853次閱讀
    自動(dòng)駕駛<b class='flag-5'>激光雷達(dá)</b>:原理、類型與應(yīng)用梳理

    激光雷達(dá)技術(shù)在自動(dòng)駕駛汽車中的應(yīng)用

    在不斷發(fā)展的汽車技術(shù)領(lǐng)域,LiDAR(光探測(cè)和測(cè)距)傳感——也就是“激光雷達(dá)”——已成為關(guān)鍵組件,隨著汽車行業(yè)向自主化邁進(jìn),激光雷達(dá)傳感在提供安全導(dǎo)航所需的實(shí)時(shí)
    的頭像 發(fā)表于 04-10 10:11 ?2514次閱讀
    <b class='flag-5'>激光雷達(dá)</b>技術(shù)在自動(dòng)駕駛汽車中的應(yīng)用

    OptiSystem應(yīng)用:激光雷達(dá)系統(tǒng)設(shè)計(jì)

    ,CFTNoiseThreshold可以修改恒比鑒別的靈敏度。 圖3.激光測(cè)距系統(tǒng) 2.測(cè)距(相移) 測(cè)量對(duì)象/目標(biāo)的距離的另一種方法是使用相移測(cè)距儀。 利用該方法,光源以特定頻率Rf被調(diào)制并且朝向目標(biāo)
    發(fā)表于 03-31 10:18