91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于自動駕駛場景Occupancy和Flow的運(yùn)動預(yù)測

地平線HorizonRobotics ? 來源:地平線HorizonRobotics ? 作者:地平線HorizonRobot ? 2022-07-05 11:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要:近年來自動駕駛場景中的預(yù)測任務(wù)逐漸興起一種新形式,即預(yù)測未來基于鳥瞰圖的空間占有柵格(occupancy)和光流(flow)。此類預(yù)測任務(wù)與傳統(tǒng)預(yù)測軌跡的任務(wù)相比在很多場景下會提供更多的信息,作為自動駕駛上下游的一環(huán),有著更廣泛的應(yīng)用場景。在今年的Waymo Open Dataset Challenge 2022上,Waymo推出了此任務(wù)的全新挑戰(zhàn)賽。地平線在這個項(xiàng)目上研發(fā)出了一種全新的利用時空信息進(jìn)行編碼解碼的層級網(wǎng)絡(luò),通過多重編碼網(wǎng)絡(luò),多尺度時空融合,預(yù)測隱變量以及聯(lián)合柵格占有和光流的損失函數(shù)等創(chuàng)新性技術(shù),將這一任務(wù)的精度推上新的高度。

背景

預(yù)測任務(wù)是自動駕駛場景中至關(guān)重要的一項(xiàng)任務(wù),其目的是通過對運(yùn)動物體的歷史軌跡和運(yùn)動狀態(tài)的觀測,結(jié)合道路信息,推測其未來的行為,為下游的規(guī)劃控制提供更豐富的預(yù)測信息。其表征形式通常為多條未來可能的軌跡。近年來,越來越多的研究表明,基于鳥瞰圖的空間占有柵格和光流的表征形式相比多條軌跡預(yù)測有更強(qiáng)的表征能力。相比于軌跡的形式,占有柵格有更豐富的空間分布信息,能更好的表征動態(tài)物體的位置,形狀,身份的不確定性;其聯(lián)合概率分布的形式在一定程度上可以處理物體之間的交互的能力;同時,所有的動態(tài)物體可以同時并行處理,極大地提升了處理的效率;另外,此種方法還具有推測被遮擋物體的能力,能有效預(yù)防諸如“鬼探頭”等的情況;最后,其鳥瞰圖下的表征形式能更好地與上下游相結(jié)合?;谶@個趨勢,Waymo于今年推出了全新的自動駕駛挑戰(zhàn)賽項(xiàng)目,即Occupancy and Flow Prediction Challenge。此挑戰(zhàn)賽給定過去一秒中動態(tài)物體(車輛,自行車和行人)的運(yùn)動軌跡,要求對未來八秒的可觀測物體的柵格占有、遮擋物體的柵格占有以及對應(yīng)光流做預(yù)測。本方法結(jié)合了CNN、transformer、三維稀疏卷積等優(yōu)勢,利用隱變量豐富了未來的信息,創(chuàng)新性地引入了層級時序解碼機(jī)制,在此次Waymo挑戰(zhàn)賽中取得了極佳的成績。

方法

e883bd60-fba9-11ec-ba43-dac502259ad0.png

輸入

模型的輸入包含了動態(tài)信息和靜態(tài)信息。其中動態(tài)信息包含了歷史幀和當(dāng)前幀的動態(tài)物體(車輛,自行車和行人)的空間占有柵格信息以及對應(yīng)物體的屬性信息(比如物體檢測框的長寬高和速度等信息),靜態(tài)信息包含了整個場景的路面相關(guān)信息(比如道路中線,道路邊緣,路面其他特征等)。所有信息都被處理成二維鳥瞰圖并進(jìn)一步進(jìn)行時間尺度上的聚合。我們同時使用了2D編碼器和3D編碼器,其中針對2D編碼器,動態(tài)信息輸入會直接在特征維上進(jìn)行時間拼接;而針對3D編碼器,時間會作為額外的維度(靜態(tài)信息在每一幀上進(jìn)行復(fù)制),并且輸入會作稀疏化處理。 編碼器

編碼器一共分為三種,分別是基本編碼器,注意力編碼器以及時空編碼器

基本編碼器:作為整個框架的基本編碼器,我們選擇使用了RegNet[1]模型。RegNet是一個設(shè)計完備且效率很高的模型。編碼器經(jīng)過層層降采樣編碼,生成了5個維度上的特征,對應(yīng)的尺度分別是輸入的1/2,1/4,1/8,1/16和1/32。

注意力編碼器:近年來,在檢測和分割任務(wù)中,SwinTransformer及其升級版SwinTransformerV2[2]取得了很好的結(jié)果?;谄洫?dú)特的局部窗口注意力機(jī)制,不僅能很好地編碼動態(tài)物體和路面間的交互,還大量地減少了網(wǎng)絡(luò)計算量,因此我們使用了SwinTransformerV2來作為整個網(wǎng)絡(luò)的注意力編碼器。為了可以和基本編碼器輸出特征的尺度相對應(yīng),我們將每個patch的尺寸由4改成了2,由此注意力編碼器可以輸出和基本編碼器尺度相同的5個特征。

e8a677ce-fba9-11ec-ba43-dac502259ad0.png

時空編碼器:為了更好地進(jìn)行幀間信息交互提取,我們設(shè)計了一個3D時空編碼器來額外捕捉時間尺度上的信息。因?yàn)槲覀兊妮斎胄畔⒃邙B瞰圖上有著很高的稀疏度,我們選擇使用3D稀疏卷積和子流形稀疏卷積[3]來搭建網(wǎng)絡(luò)。這樣既可以大量地加速3D卷積的計算也可以有效防止稀疏特征在早期過快地膨脹(dilation)。我們對應(yīng)其他編碼器,設(shè)計了5階段網(wǎng)絡(luò),其中時間維在2和4階段進(jìn)行下采樣。針對網(wǎng)絡(luò)的每個輸出特征,我們將時間維和特征維進(jìn)行合并來使特征降維。

e8cd57ea-fba9-11ec-ba43-dac502259ad0.png

聚合器

聚合器由兩部分組成,在空間尺度上,我們利用BiFPN做多尺度的聚合;在時間尺度上,我們利用隱變量模型來豐富未來的信息。類比于條件變分器,我們在每一個尺度,每一個空間位置都對未來的概率進(jìn)行建模。在訓(xùn)練階段,我們基于現(xiàn)在時刻的概率分布做采樣。推理階段,我們直接采用概率分布均值。為了保證預(yù)測分布和已觀測分布的一致性,我們采用Kullback-Leibler divergence損失函數(shù)作為監(jiān)督信號。

e8eebc50-fba9-11ec-ba43-dac502259ad0.jpg

解碼器

解碼器采用多層級多尺度的特征金字塔形式,基本的組成單元為3D卷積Bottleneck結(jié)構(gòu)。3D bottleneck中采用了膨脹卷積和分組卷積,可以極大地擴(kuò)大感受野并節(jié)省計算量。同時,為了將編碼后的2D特征做時序展開,我們引入了3D轉(zhuǎn)置卷積Bottleneck。這些堆疊的bottleneck通過上采樣進(jìn)行多尺度的鏈接,有效地融合了多尺度的信息。同時,為了節(jié)省計算量,我們在輸出尺度上用ConvLSTM做時序上的修正。

e92a2dee-fba9-11ec-ba43-dac502259ad0.png

ec74a024-fba9-11ec-ba43-dac502259ad0.png

損失函數(shù)

對于可觀測占有柵格和被遮擋占有柵格的預(yù)測,我們采用Focal Loss作為其監(jiān)督信號,兩者采用相同的權(quán)重進(jìn)行加權(quán)。

eced00be-fba9-11ec-ba43-dac502259ad0.png

對于光流的預(yù)測,我們采用Smooth L1損失函數(shù)。為了將光流和占有率的預(yù)測解耦,我們利用占有率的真值做加權(quán)。

ecfe2f2e-fba9-11ec-ba43-dac502259ad0.png

為了保證柵格占有率和光流預(yù)測的一致性,我們采用跟蹤損失函數(shù)進(jìn)行進(jìn)一步監(jiān)督。利用光流的預(yù)測,我們可以對前一幀的柵格占有率進(jìn)行空間變形來得到當(dāng)前幀的基于光流的空間占有預(yù)測。

ed39b922-fba9-11ec-ba43-dac502259ad0.png

最后將基于光流的空間占有預(yù)測和當(dāng)前幀柵格占有預(yù)測相乘,來得到當(dāng)前幀的空間占有-光流聯(lián)合預(yù)測,并用此聯(lián)合預(yù)測和當(dāng)前幀的柵格占有真值來計算損失函數(shù)traced loss。我們同時采用Focal loss和交叉熵?fù)p失函數(shù)進(jìn)行監(jiān)督[4]。

ed5b9b00-fba9-11ec-ba43-dac502259ad0.png

為保證聚合器中隱變量中現(xiàn)在和未來的一致性,我們采用Kullback-Leibler divergence損失函數(shù)作為監(jiān)督信號[5]來監(jiān)督預(yù)測的概率分布函數(shù)參數(shù)。

ed7f3c72-fba9-11ec-ba43-dac502259ad0.png

ed9fec56-fba9-11ec-ba43-dac502259ad0.png

最后,所有的損失函數(shù)進(jìn)行加權(quán)和作為最后的損失函數(shù)。

edb2da32-fba9-11ec-ba43-dac502259ad0.png

實(shí)驗(yàn)結(jié)果

消融實(shí)驗(yàn)

本表展示了在Waymo數(shù)據(jù)集上的消融實(shí)驗(yàn)結(jié)果,灰色的一列為評測的主指標(biāo)??梢钥闯?,loss的改進(jìn),如focal loss和traced loss分別帶來了2.01%和0.46%的提升。同時,更豐富的柵格化輸入帶來了1.23%的提升。同時,結(jié)構(gòu)化的改進(jìn),包括隱變量,時空解碼器,以及解碼器的改進(jìn)帶來了約1.21%的提升。最后TTA帶來了約0.40%的提升。值得一提的是,所有的實(shí)驗(yàn)都是在十分之一的數(shù)據(jù)集上做的驗(yàn)證。這些結(jié)果充分的說明了我們方法的有效性。

edcf1f94-fba9-11ec-ba43-dac502259ad0.png

測試集表現(xiàn)

下表展示了我們方法在waymo測試集上的排名,灰色的一列代表評測的主指標(biāo),可以看出,我們的結(jié)果在主指標(biāo)上大幅領(lǐng)先對手,充分說明我們方法的優(yōu)越性。

f11ff90c-fba9-11ec-ba43-dac502259ad0.png

結(jié)果可視化

下面展示我們的方法在特定場景下的對接下來8秒占有柵格(左)和光流(右)的可視化結(jié)果。下面列出了直行,紅綠燈路口左轉(zhuǎn)右轉(zhuǎn)掉頭,無保護(hù)左轉(zhuǎn),4-way-stop,無保護(hù)左轉(zhuǎn),自主避障,停車入庫,被遮擋物體的猜測等場景??梢钥闯?,我們的方法能有效地處理復(fù)雜場景,能實(shí)現(xiàn)多動態(tài)物體的交互,交通信息和規(guī)則的理解,自主避障,對被遮擋物體的推測等功能。

普通路面:主要展示對不同車速/加速減速情況的車流預(yù)測,可以看出HOPE能對未來軌跡的不確定性進(jìn)行很好的建模

f13ebd88-fba9-11ec-ba43-dac502259ad0.gif

交叉路口:主要展示對不同轉(zhuǎn)彎,停車等待的車流預(yù)測

f1850d7e-fba9-11ec-ba43-dac502259ad0.gif

掉頭場景:復(fù)雜路口

f1a7a906-fba9-11ec-ba43-dac502259ad0.gif

不確定場景:直行、右轉(zhuǎn)兩條車道都有可能駛?cè)?/p>

f212722c-fba9-11ec-ba43-dac502259ad0.gif

右轉(zhuǎn):右轉(zhuǎn)車輛對直行車輛進(jìn)行了避讓

f2433916-fba9-11ec-ba43-dac502259ad0.gif

左轉(zhuǎn):根據(jù)路口紅綠燈、交通規(guī)則等綜合信息對路權(quán)進(jìn)行判斷

f26a3b92-fba9-11ec-ba43-dac502259ad0.gif

無保護(hù)左轉(zhuǎn):左轉(zhuǎn)車輛對直行車輛進(jìn)行了避讓

f2b43cce-fba9-11ec-ba43-dac502259ad0.gif

2 way stop:可以看見車輛交互,處理先來后到順序

f5c80f76-fba9-11ec-ba43-dac502259ad0.gif

遮擋繞行:可以看見車輛對前方靜止車輛進(jìn)行了繞行

f652d66a-fba9-11ec-ba43-dac502259ad0.gif

停車入庫:小樣本、低速場景預(yù)測,可以看見低速場景下軌跡的不確定性更高,模型可以有多種可能的軌跡預(yù)測

f98a4868-fba9-11ec-ba43-dac502259ad0.gif

遮擋物體的猜測:綠色的為被遮擋物體

f9b56b38-fba9-11ec-ba43-dac502259ad0.gif


審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3961

    瀏覽量

    142764
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    3013

    瀏覽量

    115126
  • 自動駕駛
    +關(guān)注

    關(guān)注

    794

    文章

    14894

    瀏覽量

    180126
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動駕駛端到端為什么會出現(xiàn)黑盒現(xiàn)象?

    自動駕駛領(lǐng)域,端到端(End-to-End)是指從感知環(huán)境的原始數(shù)據(jù)到車輛實(shí)際控制指令,全部交給一個統(tǒng)一的深度學(xué)習(xí)模型來完成。這和傳統(tǒng)的模塊化自動駕駛系統(tǒng)不一樣,模塊化自動駕駛系統(tǒng)會先識別道路和障礙物,再做行為
    的頭像 發(fā)表于 02-20 09:25 ?9328次閱讀
    <b class='flag-5'>自動駕駛</b>端到端為什么會出現(xiàn)黑盒現(xiàn)象?

    自動駕駛汽車如何實(shí)現(xiàn)自動駕駛

    人類駕駛員而言是非常直觀且有效的指令,但對于自動駕駛汽車來說,則意味著需要一套極其復(fù)雜的感知、理解與決策鏈路。 自動駕駛如何看清文字? 自動駕駛汽車感知漢字的第一步是
    的頭像 發(fā)表于 02-10 08:50 ?658次閱讀
    <b class='flag-5'>自動駕駛</b>汽車如何實(shí)現(xiàn)<b class='flag-5'>自動駕駛</b>

    自動駕駛場景生成方法及優(yōu)選方案:康謀aiSim 3DGS方案重塑行業(yè)標(biāo)準(zhǔn)

    自動駕駛技術(shù)飛速發(fā)展的當(dāng)下,仿真測試的重要性愈發(fā)凸顯,而 自動駕駛場景生成 作為仿真測試的核心環(huán)節(jié),其技術(shù)水平直接決定了測試的效率與可靠性。面對傳統(tǒng)場景生成方式的諸多痛點(diǎn),基于生成式
    的頭像 發(fā)表于 02-02 17:39 ?372次閱讀

    如何設(shè)計好自動駕駛ODD?

    為確定自動駕駛的可使用范圍,會給自動駕駛設(shè)置一個運(yùn)行設(shè)計域(Operational Design Domain,ODD)。ODD的作用就是用來明確自動駕駛在什么情況下能工作,在什么情況下不能工作,給車設(shè)定“工作范圍”。
    的頭像 發(fā)表于 01-24 09:27 ?1554次閱讀

    世界模型是讓自動駕駛汽車?yán)斫馐澜邕€是預(yù)測未來?

    ? [首發(fā)于智駕最前沿微信公眾號]世界模型在自動駕駛技術(shù)中已有廣泛應(yīng)用。但當(dāng)談及它對自動駕駛的作用時,難免會出現(xiàn)分歧。它到底是讓自動駕駛汽車得以理解世界,還是為其提供了預(yù)測未來的視角?
    的頭像 發(fā)表于 12-16 09:27 ?893次閱讀
    世界模型是讓<b class='flag-5'>自動駕駛</b>汽車?yán)斫馐澜邕€是<b class='flag-5'>預(yù)測</b>未來?

    自動駕駛為什么要重視軌跡預(yù)測?

    軌跡預(yù)測。 軌跡預(yù)測要做的是,在幾秒到十幾秒的時間范圍內(nèi),判斷出“其他交通參與者可能會怎么移動”。如果缺少這個能力,自動駕駛系統(tǒng)更像是一個被動的跟隨者,只能針對當(dāng)前狀況做出反應(yīng);一旦前方出現(xiàn)突發(fā)狀況,很容易應(yīng)對
    的頭像 發(fā)表于 11-20 10:45 ?717次閱讀
    <b class='flag-5'>自動駕駛</b>為什么要重視軌跡<b class='flag-5'>預(yù)測</b>?

    無引導(dǎo)線的左轉(zhuǎn)場景下,自動駕駛如何規(guī)劃軌跡?

    對于很多新手司機(jī)來說,在無引導(dǎo)線左轉(zhuǎn)的場景中,開車會非常謹(jǐn)慎,但依舊會很好地處理好這一操作。但對于自動駕駛汽車來說,其行駛需要有較為明顯的參考線,在沒有白色虛線、沒有箭頭感知“我的車道在哪兒”的交通
    的頭像 發(fā)表于 09-18 09:12 ?772次閱讀
    無引導(dǎo)線的左轉(zhuǎn)<b class='flag-5'>場景</b>下,<b class='flag-5'>自動駕駛</b>如何規(guī)劃軌跡?

    自動駕駛汽車如何處理“鬼探頭”式的邊緣場景

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛遇到“鬼探頭”式的邊緣場景時應(yīng)該如何處理?其實(shí)對于自動駕駛汽車來說,無論是常規(guī)場景,還是邊緣場景,它都
    的頭像 發(fā)表于 08-29 11:11 ?807次閱讀
    <b class='flag-5'>自動駕駛</b>汽車如何處理“鬼探頭”式的邊緣<b class='flag-5'>場景</b>?

    低速和高速自動駕駛的應(yīng)用場景和技術(shù)方向有何不同?

    [首發(fā)于智駕最前沿微信公眾號]在很多交流場景中,當(dāng)我說到自動駕駛技術(shù)的應(yīng)用還不成熟,現(xiàn)在只能達(dá)到L2級時,就會有些小伙伴提到快遞、外賣小車的應(yīng)用,他們認(rèn)為這些小車已經(jīng)不需要駕駛駕駛
    的頭像 發(fā)表于 08-03 09:35 ?1037次閱讀

    卡車、礦車的自動駕駛和乘用車的自動駕駛在技術(shù)要求上有何不同?

    ,自動駕駛技術(shù)也得到了充足的應(yīng)用,但因應(yīng)用場景不同,技術(shù)的側(cè)重方向也有所區(qū)別。今天就來和大家聊一聊這個話題。 應(yīng)用場景:開放道路vs封閉場地 首先要理解的是,自動駕駛所面對的環(huán)境決定了
    的頭像 發(fā)表于 06-28 11:38 ?1455次閱讀
    卡車、礦車的<b class='flag-5'>自動駕駛</b>和乘用車的<b class='flag-5'>自動駕駛</b>在技術(shù)要求上有何不同?

    自動駕駛安全基石:ODD

    電子發(fā)燒友網(wǎng)綜合報道 自動駕駛ODD(Operational Design Domain)即設(shè)計運(yùn)行域,是指自動駕駛系統(tǒng)被設(shè)計為安全、有效運(yùn)行的具體條件范圍。它定義了自動駕駛汽車在哪些環(huán)境、
    的頭像 發(fā)表于 05-19 03:52 ?6480次閱讀

    新能源車軟件單元測試深度解析:自動駕駛系統(tǒng)視角

    。 ?自動駕駛軟件的特殊性? ? 感知層: ?激光雷達(dá)、攝像頭等傳感器數(shù)據(jù)處理算法的單元測試需覆蓋極端場景。例如,激光雷達(dá)點(diǎn)云濾波算法在雨雪天氣下的噪聲抑制能力需通過邊界測試驗(yàn)證。某廠商曾在測試中遺漏
    發(fā)表于 05-12 15:59

    自動駕駛大模型中常提的Token是個啥?對自動駕駛有何影響?

    、多模態(tài)傳感器數(shù)據(jù)的實(shí)時處理與決策。在這一過程中,大模型以其強(qiáng)大的特征提取、信息融合和預(yù)測能力為自動駕駛系統(tǒng)提供了有力支持。而在大模型的中,有一個“Token”的概念,有些人看到后或許會問: Token是個啥?對自動駕駛
    的頭像 發(fā)表于 03-28 09:16 ?1370次閱讀