91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于SupSLAM視覺慣性SLAM方法在無人機(jī)中的應(yīng)用研究

jt_rfid5 ? 來源:新機(jī)器視覺 ? 作者:新機(jī)器視覺 ? 2022-10-19 17:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近年來,使用機(jī)器學(xué)習(xí)技術(shù)進(jìn)行特征提取的基于調(diào)制解調(diào)器特征的SLAM越來越受到關(guān)注,并有望在幾乎所有機(jī)器人工作環(huán)境中超越傳統(tǒng)方法。這種方法利用經(jīng)過訓(xùn)練的網(wǎng)絡(luò)來學(xué)習(xí)關(guān)鍵點(diǎn),從而增強(qiáng)可視化SLAM數(shù)據(jù)關(guān)聯(lián)的魯棒性?,F(xiàn)代基于特征的SLAM也有望為實(shí)時映射生成可靠的感知圖,因?yàn)榛趯W(xué)習(xí)的特征點(diǎn)更具可重復(fù)性和均勻分布性。此外,這些局部特征可以用作神經(jīng)對應(yīng)網(wǎng)絡(luò)的輸入,以消除異常值,從而使姿態(tài)估計變得更加準(zhǔn)確。另一方面,由于資源有限,無人機(jī)上的SLAM經(jīng)常對計算構(gòu)成限制。在這種情況下,基于特征的SLAM更相關(guān),因?yàn)樘崛〉呐d趣點(diǎn)可以稍后用于與分割和對象檢測相關(guān)的任務(wù)。

因此,提取特征點(diǎn)的方法在SLAM中起著關(guān)鍵作用。我們引入了一種名為SupSLAM的視覺慣性SLAM方法,該方法基于一種稱為超級點(diǎn)的新特征點(diǎn)的使用。這些特征點(diǎn)通過深度神經(jīng)網(wǎng)絡(luò)從SLAM前端的輸入圖像中提取的。我們的SLAM前端只需要一個帶有IMU作為輸入的立體攝像頭。姿態(tài)估計由多狀態(tài)約束卡爾曼濾波器(MSCKF)進(jìn)行,而軌跡可靠性則由后端運(yùn)行的圖形優(yōu)化過程維護(hù)。

系統(tǒng)架構(gòu)

圖1 中顯示了表示我們的SLAM系統(tǒng)的圖表。該系統(tǒng)使用立體攝像頭作為輸入來提取環(huán)境特征。該相機(jī)配有IMU,用于測量線性加速度和角速度。然后通過前端和后端模塊處理來自輸入設(shè)備的數(shù)據(jù)。

9e79bfa8-4e0b-11ed-a3b6-dac502259ad0.png

圖1系統(tǒng)概述

前端從輸入數(shù)據(jù)中提取特征點(diǎn),然后在左右攝像頭之間匹配它們以獲取深度信息。然后將這些信息提供給多態(tài)約束MSCKF,以估計無人機(jī)的3D姿態(tài)。另一方面,后端跟蹤關(guān)鍵幀中的要素,以執(zhí)行映射一致性和軌跡估計的循環(huán)閉包過程。因此,前端表現(xiàn)為視覺慣性里程計(VIO),以提供無人機(jī)姿勢的實(shí)時估計,而后端則跟蹤并隨時間調(diào)整姿勢。

SLAM 中數(shù)據(jù)關(guān)聯(lián)的超級點(diǎn)

SuperPoint是一個完全卷積的神經(jīng)網(wǎng)絡(luò),它在單個正向傳遞和運(yùn)行中計算2D特征點(diǎn)位置和描述符。在我們的工作中,我們只考慮特征點(diǎn),以降低計算成本并保持匹配結(jié)果的一致性。所用超級點(diǎn)的體系結(jié)構(gòu)如圖 2所示。

9e944562-4e0b-11ed-a3b6-dac502259ad0.jpg

圖2超級點(diǎn)的模型架構(gòu)

實(shí)驗(yàn)設(shè)置

實(shí)驗(yàn)數(shù)據(jù)是從框架尺寸為40cm x40cm的四軸飛行器中收集的。IMU更新速率為200 Hz。立體相機(jī)的基線為7厘米,分辨率為752x480,速度為每秒20幀。SLAM系統(tǒng)在C++中使用OpenVINS框架實(shí)現(xiàn)。OpenCV和庫用于圖像處理。為了實(shí)時性能,要跟蹤的視覺特征數(shù)限制為400個,當(dāng)活動點(diǎn)數(shù)降至300以下時,將添加新的特征點(diǎn)。預(yù)訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)用于以752x480的分辨率從輸入圖像中提取特征。MSCKF中的時間窗口設(shè)置為3秒。在后端,每隔1.2米向姿勢圖添加新的關(guān)鍵幀。

數(shù)據(jù)準(zhǔn)備

真實(shí)數(shù)據(jù)和合成數(shù)據(jù)都用于實(shí)驗(yàn)。真實(shí)數(shù)據(jù)包括EuRoC數(shù)據(jù)集中名為MH3,MH4和MH5的三個最復(fù)雜的序列,其中無人機(jī)沿著機(jī)房飛行。合成數(shù)據(jù)包括兩個場景,分別代表一個農(nóng)村農(nóng)場和一個城市地區(qū),這些場景是由我們從AirSim開發(fā)的工具集生成的,如圖3所示。

9ea79806-4e0b-11ed-a3b6-dac502259ad0.jpg

圖3用于實(shí)驗(yàn)的農(nóng)村農(nóng)場和城市地區(qū)的綜合場景

評價指標(biāo)

我們使用兩個指標(biāo)進(jìn)行性能評估,包括絕對軌跡誤差(ATE)和相對軌跡誤差(RTE)。計算ATE的方法是首先將估計的軌跡與地面實(shí)況對齊,然后測量它們之間的差異,如圖4a所示。RTE的計算方法是將估計的軌跡劃分為段dk然后將每個線段與地面實(shí)況軌跡對齊,以計算誤差,如圖4b所示。

9eb34930-4e0b-11ed-a3b6-dac502259ad0.jpg

圖4評估指標(biāo)的圖示(a) 絕對軌跡誤差和(b) 相對軌跡誤差

SLAM結(jié)果

圖5 顯示了SuperPoint在三個場景中檢測到的特征點(diǎn),包括城市地區(qū)、農(nóng)村農(nóng)場和機(jī)房,具有兩種不同的設(shè)置,即100個和400個特征點(diǎn)。可以看出,角落,邊緣,顏色變化等特征被很好地檢測到。此外,檢測到的特征分布在圖像中,因此算法對某些對象的依賴性較小。

9ec55ea4-4e0b-11ed-a3b6-dac502259ad0.jpg

圖5超級點(diǎn)檢測到的特征點(diǎn)圖6顯示了檢測到的特征點(diǎn)在左右圖像之間的對應(yīng)關(guān)系??梢钥闯觯蠖鄶?shù)特征點(diǎn)都正確匹配,這意味著提取的深度信息是可靠的。

9ed087ca-4e0b-11ed-a3b6-dac502259ad0.jpg

圖6超級點(diǎn)檢測到的特征點(diǎn)

在不同時間捕獲的兩個圖像幀之間的特征點(diǎn)的跟蹤Δt=0.3s如圖7a 所示。由于檢測到的特征點(diǎn)分布在圖像中,因此幀之間的共同特征點(diǎn)的數(shù)量得到了很好的維護(hù),這對于穩(wěn)定的SLAM非常重要。

9ed9b598-4e0b-11ed-a3b6-dac502259ad0.jpg

圖7使用時差捕獲(a) FAST和(b)兩幀中的超級點(diǎn)的跟蹤結(jié)果Δt=0.3s

圖 8 顯示了LoopF數(shù)據(jù)集的SLAM結(jié)果,其中無人機(jī)在農(nóng)村農(nóng)場上空飛行兩輪??梢钥闯?,最終估計的軌跡(紅線)即使在近500米的長距離上也能很好地跟蹤地面實(shí)況軌跡(黃線)。

9ee92b40-4e0b-11ed-a3b6-dac502259ad0.jpg

圖8LoopF數(shù)據(jù)集的無人機(jī)軌跡包括地面實(shí)況軌跡(黃線)、前端估計(綠線)和后端估計(紅線)

結(jié)果比較

為了進(jìn)一步評估我們方法的性能,我們與OpenVINS 進(jìn)行了比較,OpenVINS是一種最先進(jìn)的SLAM系統(tǒng),使用FAST進(jìn)行特征提取。圖9顯示了FAST檢測到的特征點(diǎn)。與SuperPoint不同,這些特征點(diǎn)集中在某些對象(如植物、房屋或機(jī)器)周圍。因此,當(dāng)物體移出場景時,不同時間拍攝的圖像幀之間的共同特征點(diǎn)數(shù)量顯著減少,如圖7b所示。這個問題反過來又會影響SLAM的結(jié)果。

9ef3d086-4e0b-11ed-a3b6-dac502259ad0.jpg

圖9FAST檢測到的特征點(diǎn)

為了評估SupSLAM的性能,我們進(jìn)行了許多實(shí)驗(yàn),并與真實(shí)和合成數(shù)據(jù)集進(jìn)行了比較。結(jié)果驗(yàn)證了我們提出的無人機(jī)系統(tǒng)的有效性和有效性。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:【光電智造】一種強(qiáng)大的視覺慣性SLAM系統(tǒng)SupSLAM釋

文章出處:【微信號:今日光電,微信公眾號:今日光電】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    光伏電站無人機(jī)巡檢技術(shù)方法研究

    ? ? ? ?光伏電站無人機(jī)巡檢技術(shù)方法研究 ? ? ? ?光伏電站智能運(yùn)維體系無人機(jī)巡檢
    的頭像 發(fā)表于 11-06 14:12 ?260次閱讀

    FPGA和GPU加速的視覺SLAM系統(tǒng)特征檢測器研究

    特征檢測是SLAM系統(tǒng)中常見但耗時的模塊,隨著SLAM技術(shù)日益廣泛應(yīng)用于無人機(jī)等功耗受限平臺,其效率優(yōu)化尤為重要。本文首次針對視覺SLAM
    的頭像 發(fā)表于 10-31 09:30 ?671次閱讀
    FPGA和GPU加速的<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>系統(tǒng)<b class='flag-5'>中</b>特征檢測器<b class='flag-5'>研究</b>

    無人機(jī)巡檢系統(tǒng)現(xiàn)代產(chǎn)業(yè)的應(yīng)用價值

    ? ? ? ?無人機(jī)巡檢系統(tǒng)現(xiàn)代產(chǎn)業(yè)的應(yīng)用價值 ? ? ? ?能源、交通、農(nóng)業(yè)等多個領(lǐng)域,傳統(tǒng)巡檢方式面臨著效率提升和安全管理等方面的改進(jìn)需求。隨著
    的頭像 發(fā)表于 10-28 19:41 ?300次閱讀

    陀螺儀無人機(jī)的應(yīng)用:無人機(jī)精準(zhǔn)飛行的關(guān)鍵保障

    在當(dāng)今無人機(jī)廣泛應(yīng)用的時代,從影視拍攝、測繪勘探到物流配送、農(nóng)業(yè)植保,無人機(jī)已深度融入各個行業(yè)領(lǐng)域,為人們的生產(chǎn)生活帶來極大便利。然而,無人機(jī)飛行過程
    的頭像 發(fā)表于 10-09 10:24 ?800次閱讀
    陀螺儀<b class='flag-5'>在</b><b class='flag-5'>無人機(jī)</b><b class='flag-5'>中</b>的應(yīng)用:<b class='flag-5'>無人機(jī)</b>精準(zhǔn)飛行的關(guān)鍵保障

    離軸技術(shù):賦能無人機(jī)精準(zhǔn)配送的核心芯片應(yīng)用

    無人機(jī)配送領(lǐng)域,離軸技術(shù)就像一顆 “智慧大腦”,憑借獨(dú)特設(shè)計讓無人機(jī)復(fù)雜環(huán)境精準(zhǔn)穿梭。它的核心秘訣藏在硬件、算法和響應(yīng)速度三大方面。
    發(fā)表于 09-05 16:32

    為什么IMU是無人機(jī)穩(wěn)定控制的的核心?

    無人機(jī)從消費(fèi)級向工業(yè)級/行業(yè)級跨越的過程,"精準(zhǔn)" 與 "穩(wěn)定" 成為核心競爭力,這依賴于底層慣性測量技術(shù)的突破。IMU是無人機(jī)穩(wěn)定控制
    的頭像 發(fā)表于 07-23 15:21 ?1058次閱讀

    使用高精度IMU對無人機(jī)系統(tǒng)有何提升?

    無人機(jī)自主飛行的核心技術(shù)鏈條,慣性測量單元(IMU)的精度與可靠性直接決定了整機(jī)的控制上限。高精度IMU對無人機(jī)系統(tǒng)的提升是全方位的,尤
    的頭像 發(fā)表于 07-21 15:39 ?776次閱讀

    無人機(jī)AI視覺行為識別系統(tǒng)

    無人機(jī)AI視覺行為識別系統(tǒng) 隨著無人機(jī)技術(shù)的快速發(fā)展和計算機(jī)視覺領(lǐng)域的突破性進(jìn)展,無人機(jī)AI視覺
    的頭像 發(fā)表于 07-04 16:53 ?1073次閱讀

    低空物流:無人機(jī)開啟未來配送新篇章

    ,廣泛應(yīng)用于快遞配送、醫(yī)療物資運(yùn)輸、農(nóng)產(chǎn)品運(yùn)輸?shù)阮I(lǐng)域,尤其偏遠(yuǎn)地區(qū)、緊急情況或城市末端配送優(yōu)勢顯著。 01重優(yōu)勢 為什么選擇低空物流? 高效性:無人機(jī)配送速度可達(dá)40-60公里/小時,較傳統(tǒng)快遞快
    發(fā)表于 07-04 10:42

    無人機(jī)AI視覺識別系統(tǒng)智慧農(nóng)業(yè)領(lǐng)域的深度應(yīng)用

    ? ? ? ?無人機(jī)AI視覺識別系統(tǒng)智慧農(nóng)業(yè)領(lǐng)域的深度應(yīng)用 ? ? ? ?無人機(jī)AI視覺識別系統(tǒng)
    的頭像 發(fā)表于 06-27 10:57 ?722次閱讀

    無人機(jī)AI視覺行為識別系統(tǒng)智慧工地的應(yīng)用

    ? ? ? ?無人機(jī)AI視覺行為識別系統(tǒng)智慧工地的應(yīng)用 ? ? ? ?建筑行業(yè)作為傳統(tǒng)的高危行業(yè),安全事故頻發(fā)一直是制約行業(yè)發(fā)展的重要瓶頸。傳統(tǒng)工地安全管理主要依靠人工巡查和固定監(jiān)控設(shè)備,存在監(jiān)控
    的頭像 發(fā)表于 06-25 13:23 ?811次閱讀

    酷芯微電子核心技術(shù)無人機(jī)的應(yīng)用

    隨著無人機(jī)技術(shù)各個行業(yè)的深度滲透,應(yīng)用價值愈發(fā)凸顯。農(nóng)業(yè)、電力、物流等行業(yè)對無人機(jī)需求激增,其借助無人機(jī)實(shí)現(xiàn)降本增效、精準(zhǔn)作業(yè),推動行業(yè)快速發(fā)展。其中,地理測繪、農(nóng)林植保和巡邏巡檢是
    的頭像 發(fā)表于 06-24 14:37 ?4820次閱讀
    酷芯微電子核心技術(shù)<b class='flag-5'>在</b><b class='flag-5'>無人機(jī)</b><b class='flag-5'>中</b>的應(yīng)用

    無人機(jī)AI視覺識別系統(tǒng)賦能農(nóng)業(yè)智能種植

    ? ? ? ?無人機(jī)AI視覺識別系統(tǒng)賦能農(nóng)業(yè)智能種植 ? ? ? ?廣袤的田野上,一場由無人機(jī)AI視覺識別驅(qū)動的農(nóng)業(yè)生產(chǎn)力革命正悄然發(fā)生。
    的頭像 發(fā)表于 06-23 09:33 ?939次閱讀

    愛普生M-G370PDS慣性測量單元無人機(jī)導(dǎo)航的應(yīng)用

    無人機(jī)技術(shù)日新月異的當(dāng)下,無人機(jī)復(fù)雜的系統(tǒng)架構(gòu),導(dǎo)航精度直接決定了其飛行的安全性、任務(wù)執(zhí)行的準(zhǔn)確性與效率,成為制約
    的頭像 發(fā)表于 06-19 15:53 ?701次閱讀
    愛普生M-G370PDS<b class='flag-5'>慣性</b>測量單元<b class='flag-5'>在</b><b class='flag-5'>無人機(jī)</b>導(dǎo)航<b class='flag-5'>中</b>的應(yīng)用

    肇觀電子兩款無人機(jī)視覺避障模組量產(chǎn)交付

    無人機(jī)的世界里,視覺不僅定義了飛行的邊界,更是智能決策的核心。肇觀電子以其突破性的AI視覺芯片,賦予無人機(jī)前所未有的感知與認(rèn)知能力。
    的頭像 發(fā)表于 05-06 15:11 ?1737次閱讀