91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

視覺SLAM技術(shù)淺談

領(lǐng)銜資訊 ? 2019-08-09 17:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近年來,SLAM技術(shù)取得了驚人的發(fā)展,領(lǐng)先一步的激光SLAM已成熟的應(yīng)用于各大場景中,視覺SLAM雖在落地應(yīng)用上不及激光SLAM,但也是目前研究的一大熱點,今天我們就來詳細聊聊視覺SLAM的那些事兒。

視覺SLAM是什么?

視覺SLAM主要是基于相機來完成環(huán)境的感知工作,相對而言,相機成本較低,容易放到商品硬件上,且圖像信息豐富,因此視覺SLAM也備受關(guān)注。

目前,視覺SLAM可分為單目、雙目(多目)、RGBD這三類,另還有魚眼、全景等特殊相機,但目前在研究和產(chǎn)品中還屬于少數(shù),此外,結(jié)合慣性測量器件(Inertial Measurement Unit,IMU)的視覺SLAM也是現(xiàn)在研究熱點之一。從實現(xiàn)難度上來說,大致將這三類方法排序為:單目視覺>雙目視覺>RGBD。

單目相機SLAM簡稱MonoSLAM,僅用一支攝像頭就能完成SLAM。最大的優(yōu)點是傳感器簡單且成本低廉,但同時也有個大問題,就是不能確切的得到深度。

一方面是由于絕對深度未知,單目SLAM不能得到機器人運動軌跡及地圖的真實大小,如果把軌跡和房間同時放大兩倍,單目看到的像是一樣的,因此,單目SLAM只能估計一個相對深度。另一方面,單目相機無法依靠一張圖像獲得圖像中物體離自己的相對距離。為了估計這個相對深度,單目SLAM要靠運動中的三角測量,來求解相機運動并估計像素的空間位置。即是說,它的軌跡和地圖,只有在相機運動之后才能收斂,如果相機不進行運動時,就無法得知像素的位置。同時,相機運動還不能是純粹的旋轉(zhuǎn),這就給單目SLAM的應(yīng)用帶來了一些麻煩。

而雙目相機與單目不同的是,立體視覺既可以在運動時估計深度,亦可在靜止時估計,消除了單目視覺的許多麻煩。不過,雙目或多目相機配置與標定均較為復(fù)雜,其深度量程也隨雙目的基線與分辨率限制。通過雙目圖像計算像素距離,是一件非常消耗計算量的事情,現(xiàn)在多用FPGA來完成。

RGBD相機是2010年左右開始興起的一種相機,它最大的特點是可以通過紅外結(jié)構(gòu)光或TOF原理,直接測出圖像中各像素離相機的距離。因此,它比傳統(tǒng)相機能夠提供更豐富的信息,也不必像單目或雙目那樣費時費力地計算深度。

視覺SLAM框架解讀

1.傳感器數(shù)據(jù)

在視覺SLAM中主要為相機圖像信息的讀取和預(yù)處理。如果在機器人中,還可能有碼盤,慣性傳感器等信息的讀取和同步。

2.視覺里程計

視覺里程計的主要任務(wù)是估算相鄰圖像間相機運動以及局部地圖的樣子,最簡單的是兩張圖像之間的運動關(guān)系。計算機是如何通過圖像確定相機的運動的。在圖像上,我們只能看到一個個的像素,知道他們是某些空間點在相機的成像平面投影的結(jié)果。所以必須先了解相機跟空間點的幾何關(guān)系。

Vo(又稱為前端)能夠通過相鄰幀間的圖像估計相機運動,并恢復(fù)場景的空間結(jié)構(gòu),稱它為里程計。被稱為里程計是因為它只計算相鄰時刻的運動,而和再往前的過去信息沒有關(guān)聯(lián)。相鄰時刻運動串聯(lián)起來,就構(gòu)成了機器人的運動軌跡,從而解決了定位問題。另一方面,根據(jù)每一時刻的相機位置,計算出各像素對應(yīng)的空間點的位置,就得到了地圖。

3.后端優(yōu)化

后端優(yōu)化主要是處理slam過程中噪聲的問題。任何傳感器都有噪聲,所以除了要處理“如何從圖像中估計出相機運動”,還要關(guān)心這個估計帶有多大的噪聲。

前端給后端提供待優(yōu)化的數(shù)據(jù),以及這些數(shù)據(jù)的初始值,而后端負責整體的優(yōu)化過程,它往往面對的只有數(shù)據(jù),不必關(guān)系這些數(shù)據(jù)來自哪里。在視覺slam中,前端和計算接視覺研究領(lǐng)域更為相關(guān),比如圖像的特征提取與匹配等,后端則主要是濾波和非線性優(yōu)化算法。

4.回環(huán)檢測

回環(huán)檢測也可以稱為閉環(huán)檢測,是指機器人識別曾到達場景的能力。如果檢測成功,可以顯著地減小累積誤差。回環(huán)檢測實質(zhì)上是一種檢測觀測數(shù)據(jù)相似性的算法。對于視覺SLAM,多數(shù)系統(tǒng)采用目前較為成熟的詞袋模型(Bag-of-Words, BoW)。詞袋模型把圖像中的視覺特征(SIFT, SURF等)聚類,然后建立詞典,進而尋找每個圖中含有哪些“單詞”(word)。也有研究者使用傳統(tǒng)模式識別的方法,把回環(huán)檢測建構(gòu)成一個分類問題,訓練分類器進行分類。

5.建圖

建圖主要是根據(jù)估計的軌跡建立與任務(wù)要求對應(yīng)的地圖,在機器人學中,地圖的表示主要有柵格地圖、直接表征法、拓撲地圖以及特征點地圖這4種。而特征點地圖是用有關(guān)的幾何特征(如點、直線、面)表示環(huán)境,常見于視覺SLAM技術(shù)中。這種地圖一般通過如GPS、UWB以及攝像頭配合稀疏方式的vSLAM算法產(chǎn)生,優(yōu)點是相對數(shù)據(jù)存儲量和運算量比較小,多見于最早的SLAM算法中。

視覺SLAM工作原理

大多數(shù)視覺SLAM系統(tǒng)的工作方式是通過連續(xù)的相機幀,跟蹤設(shè)置關(guān)鍵點,以三角算法定位其3D位置,同時使用此信息來逼近推測相機自己的姿態(tài)。簡單來說,這些系統(tǒng)的目標是繪制與自身位置相關(guān)的環(huán)境地圖。這個地圖可以用于機器人系統(tǒng)在該環(huán)境中導(dǎo)航作用。與其他形式的SLAM技術(shù)不同,只需一個3D視覺攝像頭,就可以做到這一點。

通過跟蹤攝像頭視頻幀中足夠數(shù)量的關(guān)鍵點,可以快速了解傳感器的方向和周圍物理環(huán)境的結(jié)構(gòu)。所有視覺SLAM系統(tǒng)都在不斷的工作,以使重新投影誤差(Reprojection Error)或投影點與實際點之間的差異最小化,通常是通過一種稱為Bundle Adjustment(BA)的算法解決方案。vSLAM系統(tǒng)需要實時操作,這涉及到大量的運算,因此位置數(shù)據(jù)和映射數(shù)據(jù)經(jīng)常分別進行Bundle Adjustment,但同時進行,便于在最終合并之前加快處理速度。

視覺SLAM與激光SLAM有什么區(qū)別?

在業(yè)內(nèi),視覺SLAM與激光SLAM誰更勝一籌,誰將成為未來主流趨勢這一問題,成為大家關(guān)注的熱點,不同的人也有不同的看法及見解,以下將從成本、應(yīng)用場景、地圖精度、易用性幾個方面來進行詳細闡述。

1.成本

從成本上來說,激光雷達普遍價格較高,但目前國內(nèi)也有低成本的激光雷達解決方案,而VSLAM主要是通過攝像頭來采集數(shù)據(jù)信息,跟激光雷達一對比,攝像頭的成本顯然要低很多。但激光雷達能更高精度的測出障礙點的角度和距離,方便定位導(dǎo)航。

2.應(yīng)用場景

從應(yīng)用場景來說,VSLAM的應(yīng)用場景要豐富很多。VSLAM在室內(nèi)外環(huán)境下均能開展工作,但是對光的依賴程度高,在暗處或者一些無紋理區(qū)域是無法進行工作的。而激光SLAM目前主要被應(yīng)用在室內(nèi),用來進行地圖構(gòu)建和導(dǎo)航工作。

3.地圖精度

激光SLAM在構(gòu)建地圖的時候,精度較高,思嵐科技的RPLIDAR系列構(gòu)建的地圖精度可達到2cm左右;VSLAM,比如常見的,大家也用的非常多的深度攝像機Kinect,(測距范圍在3-12m之間),地圖構(gòu)建精度約3cm;所以激光SLAM構(gòu)建的地圖精度一般來說比VSLAM高,且能直接用于定位導(dǎo)航。

視覺SLAM的地圖建立

4.易用性

激光SLAM和基于深度相機的視覺SLAM均是通過直接獲取環(huán)境中的點云數(shù)據(jù),根據(jù)生成的點云數(shù)據(jù),測算哪里有障礙物以及障礙物的距離。但是基于單目、雙目、魚眼攝像機的視覺SLAM方案,則不能直接獲得環(huán)境中的點云,而是形成灰色或彩色圖像,需要通過不斷移動自身的位置,通過提取、匹配特征點,利用三角測距的方法測算出障礙物的距離。

總體來說,激光SLAM相對更為成熟,也是目前最為可靠的定位導(dǎo)航方案,而視覺SLAM仍是今后研究的一個主流方向,但未來,兩者融合是必然趨勢。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    機器視覺的核心技術(shù)和應(yīng)用場景

    機器視覺正通過讓機器“看見”并解讀視覺數(shù)據(jù)來為行業(yè)帶來變革,進而提升自動化水平、質(zhì)量控制效率與運營效能。本文將深入探討機器視覺技術(shù)核心,聚焦圖像處理與機器學習兩大關(guān)鍵領(lǐng)域,并圍繞連接
    的頭像 發(fā)表于 12-29 16:32 ?902次閱讀

    什么是激光雷達 3D SLAM技術(shù)

    在智能移動設(shè)備自主運行的賽道上,激光雷達3DSLAM技術(shù)正成為破局關(guān)鍵,但多數(shù)人對其認知仍停留在表層。要讀懂這一核心技術(shù),不妨先回溯“SLAM”的本質(zhì)——SLAM
    的頭像 發(fā)表于 12-02 19:23 ?586次閱讀
    什么是激光雷達 3D <b class='flag-5'>SLAM</b><b class='flag-5'>技術(shù)</b>?

    FPGA和GPU加速的視覺SLAM系統(tǒng)中特征檢測器研究

    特征檢測是SLAM系統(tǒng)中常見但耗時的模塊,隨著SLAM技術(shù)日益廣泛應(yīng)用于無人機等功耗受限平臺,其效率優(yōu)化尤為重要。本文首次針對視覺SLAM
    的頭像 發(fā)表于 10-31 09:30 ?666次閱讀
    FPGA和GPU加速的<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>系統(tǒng)中特征檢測器研究

    自動駕駛中如何將稀疏地圖與視覺SLAM相結(jié)合?

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛場景中,稀疏地圖通常是由一系列關(guān)鍵幀和若干三維稀疏特征點構(gòu)成的地圖,每個特征點包含三維坐標和描述外觀的描述子;而視覺SLAM是運行在車輛上的實時算法,它一邊
    的頭像 發(fā)表于 10-28 09:07 ?684次閱讀
    自動駕駛中如何將稀疏地圖與<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>相結(jié)合?

    全新輕量級ViSTA-SLAM系統(tǒng)介紹

    無需相機內(nèi)參、極致輕量的前端(前端模型大小僅為同類35%),實時單目視覺SLAM,ViSTA-SLAM。與現(xiàn)有方法相比,ViSTA-SLAM不僅更輕、更快,在相機跟蹤和密集3D重建質(zhì)量
    的頭像 發(fā)表于 09-22 15:53 ?923次閱讀
    全新輕量級ViSTA-<b class='flag-5'>SLAM</b>系統(tǒng)介紹

    iTOF技術(shù),多樣化的3D視覺應(yīng)用

    視覺傳感器對于機器信息獲取至關(guān)重要,正在從二維(2D)發(fā)展到三維(3D),在某些方面模仿并超越人類的視覺能力,從而推動創(chuàng)新應(yīng)用。3D 視覺解決方案大致分為立體視覺、結(jié)構(gòu)光和飛行時間 (
    發(fā)表于 09-05 07:24

    一種適用于動態(tài)環(huán)境的自適應(yīng)先驗場景-對象SLAM框架

    由于傳統(tǒng)視覺SLAM在動態(tài)場景中容易會出現(xiàn)嚴重的定位漂移,本文提出了一種新穎的基于場景-對象的可靠性評估框架,該框架通過當前幀質(zhì)量指標以及相對于可靠參考幀的場景變化,全面評估SLAM的穩(wěn)定性。
    的頭像 發(fā)表于 08-19 14:17 ?873次閱讀
    一種適用于動態(tài)環(huán)境的自適應(yīng)先驗場景-對象<b class='flag-5'>SLAM</b>框架

    基于深度學習的增強版ORB-SLAM3詳解

    ORB-SLAM3雖是當前最先進的SLAM之一,但由于使用傳統(tǒng)的ORB(定向FAST和旋轉(zhuǎn)BRIEF)特征,在尺度、旋轉(zhuǎn)和光照發(fā)生顯著變化時可能會表現(xiàn)出局限性。
    的頭像 發(fā)表于 07-14 17:21 ?1716次閱讀
    基于深度學習的增強版ORB-<b class='flag-5'>SLAM</b>3詳解

    一種適用于動態(tài)環(huán)境的實時RGB-D SLAM系統(tǒng)

    近期用于視覺SLAM的3D高斯?jié)姙R(3DGS)技術(shù)在跟蹤和高保真建圖方面取得了顯著進展。然而,其順序優(yōu)化框架以及對動態(tài)物體的敏感性限制了其在現(xiàn)實場景中的實時性能和魯棒性。為此,我們提出
    的頭像 發(fā)表于 07-04 15:14 ?1288次閱讀
    一種適用于動態(tài)環(huán)境的實時RGB-D <b class='flag-5'>SLAM</b>系統(tǒng)

    三維高斯?jié)姙R大規(guī)模視覺SLAM系統(tǒng)解析

    近期興起的神經(jīng)輻射場(NeRF)與三維高斯?jié)姙R(3DGS)技術(shù)視覺SLAM中展現(xiàn)出令人鼓舞的突破性成果。然而,當前主流方法多依賴RGBD傳感器,并且僅適用于室內(nèi)環(huán)境。在大規(guī)模室外場景中的重建魯棒性
    的頭像 發(fā)表于 05-27 14:13 ?1575次閱讀
    三維高斯?jié)姙R大規(guī)模<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>系統(tǒng)解析

    解決視覺感知難題:門控視覺技術(shù)在汽車領(lǐng)域的應(yīng)用

    本文探討了友思特門控視覺技術(shù)在夜間駕駛中的應(yīng)用,包括其基本概念、原理和應(yīng)用場景。該技術(shù)通過近紅外成像和智能“門控”算法,可以在各種光照和天氣條件下提供清晰、高對比度的圖像,從而有效檢測障礙物和避免誤判,滿足汽車
    的頭像 發(fā)表于 05-13 11:20 ?918次閱讀
    解決<b class='flag-5'>視覺</b>感知難題:門控<b class='flag-5'>視覺</b><b class='flag-5'>技術(shù)</b>在汽車領(lǐng)域的應(yīng)用

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    結(jié)合IMU(慣性測量單元)進行多傳感器融合。 三、總結(jié)與展望 技術(shù)融合趨勢 機器人視覺SLAM的結(jié)合(如視覺慣性里程計VIO)是當前研究熱點,未來可能進一步結(jié)合語義
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+ROS2應(yīng)用案例

    這一部分內(nèi)容,我掌握了如何在ROS 2中實現(xiàn)SLAM,這對于提高機器人的自主導(dǎo)航能力具有重要意義。 其他內(nèi)容概述 除了二維碼識別和SLAM技術(shù),書中還介紹了其他視覺應(yīng)用和地圖構(gòu)建的內(nèi)
    發(fā)表于 04-27 11:42

    一種基于點、線和消失點特征的單目SLAM系統(tǒng)設(shè)計

    本文提出了一種穩(wěn)健的單目視覺SLAM系統(tǒng),該系統(tǒng)同時利用點、線和消失點特征來進行精確的相機位姿估計和地圖構(gòu)建,有效解決了傳統(tǒng)基于點特征的SLAM的局限性。
    的頭像 發(fā)表于 03-21 17:07 ?1051次閱讀
    一種基于點、線和消失點特征的單目<b class='flag-5'>SLAM</b>系統(tǒng)設(shè)計

    淺談直流有刷電機驅(qū)動及調(diào)速技術(shù)

    ,圖1 為 H 橋電機驅(qū)動 電路示意圖 : 圖1 H橋電機驅(qū)動電路示意圖 點擊下方附件查看全文*附件:20250307_淺談直流有刷電機驅(qū)動及調(diào)速技術(shù).docx
    發(fā)表于 03-07 15:24