91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器人避障在算法原理方面存在哪些問題

SUYb_GeWu_IOT ? 來源:未知 ? 作者:胡薇 ? 2018-11-06 14:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從原理上來講,沒有哪個傳感器是完美的,比方說機器人面前是一塊完全透明的玻璃,那么采用紅外、激光雷達或視覺的方案,就可能因為這個光線直接穿過玻璃導致檢測失敗。

避障是指移動機器人在行走過程中,通過傳感器感知到在其規(guī)劃路線上存在靜態(tài)或動態(tài)障礙物時,按照 一定的算法實時更新路徑,繞過障礙物,最后達到目標點。

避障常用的傳感器

不管是要進行導航規(guī)劃還是避障,感知周邊環(huán)境信息是第一步。就避障來說,移動機器人需要通過傳感器 實時獲取自身周圍障礙物信息,包括尺寸、形狀和位置等信息。避障使用的傳感器多種多樣,各有不同的原理和特點,目前常見的主要有視覺傳感器、激光傳感器、紅外傳感器、超聲波傳感器等。下面我簡單介紹一下這幾種傳感器的基本工作原理

超聲波

超聲波傳感器的基本原理是測量超聲波的飛行時間,通過d=vt/2測量距離,其中d是距離,v是聲速,t是 飛行時間。由于超聲波在空氣中的速度與溫濕度有關(guān),在比較精確的測量中,需把溫濕度的變化和其它因素考慮進去。

上面這個圖就是超聲波傳感器信號的一個示意。通過壓電或靜電變送器產(chǎn)生一個頻率在幾十kHz的超聲波脈沖組成波包,系統(tǒng)檢測高于某閾值的反向聲波,檢測到后使用測量到的飛行時間計算距離。超聲波傳感器一般作用距離較短,普通的有效探測距離都在幾米,但是會有一個幾十毫米左右的最小探測盲區(qū)。由于超聲傳感器的成本低、實現(xiàn)方法簡單、技術(shù)成熟,是移動機器人中常用的傳感器。超聲波傳感器也有一些缺點,首先看下面這個圖。

因為聲音是錐形傳播的,所以我們實際測到的距離并不是 一個點,而是某個錐形角度范圍內(nèi)最近物體的距離。

另外,超聲波的測量周期較長,比如3米左右的物體,聲波傳輸這么遠的距離需要約20ms的時間。再者,不同材料對聲波的反射或者吸引是不相同的,還有多個超聲傳感器之間有可能會互相干擾,這都是實際應用的過程中需要考慮的。

紅外

一般的紅外測距都是采用三角測距的原理。紅外發(fā)射器按照一定角度發(fā)射紅外光束,遇到物體之后,光會反向回來,檢測到反射光之后,通過結(jié)構(gòu)上的幾何三角關(guān)系,就可以計算出物體距離D。

當D的距離足夠近的時候,上圖中L值會相當大,如果超過CCD的探測范圍,這時,雖然物體很近,但是傳感器反而看不到了。當物體距離D很大時,L值就會很小,測量量精度會變差。因此,常見的紅外傳感器 測量距離都比較近,小于超聲波,同時遠距離測量也有最小距離的限制。另外,對于透明的或者近似黑體的物體,紅外傳感器是無法檢測距離的。但相對于超聲來說,紅外傳感器具有更高的帶寬。

激光

常見的激光雷達是基于飛行時間的(ToF,time of flight),通過測量激光的飛行時間來進行測距d=ct/2,類似于前面提到的超聲測距公式,其中d是距離,c是光速,t是從發(fā)射到接收的時間間隔。激光雷達包括發(fā)射器和接收器 ,發(fā)射器用激光照射目標,接收器接收反向回的光波。機械式的激光雷達包括一個帶有鏡子的機械機構(gòu),鏡子的旋轉(zhuǎn)使得光束可以覆蓋 一個平面,這樣我們就可以測量到一個平面上的距離信息。

對飛行時間的測量也有不同的方法,比如使用脈沖激光,然后類似前面講的超聲方案,直接測量占用的時間,但因為光速遠高于聲速,需要非常高精度的時間測量元件,所以非常昂貴;另一種發(fā)射調(diào)頻后的連續(xù)激光波,通過測量接收到的反射波之間的差頻來測量時間。

圖一

圖二

比較簡單的方案是測量反射光的相移,傳感器以已知的頻率發(fā)射一定幅度的調(diào)制光,并測量發(fā)射和反向信號之間的相移,如上圖一。調(diào)制信號的波長為lamda=c/f,其中c是光速,f是調(diào)制頻率,測量到發(fā)射和反射光束之間的相移差theta之后,距離可由lamda*theta/4pi計算得到,如上圖二。

激光雷達的測量距離可以達到幾十米甚至上百米,角度分辨率高,通??梢赃_到零點幾度,測距的精度也高。但測量距離的置信度會反比于接收信號幅度的平方,因此,黑體或者遠距離的物體距離測量不會像光亮的、近距離的物體那么好的估計。并且,對于透明材料,比如玻璃,激光雷達就無能為力了。還有,由于結(jié)構(gòu)的復雜、器件成本高,激光雷達的成本也很高。

一些低端的激光雷達會采用三角測距的方案進行測距。但這時它們的量程會受到限制,一般幾米以內(nèi),并且精度相對低一些,但用于室內(nèi)低速環(huán)境的SLAM或者在室外環(huán)境只用于避障的話,效果還是不錯的。

視覺

常用的計算機視覺方案也有很多種, 比如雙目視覺,基于TOF的深度相機,基于結(jié)構(gòu)光的深度相機等。深度相機可以同時獲得RGB圖和深度圖,不管是基于TOF還是結(jié)構(gòu)光,在室外強光環(huán)境下效果都并不太理想,因為它們都是需要主動發(fā)光的。像基于結(jié)構(gòu)光的深度相機,發(fā)射出的光會生成相對隨機但又固定的斑點圖樣,這些光斑打在物體上后,因為與攝像頭距離不同,被攝像頭捕捉到的位置也不相同,之后先計算拍到的圖的斑點與標定的標準圖案在不同位置的偏移,利用攝像頭位置、傳感器大小等參數(shù)就可以計算出物體與攝像頭的距離。而我們目前的E巡機器人主要是工作在室外環(huán)境,主動光源會受到太陽光等條件的很大影響,所以雙目視覺這種被動視覺方案更適合,因此我們采用的視覺方案是基于雙目視覺的。

雙目視覺的測距本質(zhì)上也是三角測距法,由于兩個攝像頭的位置不同,就像我們?nèi)说膬芍谎劬σ粯?,看到的物體不一樣。兩個攝像頭看到的同一個點P,在成像的時候會有不同的像素位置,此時通過三角測距就可以測出這個點的距離。與結(jié)構(gòu)光方法不同的是,結(jié)構(gòu)光計算的點是主動發(fā)出的、已知確定的,而雙目算法計算的點一般是利用算法抓取到的圖像特征,如SIFT或SURF特征等,這樣通過特征計算出來的是稀疏圖。

要做良好的避障,稀疏圖還是不太夠的,我們需要獲得的是稠密的點云圖,整個場景的深度信息。稠密匹配的算法大致可以分為兩類,局部算法和全局算法。局部算法使用像素局部的信息來計算其深度,而全局算法采用圖像中的所有信息進行計算。一般來說,局部算法的速度更快,但全局算法的精度更高。

這兩類各有很多種不同方式的具體算法實現(xiàn)。能過它們的輸出我們可以估算出整個場景中的深度信息,這個深度信息可以幫助我們尋找地圖場景中的可行走區(qū)域以及障礙物。整個的輸出類似于激光雷達輸出的3D點云圖,但是相比來講得到信息會更豐富,視覺同激光相比優(yōu)點是價格低很多,缺點也比較明顯,測量精度要差 一些,對計算能力的要求也高很多。當然,這個精度差是相對的,在實用的過程中是完全足夠的,并且我們目前的算法在我們的平臺NVIDIA TK1和TX1上是可以做到實時運行。

KITTI采集的圖

實際輸出的深度圖,不同的顏色代表不同的距離

在實際應用的過程中,我們從攝像頭讀取到的是連續(xù)的視頻幀流,我們還可以通過這些幀來估計場景中 目標物體的運動,給它們建立運動模型,估計和預測它們的運動方向、運動速度,這對我們實際行走、避障規(guī)劃是很有用的。

以上幾種是最常見的幾種傳感器 ,各有其優(yōu)點和缺點,在真正實際應用的過程中,一般是綜合配置使用多種不同的傳感器 ,以最大化保證在各種不同的應用和環(huán)境條件下,機器人都能正確感知到障礙物信息。我們公司的E巡機器人的避障方案就是以雙目視覺為主,再輔助以多種其他傳感器,保證機器人周邊360度空間立體范圍內(nèi)的障礙物都能被有效偵測到,保證機器人行走的安全性。

避障常用算法原理

在講避障算法之前,我們假定機器人已經(jīng)有了一個導航規(guī)劃算法對自己的運動進行規(guī)劃,并按照規(guī)劃的路徑行走。避障算法的任務(wù)就是在機器人執(zhí)行正常行走任務(wù)的時候,由于傳感器的輸入感知到了障礙物的存在,實時地更新目標軌跡,繞過障礙物。

Bug算法知乎用戶無方表示

Bug算法應該是最簡單的一種避障算法了,它的基本思想是在發(fā)現(xiàn)障礙后,圍著檢測到的障礙物輪廓行走,從而繞開它。Bug算法目前有很多變種, 比如Bug1算法,機器人首先完全地圍繞物體,然后從距目標最短距離的點離開。Bug1算法的效率很低,但可以保證機器人達到目標。

Bug1算法示例

改進后的Bug2算法中,機器人開始時會跟蹤物體的輪廓,但不會完全圍繞物體一圈,當機器人可以直接移動至目標時,就可以直接從障礙分離,這樣可以達到比較短的機器人行走總路徑。

Bug2算法示例

除此之外,Bug算法還有很多其他的變種, 比如正切Bug算法等等。在許多簡單的場景中,Bug算法是實現(xiàn)起來比較容易和方便的,但是它們并沒有考慮到機器人的動力學等限制,因此在更復雜的實際環(huán)境中就不是那么可靠好用了。

勢場法(PFM)

實際上,勢場法不僅僅可以用來避障,還可以用來進行路徑的規(guī)劃。勢場法把機器人處理在勢場下的 一個點,隨著勢場而移動,目標表現(xiàn)為低谷值,即對機器人的吸引力,而障礙物扮演的勢場中的一個高峰,即斥力,所有這些力迭加于機器人身上,平滑地引導機器人走向目標,同時避免碰撞已知的障礙物。當機器人移動過程中檢測新的障礙物,則需要更新勢場并重新規(guī)劃。

上面這個圖是勢場比較典型的示例圖,最上的圖a左上角是出發(fā)點,右下角是目標點,中間三個方塊是障礙物。中間的圖b就是等勢位圖,圖中的每條連續(xù)的線就代表了一個等勢位的一條線,然后虛線表示的在整個勢場里面所規(guī)劃出來的一條路徑,我們的機器人是沿著勢場所指向的那個方向一直行走,可以看見它會繞過這個比較高的障礙物。最下面的圖,即我們整個目標的吸引力還有我們所有障礙物產(chǎn)生的斥力最終形成的一個勢場效果圖,可以看到機器人從左上角的出發(fā)點出發(fā),一路沿著勢場下降的方向達到最終的目標點,而每個障礙物勢場表現(xiàn)出在很高的平臺,所以,它規(guī)劃出來的路徑是不會從這個障礙物上面走的。

一種擴展的方法在基本的勢場上附加了了另外兩個勢場:轉(zhuǎn)運勢場和任務(wù)勢場。它們額外考慮了由于機器人本身運動方向、運動速度等狀態(tài)和障礙物之間的相互影響。

轉(zhuǎn)動勢場考慮了障礙與機器人的相對方位,當機器人朝著障礙物行走時,增加斥力, 而當平行于物體行走時,因為很明顯并不會撞到障礙物,則減小斥力。任務(wù)勢場則排除了那些根據(jù)當前機器人速度不會對近期勢能造成影響的障礙,因此允許規(guī)劃出 一條更為平滑的軌跡。

另外還有諧波勢場法等其他改進方法。勢場法在理論上有諸多局限性, 比如局部最小點問題,或者震蕩性的問題,但實際應用過程中效果還是不錯的,實現(xiàn)起來也比較容易。

向量場直方圖(VFH)

它執(zhí)行過程中針對移動機器人當前周邊環(huán)境創(chuàng)建了一個基于極坐標表示的局部地圖,這個局部使用柵格圖的表示方法,會被最近的一些傳感器數(shù)據(jù)所更新。VFH算法產(chǎn)生的極坐標直方圖如圖所示:

圖中x軸是以機器人為中心感知到的障礙物的角度,y軸表示在該方向存在障礙物的概率大小p。實際應用的過程中會根據(jù)這個直方圖首先辨識出允許機器人通過的足夠大的所有空隙,然后對所有這些空隙計算其代價函數(shù),最終選擇具有最低代價函數(shù)的通路通過。

代價函數(shù)受三個因素影響: 目標方向、機器人當前方向、之前選擇的方向,最終生成的代價是這三個因素的加權(quán)值,通過調(diào)節(jié)不同的權(quán)重可以調(diào)整機器人的選擇偏好。VFH算法也有其他的擴展和改進,比如在VFH+算法中,就考慮了機器人運動學的限制。由于實際底層運動結(jié)構(gòu)的不同,機器的實際運動能力是受限的,比如汽車結(jié)構(gòu),就不能隨心所欲地原地轉(zhuǎn)向等。VFH+算法會考慮障礙物對機器人實際運動能力下軌跡的阻擋效應,屏蔽掉那些雖然沒有被障礙物占據(jù)但由于其阻擋實際無法達到的運動軌跡。我們的E巡機器人采用的是兩輪差動驅(qū)動的運動形式,運動非常靈活,實際應用較少受到這些因素的影響。

具體可以看 一下這個圖示:

類似這樣傳統(tǒng)的避障方法還有很多,除此之外,還有許多其他的智能避障技術(shù),比如神經(jīng)網(wǎng)絡(luò)、模糊邏輯等。

神經(jīng)網(wǎng)絡(luò)方法對機器人從初始位置到目標位置的整個行走路徑進行訓練建模,應用的時候,神經(jīng)網(wǎng)絡(luò)的輸入為之前機器人的位姿和速度以及傳感器的輸 入,輸出期望的下一目標或運動方向。

模糊邏輯方法核心是模糊控制器,需要將專家的知識或操作人員的經(jīng)驗寫成多條模糊邏輯語句,以此控制機器人的避障過程。 比如這樣的模糊邏輯:第一條,若右前方較遠處檢測到障礙物,則稍向左轉(zhuǎn);第 二條,若右前方較近處檢測到障礙物,則減速并向左轉(zhuǎn)更多角度;等等。

避障過程中存在哪些問題

傳感器失效

從原理上來講,沒有哪個傳感器是完美的,比方說機器人面前是一塊完全透明的玻璃,那么采用紅外、激光雷達或視覺的方案,就可能因為這個光線直接穿過玻璃導致檢測失敗,這時候就需要超聲波這樣的傳感器來進行障礙物的偵測。所以我們在真正應用的過程中,肯定都需要采取多種傳感器的結(jié)合,對不同傳感器采集到的數(shù)據(jù)進行一個交叉驗證,以及信息的融合,保證機器人能夠穩(wěn)定可靠的工作。

除此之外也有其他模式可能導致傳感器失效,比如超聲波測距,一般需要超聲陣列,而陣列之間的傳感器如果同時工作的話,會容易互相產(chǎn)生干擾,傳感器A發(fā)射的光波反射回來被傳感器B接收,導致測量結(jié)果出現(xiàn)錯誤,但是如果按照順序一個個工作,由于超聲波傳感器采樣的周期相對比較長,會減慢整個采集的速度,對實時避障造成影響,這就要求從硬件的結(jié)構(gòu)到算法都必須設(shè)計好,盡可能提高采樣速度,減少傳感器之間的串擾。

還有比如說,機器人如果需要運動的話,一般都需要電機驅(qū)動器,它們在工作過程中都會產(chǎn)生電容兼容性的問題,有可能會導致傳感器采集出現(xiàn)錯誤,尤其是模擬的傳感器,所以在實現(xiàn)過程中要把電機驅(qū)動器等設(shè)備、傳感器的采集部分,以及電源通信部分保持隔離,保證整個系統(tǒng)是能夠正常工作的。

算法設(shè)計

在剛剛提到的幾個算法,很多在設(shè)計的時候都并沒有完善考慮到整個移動機器人本身運動學模型和動力學模型,這樣的算法規(guī)劃出來的軌跡有可能在運動學上是實現(xiàn)不了的,有可能在運動學上可以實現(xiàn),但是控制起來非常困難,比如剛剛提到的如果一臺機器人的底盤是汽車的結(jié)構(gòu),就不能隨心所欲地原地轉(zhuǎn)向,或者哪怕這個機器人是可以原地轉(zhuǎn)向,但是如果一下子做一個很大的機動的話,我們的整個電機是執(zhí)行不出來的。所以在設(shè)計的時候,就要優(yōu)化好機器人本身的結(jié)構(gòu)和控制,設(shè)計避障方案的時候,也要考慮到可行性的問題。

然后在整個算法的架構(gòu)設(shè)計的時候,我們要考慮到為了避讓或者是避免傷人或者傷了機器人本身,在執(zhí)行工作的時候,避障是優(yōu)先級比較高的任務(wù),甚至是最高的任務(wù),并且自身運行的優(yōu)先級最高,對機器人的控制優(yōu)先級也要最高,同時這個算法實現(xiàn)起來速度要足夠快,這樣才能滿足我們實時性的要求。

總之,在我看來,避障在某種程度上可以看做機器人在自主導航規(guī)劃的一種特殊情況,相比整體全局的導航,它對實時性和可靠性的要求更高一些,然后,局部性和動態(tài)性是它的一個特點,這是我們在設(shè)計整個機器人硬件軟件架構(gòu)時一定要注意的。

讀者提問:

多機協(xié)同的避障策略有哪些?

多機協(xié)同避障策略在整個SLAM方向上都還是一個在鉆研的熱點領(lǐng)域,單純就避障來說,目前的方案是,當有兩個或多個機器人協(xié)同工作的時候,每個機器人會在一個局部各自維護一個相對的動態(tài)地圖,所有機器人共享一個相對靜態(tài)的地圖,而對于單個機器人來說,它們會各自維護一個更加動態(tài)的地圖,這樣當兩個機器人接近一個位置時,它們會將它們維護的動態(tài)地圖合并起來。

這樣子有什么好處呢,比如視覺只能看到前方一個方向,這時候跟后面機器人的動態(tài)地圖合并之后,就能看到前后整個局部的動態(tài)信息,然后完成避障。

多機協(xié)同的關(guān)鍵在于,兩個局部地圖之間的分享,就是它們分別在整個相對靜態(tài)的全局地圖上是有一小塊一個窗口的位置,到這兩個窗口可能融合的話,會把它們?nèi)诤显谝黄?,同時去指導兩個機器人的避障。在具體實現(xiàn)過程中,也要考慮整個信息傳輸?shù)膯栴},如果是自己本身的局部地圖,由于都是本機的運算,速度一般都比較快,如果是兩個機器人協(xié)作的話,就要考慮到傳輸?shù)难訒r,以及帶寬的問題。

避障有無標準的測試標準和指標?

目前就我所了解業(yè)界并沒有什么統(tǒng)一的測試標準和指標,我們目前測試的時候會考慮這些指標,比如在單個障礙物或是多個障礙物,障礙物是靜態(tài)的或動態(tài)的情況下避障效果如何,以及實際規(guī)劃出的路徑完美度如何,還有這個軌跡是否平滑,符合我們觀感的效果。

當然,這個最重要的指標我覺得應該避障是否失敗就是成功率的問題,要保證這個避障不管是碰到靜態(tài)的或者是動態(tài)的物體,然后那個物體不管是什么材質(zhì),比如說如果是動態(tài)的人,我們穿什么樣的衣服會不會對整個避障功能造成影響,另外就是不同的環(huán)境又會有什么樣的影響,比如光線充足或暗淡。對于避障來說,成功率才是最為關(guān)鍵的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2576

    文章

    55134

    瀏覽量

    791950
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    31140

    瀏覽量

    222590

原文標題:從傳感器到算法原理,機器人避障還存在哪些問題?

文章出處:【微信號:GeWu-IOT,微信公眾號:物聯(lián)網(wǎng)資本論】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    智能機器人線圈核心驅(qū)動系統(tǒng)中的關(guān)鍵作用

    的關(guān)鍵單元,直接決定了整機系統(tǒng)的性能上限。 驅(qū)動系統(tǒng)中主要應用于無刷電機、伺服電機和力矩電機等關(guān)鍵部位。智能機器人需要完成抓取、移動、等復雜動作,每一個動作背后都依賴高性能電機線
    的頭像 發(fā)表于 03-02 16:24 ?112次閱讀

    賦能機器人“慧眼”:TMF8829 48x32 多區(qū) dToF 傳感器,定義新高度

    移動機器人領(lǐng)域,能力是決定產(chǎn)品智能水平的核心指標。無論是掃地機器人的精細化清掃、工業(yè)AGV的復雜路徑規(guī)劃,還是人形
    的頭像 發(fā)表于 01-16 15:45 ?372次閱讀
    賦能<b class='flag-5'>機器人</b>“慧眼”:TMF8829 48x32 多區(qū) dToF 傳感器,定義<b class='flag-5'>避</b><b class='flag-5'>障</b>新高度

    探索RISC-V機器人領(lǐng)域的潛力

    Pro則運行控制節(jié)點,通過Wi-Fi網(wǎng)絡(luò)接收Gazebo發(fā)布的傳感器信息(如激光雷達數(shù)據(jù)),并發(fā)布控制指令(速度指令)來驅(qū)動機器人模型移動和。 ? 體驗: MUSE Pi Pro的K1 CPU
    發(fā)表于 12-03 14:40

    RK3576機器人核心:三屏異顯+八路攝像頭,重塑機器人交互與感知

    機器人· 應用領(lǐng)域:迎賓機器人、養(yǎng)老機器人、導覽機器人· 多攝像頭輸入:同時實現(xiàn)人臉識別(迎賓)、跌倒檢測(養(yǎng)老)、自主導航
    發(fā)表于 10-29 16:41

    盤點割草機器人六大傳感器

    電子發(fā)燒友網(wǎng)綜合報道 割草機器人技術(shù)是其智能化水平的核心體現(xiàn),主要通過傳感器技術(shù)、環(huán)境感知算法和路徑規(guī)劃方法實現(xiàn)安全、高效的自主作業(yè)。隨著智能化水平提升,割草
    的頭像 發(fā)表于 08-17 00:03 ?4284次閱讀

    INDEMIND三目AI-臟污檢測模組,掃地機器人的“全能副手”

    新一代視覺模組
    的頭像 發(fā)表于 08-08 15:54 ?875次閱讀

    工業(yè)機器人的特點

    生產(chǎn)可以提高產(chǎn)品品質(zhì)。通過設(shè)定相同的程序,機器人可實現(xiàn)重復操作,保證了產(chǎn)品的標準化;精細化生產(chǎn)方面,工業(yè)機器人可實現(xiàn)低于0.1毫米的運動精度,可以完成精細的雕刻工作。提高產(chǎn)出 由于
    發(fā)表于 07-26 11:22

    大象機器人推出移動復合機器人myAGV Pro

    當自動駕駛算法應用于真實道路和物流運輸,當專業(yè)級機械臂走進課堂示教編程,在這個人工智能與機器人技術(shù)的快速發(fā)展的時代,人們不再滿足于基礎(chǔ)編程實踐,而是渴望仿真環(huán)境中探索多機協(xié)同算法等前
    的頭像 發(fā)表于 07-02 16:35 ?1073次閱讀
    大象<b class='flag-5'>機器人</b>推出移動復合<b class='flag-5'>機器人</b>myAGV Pro

    也能預判?視覺黑科技讓掃地機器人開啟“先知”模式

    從被動到主動預判,視覺技術(shù)比預想的更快實現(xiàn)。
    的頭像 發(fā)表于 06-18 14:09 ?1257次閱讀

    AGV機器人如何實現(xiàn)毫秒級?深度解析多傳感器融合的核心技術(shù)

    一、AGV多傳感器融合實時系統(tǒng)介紹 1.簡介 傳感器融合技術(shù)是機器人實現(xiàn)全覆蓋的關(guān)鍵,其原理仿效人腦綜合處理信息的方式:通過協(xié)調(diào)多種
    的頭像 發(fā)表于 05-28 14:21 ?1470次閱讀
    AGV<b class='flag-5'>機器人</b>如何實現(xiàn)毫秒級<b class='flag-5'>避</b><b class='flag-5'>障</b>?深度解析多傳感器融合的核心技術(shù)

    盤點#機器人開發(fā)平臺

    地瓜機器人RDK X5開發(fā)套件地瓜機器人RDK X5開發(fā)套件產(chǎn)品介紹 旭日5芯片10TOPs算力-電子發(fā)燒友網(wǎng)機器人開發(fā)套件 Kria KR260機器人開發(fā)套件 Kria KR260-
    發(fā)表于 05-13 15:02

    詳細介紹機場智能指路機器人的工作原理

    路徑。路徑規(guī)劃算法會考慮多種因素,如距離最短、避開人流密集區(qū)域、優(yōu)先選擇寬闊通道等,以確保旅客能夠快速、順暢地到達目的地。 實時導航與機器
    發(fā)表于 05-10 18:26

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應用

    : 一、機器人視覺:從理論到實踐 第7章詳細介紹了ROS2機器視覺領(lǐng)域的應用,涵蓋了相機標定、OpenCV集成、視覺巡線、二維碼識別以及深度學習目標檢測等內(nèi)容。通過學習,我認識到: 相機標定的重要性
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+內(nèi)容初識

    應用案例:書中提供了多個機器人應用案例,幫助讀者將所學的 ROS 2 知識應用到實際的機器人項目中。例如,自主移動機器人案例中,詳細講解了如何實現(xiàn)
    發(fā)表于 04-27 11:24

    大象機器人攜手進迭時空推出 RISC-V 全棧開源六軸機械臂產(chǎn)品

    識別聯(lián)調(diào)。 進迭時空致力于為智能機器人提供完整全棧優(yōu)化的RISC-V AI軟硬件解決方案,第一代RISC-V AI CPU芯片K1已完成AI視覺感知、AI語音處理、自動、路徑規(guī)劃、運動控制等
    發(fā)表于 04-25 17:59