91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Model-based基于模型的方法

工業(yè)機(jī)器人 ? 來(lái)源:工業(yè)機(jī)器人 ? 作者:工業(yè)機(jī)器人 ? 2020-07-01 14:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機(jī)器人學(xué)習(xí)中的經(jīng)典問(wèn)題之一便是分揀:在一堆無(wú)序擺放的物品堆中,取出目標(biāo)物品。在快遞分揀員看來(lái),這幾乎是一個(gè)不需要思考的過(guò)程,但對(duì)于機(jī)械臂而言,這意味著復(fù)雜的矩陣計(jì)算。

事實(shí)上,對(duì)于人類需要耗費(fèi)大量時(shí)間的數(shù)理難題,用智能系統(tǒng)處理起來(lái)就顯得十分容易,但在幾乎不需要思考的情況下就能做出的分選動(dòng)作,則是全世界機(jī)機(jī)器人研究專家關(guān)注的熱點(diǎn)。

機(jī)械臂抓取需要確定每段機(jī)械臂的位姿

首先,機(jī)械臂需要視覺(jué)伺服系統(tǒng),來(lái)確定物體的位置,根據(jù)末端執(zhí)行器(手)和視覺(jué)傳感器(眼)的相對(duì)位置,可分為Eye-to-Hand和Eye-in-Hand兩種系統(tǒng)。

Eye-to-Hand的分離式分布,視野固定不變,如果相機(jī)的標(biāo)定精度高的話,那么視覺(jué)定位于抓取的精度也越高。

Eye-in-Hand則將機(jī)械臂與視覺(jué)傳感器固定在一起,視野隨機(jī)械臂的移動(dòng)而改變,傳感器越近時(shí)精度越高,但過(guò)于靠近時(shí)則可能使目標(biāo)超出視野范圍。

精密的視覺(jué)系統(tǒng)與靈活機(jī)械臂的配合,才能完成一次完美的抓取,而這正是當(dāng)前機(jī)器人操作中的核心難題,歸納起來(lái)就是這么一件事:找到合適的抓取點(diǎn)(或吸附點(diǎn)),抓住它。之后的轉(zhuǎn)運(yùn)執(zhí)行,則屬于運(yùn)動(dòng)規(guī)劃的分支。

目前幾種主流的解決方案

Model-based(基于模型的方法)

這種方法很好理解,即知道要抓什么,事先采用實(shí)物掃描的方式,提前將模型的數(shù)據(jù)給到機(jī)器人系統(tǒng),機(jī)器在實(shí)際抓取中就只需要進(jìn)行較少的運(yùn)算:

1. 離線計(jì)算:根據(jù)搭載的末端類型,對(duì)每一個(gè)物體模型計(jì)算局部抓取點(diǎn);

2. 在線感知:通過(guò)RGB或點(diǎn)云圖,計(jì)算出每個(gè)物體的三維位姿;

3. 計(jì)算抓取點(diǎn):在真實(shí)世界的坐標(biāo)系下,根據(jù)防碰撞等要求,選取每個(gè)物體的最佳抓取點(diǎn)。

RGB顏色空間由紅綠藍(lán)三種基本色組成,疊加成任意色彩,同樣地,任意一種顏色也可以拆解為三種基本色的組合,機(jī)器人通過(guò)顏色坐標(biāo)值來(lái)理解“顏色”。這種方式與人眼識(shí)別顏色的方向相似,在顯示屏上廣泛采用。

CGrasp 對(duì)精密軸承的無(wú)序抓取

Half-Model-based(半模型的方法)

在這種訓(xùn)練方式中,不需要完全預(yù)知抓取的物體,但是需要大量類似的物體來(lái)訓(xùn)練算法,讓算法得以在物品堆中有效對(duì)圖像進(jìn)行“分割”,識(shí)別出物體的邊緣。這種訓(xùn)練方式,需要這些流程:

1.離線訓(xùn)練圖像分割算法,即把圖片里的像素按物體區(qū)分出來(lái),此類工作一般由專門(mén)的數(shù)據(jù)標(biāo)注員來(lái)處理,按工程師的需求,標(biāo)注出海量圖片中的不同細(xì)節(jié);

2.在線處理圖像分割,在人工標(biāo)注出的物體上,尋找合適的抓取點(diǎn)。

這是一種目前應(yīng)用較為廣泛的方式,也是機(jī)械臂抓取得以推進(jìn)的主要推力。機(jī)械臂技術(shù)發(fā)展緩慢,但計(jì)算機(jī)視覺(jué)的圖像分割則進(jìn)展迅速,也從側(cè)面撬動(dòng)了機(jī)器人、無(wú)人駕駛等行業(yè)的發(fā)展。

Model-free(自由模型)

這種訓(xùn)練方式不涉及到“物體”的概念,機(jī)器直接從RGB圖像或點(diǎn)云圖上計(jì)算出合適的抓取點(diǎn),基本思路就是在圖像上找到Antipodal(對(duì)映點(diǎn)),即有可能“抓的起來(lái)”的點(diǎn),逐步訓(xùn)練出抓取策略。這種訓(xùn)練方式往往讓機(jī)器手大量嘗試不同種類的物品,進(jìn)行self-supervisedlearning,Google的Arm Farm,即為其中的代表之一。

Google Arm Farm

值得注意的是,對(duì)于機(jī)械手而言,不同形狀的物品,抓取難度有天壤之別。即便是同樣形狀的物體,由于表面反光度和環(huán)境光照的影響,在不同場(chǎng)景的抓取難度也大相徑庭。從實(shí)驗(yàn)室到商業(yè)落地,其中有相當(dāng)一段路要走。

高精密度的相機(jī)研發(fā),是機(jī)器人“感知”物體的第一步。

實(shí)際商業(yè)場(chǎng)景中,最麻煩的物體總是“下一個(gè)物體”。工業(yè)機(jī)器人要真正融入實(shí)際生產(chǎn)體系,只有具備聰明的大腦,針對(duì)不同工況做出柔性的調(diào)整,才能拓寬工業(yè)機(jī)器人的使用場(chǎng)景。
責(zé)任編輯:pj

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2576

    文章

    55094

    瀏覽量

    791668
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    31120

    瀏覽量

    222430
  • 機(jī)械臂
    +關(guān)注

    關(guān)注

    14

    文章

    596

    瀏覽量

    26137
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【正點(diǎn)原子STM32N647開(kāi)發(fā)板試用】--人體檢測(cè)模型體驗(yàn)

    STM32N647芯片具有npu的,有0.6tops的算例,可以部署簡(jiǎn)單模型, 本次實(shí)驗(yàn)我們體驗(yàn)的是人體識(shí)別模型,該模型來(lái)源于:STM32 Model Zoo 工程文件分三部分,我們
    發(fā)表于 02-21 19:44

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)模型 model = models.Sequential()model.add(layers.Conv2D(input_shape=(28, 28, 1), filters=4
    發(fā)表于 10-22 07:03

    如何在vivadoHLS中使用.TLite模型

    使用read_checkpoint命令或通過(guò)界面導(dǎo)入模型文件。 2. 檢查模型的輸入和輸出節(jié)點(diǎn)名稱 可以使用model.summary()或其他方法來(lái)查看
    發(fā)表于 10-22 06:29

    關(guān)于Detectron2的GenerateRCNN模型轉(zhuǎn)RKNN問(wèn)題

    =False)[0] return [{\"instances\": instances}] # 創(chuàng)建追蹤適配器,處理模型輸入輸出格式 traceable_model
    發(fā)表于 10-13 17:53

    上??匕玻夯?b class='flag-5'>模型的測(cè)試用例生成

    的測(cè)試用例生成(Model-Based Test Case Generation)作為一種新興且高效的測(cè)試方法,正逐漸成為解決這一問(wèn)題的重要手段。 01 引 言 在傳統(tǒng)的軟件測(cè)試過(guò)程中,測(cè)試用例多由人工基于源代碼撰寫(xiě),往往依賴于開(kāi)發(fā)人員或測(cè)試工程師對(duì)需求與代
    的頭像 發(fā)表于 08-28 14:30 ?873次閱讀
    上??匕玻夯?b class='flag-5'>模型</b>的測(cè)試用例生成

    如何進(jìn)行YOLO模型轉(zhuǎn)換?

    ;)# 加載ONNX模型onnx_model = onnx.load(modelname + ".onnx")# 設(shè)置編譯選項(xiàng)compile_options
    發(fā)表于 08-14 06:03

    onnx模型轉(zhuǎn)換rknn模型出現(xiàn)問(wèn)題

    : Invalid rank for input: /model_1/convnext/ReduceMean_output_0 Got: 4 Expected: 2 Please fix either
    發(fā)表于 08-11 11:25

    使用nncase模擬器驗(yàn)證轉(zhuǎn)換效果出現(xiàn)報(bào)錯(cuò)sim.load_model(kmodel) RuntimeError怎么解決?

    , cv2.COLOR_BGR2RGB) # 縮放成模型輸入大小 image_fp32 = cv2.resize(image_fp32, (model_input_size[0], model_input_size[1
    發(fā)表于 07-23 07:44

    模型推理顯存和計(jì)算量估計(jì)方法研究

    方法。 一、引言 大模型推理是指在已知輸入數(shù)據(jù)的情況下,通過(guò)深度學(xué)習(xí)模型進(jìn)行預(yù)測(cè)或分類的過(guò)程。然而,大模型的推理過(guò)程對(duì)顯存和計(jì)算資源的需求較高,這給實(shí)際應(yīng)用帶來(lái)了以下挑戰(zhàn): 顯存不足:
    發(fā)表于 07-03 19:43

    提高SEA模型PBNR計(jì)算精度的方法及策略

    在汽車 NVH 工程領(lǐng)域, PBNR(Power Based Noise Reduction)分析是整車高頻噪聲舒適性開(kāi)發(fā)中常用的方法,相比于傳統(tǒng)的隔聲量NR分析方法,PBNR分析中考慮了被動(dòng)降噪
    的頭像 發(fā)表于 06-30 09:30 ?1390次閱讀
    提高SEA<b class='flag-5'>模型</b>PBNR計(jì)算精度的<b class='flag-5'>方法</b>及策略

    【正點(diǎn)原子STM32MP257開(kāi)發(fā)板試用】基于 DeepLab 模型的圖像分割

    ;) sys.exit(1) # 設(shè)置攝像頭分辨率(根據(jù)模型輸入尺寸調(diào)整) model_width, model_height, _ = nn.get_img_size() cap.set
    發(fā)表于 06-21 21:11

    Vector全流程開(kāi)發(fā)工具鏈概述

    ,難以滿足當(dāng)前智能網(wǎng)聯(lián)汽車的發(fā)展需求。因此基于模型的系統(tǒng)工程(MBSE,Model-Based Systems Engineering)方法成為主流,允許開(kāi)發(fā)人員在統(tǒng)一的系統(tǒng)架構(gòu)模型
    的頭像 發(fā)表于 06-17 13:45 ?1174次閱讀
    Vector全流程開(kāi)發(fā)工具鏈概述

    您的模型診斷專家MI:助力把好模型質(zhì)量關(guān)

    Model Inspector是一款專門(mén)針對(duì)汽車、航空、軌交等行業(yè)的靜態(tài)模型檢查工具,可以對(duì)模型進(jìn)行自動(dòng)化、批量化建模規(guī)范和復(fù)雜度量的檢查,提升用戶模型質(zhì)量。
    的頭像 發(fā)表于 06-11 16:57 ?1081次閱讀
    您的<b class='flag-5'>模型</b>診斷專家MI:助力把好<b class='flag-5'>模型</b>質(zhì)量關(guān)

    知識(shí)分享 | 評(píng)估模型架構(gòu)——如何實(shí)現(xiàn)?

    確保良好的模型架構(gòu)對(duì)于開(kāi)發(fā)安全和可靠的軟件非常重要。本文為您介紹MES Model Examiner? (MXAM)如何優(yōu)化模型架構(gòu),簡(jiǎn)化復(fù)雜度管理步驟,并最終提升軟件質(zhì)量。
    的頭像 發(fā)表于 06-05 11:46 ?666次閱讀
    知識(shí)分享 | 評(píng)估<b class='flag-5'>模型</b>架構(gòu)——如何實(shí)現(xiàn)?

    PROTUES仿真no model specified for adc0809,誰(shuí)有ADC0809的model?

    PROTUES仿真no model specified for adc0809,誰(shuí)有ADC0809的model?
    發(fā)表于 05-09 13:24