91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

普諾飛思傳感器Metavision實現(xiàn)更快速且節(jié)能機器觸覺感知

科技綠洲 ? 來源:普諾飛思 ? 作者:普諾飛思 ? 2022-06-09 16:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天,人工智能技術(shù)的發(fā)展已經(jīng)成功將視覺和聽覺等人類重要的感官功能結(jié)合到機器人技術(shù)中,但賦予機器人予人類觸覺的感知仍是一項不可小覷的挑戰(zhàn)。

觸覺是人類與外界環(huán)境進行交互的重要方式之一,觸覺感知也是當(dāng)前元宇宙發(fā)展面臨的一個核心技術(shù)挑戰(zhàn)。在工業(yè)生產(chǎn)、醫(yī)療護理、虛擬現(xiàn)實等領(lǐng)域,機器觸覺可以有效幫助機器突破當(dāng)前感知功能的局限,并實現(xiàn)更高效安全的人機互動。

例如,在工廠車間,配備電子皮膚的機械臂可以利用觸覺感應(yīng)識別和抓住物體,并施以適當(dāng)?shù)膲毫Ψ乐刮矬w滑落;在醫(yī)療護理行業(yè),通過賦予手術(shù)機器人觸覺,讓我們更接近手術(shù)自動化的實現(xiàn)。..

為了進一步提高了機器人的感知能力,來自新加坡國立大學(xué)(NUS)的研究團隊開發(fā)了一種新型的電子皮膚,結(jié)合基于事件的神經(jīng)擬態(tài)視覺傳感器,實現(xiàn)了更快速且節(jié)能的機器觸覺感知。

在這項研究中,NUS 研究團隊使用新型的觸覺傳感器 NeuTouch,其結(jié)構(gòu)類似于人的指尖,包含一層“皮膚(Ecoflex)”以及由 3D 打印的“骨骼”。與普諾飛思基于事件的傳感器 Metavision 的像素原理類似,NeuTouch 的觸覺像素(tactile pixels)由事件驅(qū)動,異步觸發(fā),因此實現(xiàn)了更高性能的觸覺感知,同時功耗更低,更加節(jié)能。

在此基礎(chǔ)上,研究人員將 NeuTouch 與普諾飛思的事件相機結(jié)合到一個機械手臂,進行容器分類和旋轉(zhuǎn)滑移檢測。測試結(jié)果發(fā)現(xiàn),結(jié)合基于事件的視覺傳感器,機器觸覺系統(tǒng)可以非??焖俚貦z測到滑動,速度比人類觸覺快 1,000 倍,并且能在 0.08 秒的時間內(nèi)檢測到旋轉(zhuǎn)滑動。

此外,由于基于事件的視覺傳感器對環(huán)境的光照變化反應(yīng)非常靈敏,這意味機器人系統(tǒng)無論在低光、強光或是非常高動態(tài)范圍的場景中,其感知性能都不會發(fā)生改變。

“我們對研究結(jié)果感到興奮。這表明神經(jīng)擬態(tài)系統(tǒng)有希望結(jié)合多傳感器,解決機器人感知能力難題。這讓我們朝著制造節(jié)能而且值得信賴的機器人又邁出了一步”,研究團隊成員之一、NUS 計算機學(xué)院助理教授 Harold Soh 表示。

該研究結(jié)果表明,基于事件的傳感和機器學(xué)習(xí)將有望成為下一代高效實時自主機器人的必要基礎(chǔ)。

不同于耗費大量資源的深度學(xué)習(xí)方法,基于事件驅(qū)動的感知提供了一種更高效的替代方法,可保證系統(tǒng)的高能效和低延遲,是實時移動機器人的理想選擇。此外,結(jié)合視覺與觸覺感知,機器人可以更好地理解現(xiàn)實環(huán)境,從而實現(xiàn)更加安全高效的人機交互。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2576

    文章

    55127

    瀏覽量

    791925
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    31140

    瀏覽量

    222573
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8556

    瀏覽量

    137049
  • 普諾飛思
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    3464
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    廣州團隊研制出機器人“觸覺皮膚”

    機器人的發(fā)展日新月異,廣州團隊研制出機器人“觸覺皮膚”!廣州團隊研制的亞毫米級雙模態(tài)觸覺傳感器陣列,是
    的頭像 發(fā)表于 03-11 15:43 ?692次閱讀

    西湖大學(xué):研發(fā)CMOS兼容壓力傳感器陣列,實現(xiàn)精準(zhǔn)觸覺感知功能

    人類指尖分布著高密度的觸覺感受器使得人類能夠精確感知物體的紋理、大小和形狀等觸覺信息。近年來,人工電子皮膚(觸覺傳感器陣列)在
    的頭像 發(fā)表于 12-30 18:16 ?390次閱讀
    西湖大學(xué):研發(fā)CMOS兼容壓力<b class='flag-5'>傳感器</b>陣列,<b class='flag-5'>實現(xiàn)</b>精準(zhǔn)<b class='flag-5'>觸覺</b><b class='flag-5'>感知</b>功能

    武漢光谷企業(yè)華威科發(fā)布最小機器人指尖傳感器

    ? 12月18日,科技企業(yè)華威科在第六屆中國機器人行業(yè)年會現(xiàn)場,正式推出全新品牌"具感時代EmbosenX",并同步發(fā)布兩款突破性觸覺傳感器產(chǎn)品,為人形機器人在復(fù)雜場景下的精細(xì)操作提供
    的頭像 發(fā)表于 12-19 18:15 ?2505次閱讀
    武漢光谷企業(yè)華威科發(fā)布最小<b class='flag-5'>機器</b>人指尖<b class='flag-5'>傳感器</b>

    四川大學(xué):研究一種具有四重感知能力的柔性機器傳感器

    在本研究中,作者受自然皮膚感知能力的啟發(fā),提出了一種新型的內(nèi)在柔性機器傳感器,其四重感知功能集成于單一設(shè)備中,包括空間接近感知、熱接近
    的頭像 發(fā)表于 12-10 18:16 ?2315次閱讀
    四川大學(xué):研究一種具有四重<b class='flag-5'>感知</b>能力的柔性<b class='flag-5'>機器</b>人<b class='flag-5'>傳感器</b>

    進入多模態(tài)時代!測量采樣頻率升至1000Hz,三大機器觸覺傳感器新品發(fā)布

    電子發(fā)燒友網(wǎng)報道(文/莫婷婷)在機器人技術(shù)飛速發(fā)展的今天,觸覺傳感器作為機器感知系統(tǒng)的核心組件,正扮演著越來越重要的角色。根據(jù)興業(yè)證券的報
    的頭像 發(fā)表于 10-28 10:22 ?6776次閱讀
    進入多模態(tài)時代!測量采樣頻率升至1000Hz,三大<b class='flag-5'>機器</b>人<b class='flag-5'>觸覺</b><b class='flag-5'>傳感器</b>新品發(fā)布

    人形機器傳感器產(chǎn)業(yè)鏈最新分析:力、觸覺、IMU、視覺傳感器為主流?。ㄈ妫?/a>

    在人工智能與機器人技術(shù)飛速發(fā)展的浪潮中,人形機器人正從科幻概念逐步走向現(xiàn)實應(yīng)用,成為全球科技競爭的新焦點。而傳感器作為人形機器人的“感官”,是其實現(xiàn)
    的頭像 發(fā)表于 10-11 18:38 ?13.1w次閱讀
    人形<b class='flag-5'>機器</b>人<b class='flag-5'>傳感器</b>產(chǎn)業(yè)鏈最新分析:力、<b class='flag-5'>觸覺</b>、IMU、視覺<b class='flag-5'>傳感器</b>為主流?。ㄈ妫? />    </a>
</div>                              <div   id=

    柔性觸覺傳感器的主要技術(shù)路線

    觸覺傳感陣列是由多個觸覺傳感單元構(gòu)成的觸覺傳感器。觸覺
    的頭像 發(fā)表于 09-19 18:27 ?1886次閱讀
    柔性<b class='flag-5'>觸覺</b><b class='flag-5'>傳感器</b>的主要技術(shù)路線

    NVIDIA Isaac Sim仿真平臺助力他山科技實現(xiàn)觸覺傳感技術(shù)突破

    觸覺感知作為機器人與環(huán)境交互的核心能力之一,正成為突破人機協(xié)作精度瓶頸的關(guān)鍵。他山科技基于 NVIDIA Isaac Sim 仿真平臺,融合其業(yè)界領(lǐng)先的觸覺
    的頭像 發(fā)表于 09-06 15:30 ?1956次閱讀

    機器人競技幕后:磁傳感器芯片激活 “精準(zhǔn)感知力”

    機器人獲得更接近人類的觸覺反饋。 賽事首席技術(shù)官王博士表示:“當(dāng)機器人開始‘感知’而非‘計算’環(huán)境時,真正的智能化競技時代才算到來?!?未來,磁
    發(fā)表于 08-26 10:02

    最新分析:觸覺傳感器技術(shù)演化,電子皮膚市場空間將達155億元

    近日,東北證券發(fā)布研報稱,隨著人形機器人產(chǎn)業(yè)化加速,觸覺傳感器作為核心零部件迎來技術(shù)升級與市場擴容。伴隨技術(shù)走向成熟以及成本下降,該行預(yù)計靈巧手電子皮膚觸點有望從五個指尖轉(zhuǎn)向手掌+指腹全覆蓋。另預(yù)計
    的頭像 發(fā)表于 08-18 11:25 ?12.3w次閱讀

    南京工業(yè)大學(xué):仿生觸覺傳感系統(tǒng)讓機器人擁有“人類指尖”般的細(xì)膩感知

    宏博士,聯(lián)合南開大學(xué)、復(fù)旦大學(xué)、金陵科技學(xué)院等單位眾多合作者,在《Advanced Materials》發(fā)表重磅研究成果,研發(fā)出一種仿生紡織觸覺傳感器及系統(tǒng),首次在單一器件中實現(xiàn)靜態(tài)力與動態(tài)振動的高精度同步
    的頭像 發(fā)表于 06-14 17:32 ?919次閱讀
    南京工業(yè)大學(xué):仿生<b class='flag-5'>觸覺</b><b class='flag-5'>傳感</b>系統(tǒng)讓<b class='flag-5'>機器</b>人擁有“人類指尖”般的細(xì)膩<b class='flag-5'>感知</b>

    觸覺傳感器已在亞馬遜倉儲機械臂率先商用 新增形式有望加速市場增長節(jié)奏

    落地的核心支撐。除人形機器人之外,驚喜地發(fā)現(xiàn)觸覺傳感能力已在倉儲機械臂中率先落地應(yīng)用,這或加速觸覺傳感器行業(yè)的發(fā)展。
    的頭像 發(fā)表于 06-07 16:42 ?780次閱讀
    <b class='flag-5'>觸覺</b><b class='flag-5'>傳感器</b>已在亞馬遜倉儲機械臂率先商用 新增形式有望加速市場增長節(jié)奏

    仿生傳感器:讓機器擁有“生命感知”的神奇科技

    在科幻電影中,機器人通過皮膚感知溫度、用“鼻子”識別氣味、用“耳朵”捕捉聲音的場景曾令人驚嘆。如今,這些“超能力”正通過仿生傳感器逐漸走進現(xiàn)實。仿生傳感器,這一融合生物學(xué)與工程學(xué)的創(chuàng)新
    的頭像 發(fā)表于 04-28 17:25 ?1347次閱讀

    NVIDIA技術(shù)驅(qū)動帕西尼觸覺感知與人形機器人智能突破

    感知科技實現(xiàn)了從接觸仿真、觸覺信號產(chǎn)生、仿真數(shù)據(jù)生成,再到觸覺模態(tài)模型訓(xùn)練的全流程 GPU 加速,提升標(biāo)定和訓(xùn)練效率 100 倍,完成觸覺
    的頭像 發(fā)表于 04-21 09:15 ?1448次閱讀

    昆蟲觸角啟發(fā)研發(fā)雙模觸覺傳感器

    【文章亮點】 多模態(tài)感知能力 :通過接觸高度、接觸面積和壓力大小,傳感器(BITS)能夠感知物體的軟硬程度。 材料類型識別 :利用材料獲取或失去電子的能力差異,BITS陣列生成獨特的靜電信號,從而
    的頭像 發(fā)表于 03-27 15:34 ?1048次閱讀
    昆蟲觸角啟發(fā)研發(fā)雙模<b class='flag-5'>觸覺</b><b class='flag-5'>傳感器</b>