91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MIT研究人員開發(fā)出一種具有預(yù)測性人工智能的機器人

DPVg_AI_era ? 來源:lq ? 2019-06-23 08:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摸一摸就知道長什么樣、看一看就知道摸著是什么感覺,你以為我說的是人?不,是AI。MIT研究人員開發(fā)出一種具有預(yù)測性人工智能機器人,它可以通過觸摸來學(xué)習“看”,通過“看”來學(xué)習感覺,李昀燭和朱俊彥這兩位大神參與了此項研究。

我們?nèi)祟惪梢酝ㄟ^簡單地觸摸來輕松地判斷物體的外形,這完全歸功于我們的觸覺,它使我們具備了這種能力。此外,我們當然也可以通過觀察物體來確定它的感受。

但做同樣的事情對于機器來說可能是困難的,這也是一個巨大的挑戰(zhàn)。即使是被編程有感官的機器人也無法做到這一點,它們不能把這些觸覺信號互換使用。

現(xiàn)在,麻省理工學(xué)院計算機科學(xué)與人工智能實驗室(CSAIL)的研究人員已經(jīng)開發(fā)出一種具有預(yù)測性人工智能(AI)的機器人,它可以通過觸摸來學(xué)習“看”,通過“看”來學(xué)習感覺。

強強聯(lián)合,必出精品

在細講這篇論文之前,先來給大家隆重介紹一下這個研究團隊——均來自MIT CSAIL,一作是MIT CSAIL博士、曾經(jīng)的北大學(xué)神李昀燭,二作是即將在CMU擔任助理教授、曾經(jīng)的清華學(xué)神朱俊彥。

李昀燭

李昀燭是CSAIL的二年級博士生,他的研究領(lǐng)域是計算機視覺、機器學(xué)習和機器人技術(shù),尤其是基于深度學(xué)習的機器人動力學(xué)建模和多模態(tài)感知。他本科畢業(yè)于北京大學(xué),本科期間參加北京大學(xué)和斯坦福大學(xué)的多個實驗室研究,并以第一作者身份發(fā)表多篇計算機視覺和機器學(xué)習頂級會議論文。

朱俊彥

朱俊彥目前是CSAIL的一名博士后研究員,他將于2020年秋季回到CMU擔任助理教授。朱俊彥主要從事計算機視覺、計算機圖形和機器學(xué)習的研究。他畢業(yè)于加州大學(xué)伯克利分校,2012 年獲得清華大學(xué)計算機科學(xué)系的工學(xué)學(xué)士學(xué)位,在 CMU 和 UC Berkeley 經(jīng)過 5 年學(xué)習后,于 2017 年獲得 UC Berkeley 電氣工程與計算機科學(xué)系的博士學(xué)位。(參見:【AI新星耀名?!筷愄炱?、朱俊彥、金馳加盟CMU、普林斯頓)

李昀燭和朱俊彥曾經(jīng)合作多次,最近最近爆火的MIT十美元“滅霸”手套也是二人合作完成的。這次又強強聯(lián)合,會出怎樣的精品呢?接下來看看這項新研究。

這項研究做了什么?

研究團隊使用KUKA機器人手臂并添加了一個名為GelSight的特殊觸覺傳感器,該傳感器之前由Edward Adelson領(lǐng)導(dǎo)的另一個麻省理工學(xué)院小組設(shè)計。

圖1.數(shù)據(jù)采集裝置:(a)他們使用一個裝備了GelSight傳感器的機器人手臂來收集觸覺數(shù)據(jù),并使用網(wǎng)絡(luò)攝像頭來捕捉對象交互場景的視頻。(b)凝膠接觸物體的圖示。交叉模式預(yù)測:在收集到的視覺觸覺對的基礎(chǔ)上,他們?yōu)閹讉€任務(wù)訓(xùn)練了交叉模式預(yù)測網(wǎng)絡(luò):(c)通過視覺學(xué)習感知(視覺→觸摸):從相應(yīng)的視覺輸入和參考圖像預(yù)測觸摸信號;(d)通過觸摸來學(xué)習看(觸摸→視覺):通過觸摸預(yù)測視覺。預(yù)測的觸摸位置和ground truth位置(用(d)中的黃色箭頭標記)具有相似的感覺。

GelSight是一塊透明的合成橡膠板,其一面涂有油漆,含有微小的金屬斑點。在另一側(cè),安裝攝像頭。該團隊使用網(wǎng)絡(luò)攝像頭記錄了近12000個被觸摸的200件物品的視頻,包括工具、家用產(chǎn)品、織物等。

圖2.物品集。這里他們展示了訓(xùn)練和測試中使用的物品集,包含了食品、工具、廚房用品、織物和文具等各種各樣的物品。

然后,研究人員將這些視頻分解為靜態(tài)幀并編制了“VisGel”,這是一個包含超過300萬個視覺/觸覺配對圖像的數(shù)據(jù)集。這些參考圖像隨后幫助機器人對物品和環(huán)境的細節(jié)進行編碼。

“通過觀察場景,我們的模型可以想象觸摸平坦表面或鋒利邊緣的感覺,” 李昀燭說:“僅通過觸摸,我們的模型可以單純從觸覺中預(yù)測與環(huán)境的相互作用。將這兩種感官結(jié)合在一起,可以增強機器人的能力并減少我們在涉及操縱和抓取物體的任務(wù)時可能需要的數(shù)據(jù)?!?/p>

視覺和觸覺演示

視覺到觸覺(綠色:Ground Truth;紅色:預(yù)測)

觸覺到視覺(綠色:Ground Truth;紅色:預(yù)測)

現(xiàn)在,機器人只能識別受控環(huán)境中的物體。然而,一些細節(jié),如物體的顏色和柔軟度,對于新的AI系統(tǒng)得出結(jié)論仍然是個挑戰(zhàn)。盡管如此,研究人員希望這種新方法能夠為制造環(huán)境中的“人-機器人”無縫結(jié)合鋪平道路,尤其是在缺乏視覺數(shù)據(jù)的任務(wù)中。

該團隊新AI系統(tǒng)的下一步是通過收集更多非結(jié)構(gòu)化區(qū)域中的數(shù)據(jù)或使用MIT新設(shè)計的傳感器手套來構(gòu)建更大的數(shù)據(jù)集,以便機器人可以在更多樣化的環(huán)境中工作。

“這是第一種可以令人信服地在視覺和觸摸信號之間進行轉(zhuǎn)換的方法,”加州大學(xué)伯克利分校的博士后Andrew Owens說:“像這樣的方法有可能對機器人技術(shù)非常有用,你需要回答諸如'這個物體是硬還是軟?'之類的問題,或者'如果我通過杯柄舉起這個杯子,我的握力有多好?'這是一個非常具有挑戰(zhàn)性的問題,因為信號是如此不同,而且這個模型已經(jīng)證明了它的強大能力。”

該論文會在加利福尼亞州長灘舉行的CVPR上發(fā)表,接下來和大家分享一下這篇論文。

使用跨模態(tài)預(yù)測方法

研究人員提出了一種從觸覺預(yù)測視覺的跨模態(tài)預(yù)測方法,反之亦然。首先,他們將觸摸的規(guī)模和位置合并到他們的模型中。然后,使用數(shù)據(jù)再平衡機制來增加結(jié)果的多樣性。最后,通過從附近的輸入幀中提取時間信息,進一步提高了結(jié)果的時間一致性和準確性。

圖3.跨模態(tài)預(yù)測模型概述:視覺→觸摸模式。

圖3顯示了一個示例輸入輸出組合,其中網(wǎng)絡(luò)將一系列視覺圖像和相應(yīng)的參考作為輸入,并將觸覺預(yù)測合成為輸出。同樣的框架也可以應(yīng)用于觸摸→視覺。

實驗介紹

研究人員使用VisGel數(shù)據(jù)集對視覺和觸覺之間的跨模態(tài)預(yù)測任務(wù)的方法進行了評估。他們報告了評估預(yù)測不同方面的多個指標。

對于視覺→觸覺預(yù)測,測量

(1)使用AMT的感知現(xiàn)實性:結(jié)果是否真實,

(2)接觸時刻:模型能否預(yù)測GelSight傳感器是否與物體接觸,

(3)標記物的變形:模型是否能夠跟蹤膜的變形。

對于觸摸→視覺方向,他們使用

(1)通過AMT的視覺真實性和

(2)觸摸感來評估他們的模型:預(yù)測的觸摸位置是否與ground truth位置具有相似的感覺。他們還將有關(guān)完整參考指標的評估納入補充資料,并向所有基線提供參考圖像,因為它們對于處理比例差異至關(guān)重要(圖4)。

圖4.使用參考圖像。使用/不使用參考圖像的方法的定性結(jié)果。他們用參考圖像訓(xùn)練的模型產(chǎn)生了更具視覺吸引力的圖像。

圖5.跨模態(tài)預(yù)測結(jié)果示例。(a)和(b)顯示了他們的模型和基線的視覺→觸摸預(yù)測的兩個例子。(c)和(d)顯示觸摸→視覺方向。 在這兩種情況下,他們的結(jié)果看起來既真實又在視覺上類似于ground truth 目標圖像。在(c)和(d)中,他們的模型在沒有g(shù)round truth 位置標注的情況下進行訓(xùn)練,可以準確地預(yù)測觸摸位置,與完全監(jiān)督的預(yù)測方法相當。

圖6.Vision2Touch定量結(jié)果。上圖:檢測觸摸了物體表面的錯誤。使用時間提示可以顯著提高性能或他們的模型。下圖:根據(jù)圖像還原觸覺點位置的失真錯誤情況。他們的方法仍然有效。

圖7.Vision2Touch檢測接觸時刻。顯示了標記隨時間的變形,由所有黑色標記的平均移動決定。較高的變形意味著物體與較大的力接觸。上圖:三種典型案例,其中(a)所有方法都可以推斷出接觸時刻,(b)沒有時間線索的方法無法捕捉接觸時刻,(c)沒有時間線索的方法會產(chǎn)生錯位結(jié)果。下圖:我們展示了案例(c)中的幾個視覺和觸摸框架。 我們的模型具有時間線索可以更準確地預(yù)測GelSight的變形。標記的運動為紅色顯示以獲得更好的可視化效果。

表2.Vision2Touch AMT “真實vs虛假”測試。與pix2pix和基線相比,他們的方法可以合成更逼真的觸覺信號,既適用于已知物品,也適用于未知物品。

表3. Touch2Vision“感覺相似vs感覺不同”測試。他們的自我監(jiān)督方法明顯優(yōu)于基線。其精度可與用ground truth 標注訓(xùn)練的完全監(jiān)督預(yù)測方法相媲美。

表4. Touch2Vision AMT“真實vs虛假”測試。 盡管pix2pix在看不見的對象中獲得了最高分,但由于mode collapse,它總是產(chǎn)生相同的圖像。

討論

在這項研究中,研究團隊提出用條件對抗網(wǎng)絡(luò)在視覺和觸覺之間建立聯(lián)系。在與世界互動時,人類嚴重依賴于兩種感官模式。他們的模型可以為已知對象和未知對象提供有希望的跨模態(tài)預(yù)測結(jié)果。在未來,視覺-觸覺交叉模式連接可以幫助下游視覺和機器人應(yīng)用,例如在弱光環(huán)境中的物體識別和抓取,以及物理場景理解。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2577

    文章

    55234

    瀏覽量

    792608
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    31208

    瀏覽量

    222982
  • 人工智能
    +關(guān)注

    關(guān)注

    1819

    文章

    50174

    瀏覽量

    266097

原文標題:觸感隔空看到,MIT“滅霸手套”作者李昀燭、朱俊彥又一重磅研究

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何在人工智能機器人領(lǐng)域應(yīng)用大數(shù)據(jù)?

    這個事情。簡單來分的話有兩類:類是機器人載體,不管是實體機器人還是虛擬機器人一種是云端的人工智能
    發(fā)表于 11-13 16:37

    未來趨勢:人工智能+機器人+互聯(lián)網(wǎng)三者融合

    。當下的趨勢表明,要達到這個目標,未來需要人工智能、機器人和互聯(lián)網(wǎng)三者融合在起。今天大家都在談?wù)摗ヂ?lián)網(wǎng)+’,相信將來會有更多人看到‘人工智能+’?!北本┕I(yè)大學(xué)電控學(xué)院
    發(fā)表于 01-25 11:30

    討論:中國首例“機器人傷人”事件???來自人工智能的威脅?!

    機器人技術(shù)還沒有完全達到強人工智能的程度。對于強人工智能很多人相信,但是也有很多人是不相信的。但是小編是相信強人工智能是能夠?qū)崿F(xiàn)的,因為在之前看過
    發(fā)表于 11-19 23:51

    分享:人工智能算法將帶領(lǐng)機器人走向何方?

    加速推動機器人進入到千家萬戶。 更包容——機器人人工智能的外在承載體人工智能機器人有方向性的引領(lǐng),同時,
    發(fā)表于 08-16 10:44

    人類與人工智能機器人合作的前景

    的人之所以不會被機器人取代,因為他們總是自己創(chuàng)造工作?! 〉诙?b class='flag-5'>種是用心提供服務(wù)的人。這類永遠不會被 人工智能行業(yè)云 所取代,因為機器人效率
    發(fā)表于 04-16 17:42

    電銷機器人成為2018人工智能最熱產(chǎn)業(yè)之

    ,但是流動也很大,這對企業(yè)來講就是件亟待解決的事情。中紳智能電銷機器人的應(yīng)用讓企業(yè)在銷售的意向客戶初篩中得到了廣泛的應(yīng)用,并且用實際行動證明了
    發(fā)表于 05-21 15:54

    AI人工智能:零基礎(chǔ)入門機器人開發(fā)教程

    AI語音智能機器人開發(fā)直播:http://t.elecfans.com/live/718.html手把手教你設(shè)計人工智能芯片及系統(tǒng)(全階設(shè)計教程+AI芯片F(xiàn)PGA實現(xiàn)+
    發(fā)表于 02-26 14:17

    ai人工智能機器人

    的運營成本、人力成本還在不斷提高(如:辦公場地的租金、員工的工資、社保公積金、節(jié)假日福利等)。 如今的智能電話機器人,每天的電話撥打量可達800-1000通,相比人工提高了3-5倍,大大縮短了名單的篩選
    發(fā)表于 09-21 11:09

    MIT研究人員開發(fā)出新型“光子”芯片

    MIT研究人員開發(fā)出一種新型 “光子” 芯片,它使用光而不是電,并且在此過程中消耗相對較少的功率。
    的頭像 發(fā)表于 06-12 09:23 ?4740次閱讀

    MIT開發(fā)出一種為軟體機器人設(shè)計的新型模擬器

    來自麻省理工學(xué)院計算機科學(xué)與人工智能實驗室的研究人員開發(fā)出一種專門為軟體機器人設(shè)計的新型模擬器,并證明該模擬器能逼真地模擬各種
    發(fā)表于 07-10 14:22 ?1989次閱讀

    MIT開發(fā)一種配備人工智能機器人 能在線多人游戲中擊敗人類玩家

    麻省理工學(xué)院(MIT)的研究人員開發(fā)一種配備了人工智能機器人,該
    發(fā)表于 11-21 10:03 ?1475次閱讀

    研究人員開發(fā)的可預(yù)測宇宙結(jié)構(gòu)的人工智能工具

    現(xiàn)在,在研究人員開發(fā)出一種稱為“黑暗仿真器”的人工智能工具后,可以在幾秒鐘內(nèi)研究宇宙如何產(chǎn)生其空隙和細絲。
    發(fā)表于 03-06 10:16 ?1115次閱讀

    研究人員開發(fā)出一種新型機器人 通過“吃”金屬發(fā)電?

    據(jù)外媒報道,電池已經(jīng)為我們服務(wù)了幾十年,但隨著電子設(shè)備的不斷縮小,它們變得過于笨重和低效。對此,賓夕法尼亞大學(xué)的研究人員近日開發(fā)出一種新型機器人,它可以通過“吃掉”周圍環(huán)境中的金屬來為
    的頭像 發(fā)表于 04-15 16:35 ?3056次閱讀

    研究人員已成功研發(fā)出一種新型的磁驅(qū)動高速軟體機器人

    據(jù)國內(nèi)媒體報道,《通訊-材料》最新發(fā)表了篇技術(shù)研發(fā)成果論文,研究人員已成功研發(fā)出一種新型的磁驅(qū)動高速軟體機器人,這種
    的頭像 發(fā)表于 09-27 10:38 ?2670次閱讀

    研究人員開發(fā)一種新型的磁力驅(qū)動高速軟件機器人

    《通訊-材料》最近發(fā)表了篇關(guān)于技術(shù)研究開發(fā)的論文,研究人員成功地開發(fā)一種新型的磁力驅(qū)動高速
    的頭像 發(fā)表于 10-10 10:57 ?3535次閱讀