91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能實(shí)現(xiàn)觸覺(jué)和視覺(jué)的信息交互

Hf1h_BigDataDig ? 來(lái)源:YXQ ? 2019-07-19 11:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在加拿大作家瑪格麗特?阿特伍德的著作《盲人殺手》中有這樣一段描述:“觸覺(jué),先于視覺(jué)也先于語(yǔ)言,既是第一語(yǔ)言也是最后的語(yǔ)言,并總是訴說(shuō)真相?!?/p>

被編寫(xiě)為視覺(jué)或者觸覺(jué)的機(jī)器人一般不能實(shí)現(xiàn)此兩種感官信息的交互。為打破這種隔絕,來(lái)自MIT(麻省理工學(xué)院)CSAIL(計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室)的研究團(tuán)隊(duì)提出了一種可預(yù)測(cè)AI,它可以通過(guò)觸覺(jué)信息的訓(xùn)練學(xué)習(xí)到視覺(jué)特征,反之亦然,也能通過(guò)視覺(jué)信息的訓(xùn)練學(xué)習(xí)到物體的觸覺(jué)特征。

該團(tuán)隊(duì)所提出的模型可以從視覺(jué)信號(hào)中“創(chuàng)造”出逼真的觸覺(jué)信號(hào),并直接利用觸覺(jué)信息預(yù)測(cè)所檢測(cè)目標(biāo)及觸摸部位。他們使用的庫(kù)卡機(jī)械臂上裝有一個(gè)特殊的觸覺(jué)傳感器GelSight,這是由MIT的另一研究團(tuán)隊(duì)設(shè)計(jì)的。

該團(tuán)隊(duì)利用一個(gè)簡(jiǎn)單的網(wǎng)絡(luò)攝像頭采集了近200種物體圖像,包括工具、家庭用品、紡織物等,這些物體被“觸摸”超過(guò)12000次。通過(guò)將這12000個(gè)小視頻分解為靜態(tài)幀從而生成了名為“VisGel”的數(shù)據(jù)集,該數(shù)據(jù)集包含300多萬(wàn)個(gè)視覺(jué)-觸覺(jué)對(duì)應(yīng)的圖像。

CSALL博士生Yunzhu Li在其一篇相關(guān)論文中談到:“通過(guò)觀察觸摸情景,我們的模型可以“想象”出觸摸平坦表面或者尖銳邊緣的感覺(jué)”,“當(dāng)機(jī)器人只有觸覺(jué)感官的時(shí)候,此模型可以僅憑觸覺(jué)信號(hào)來(lái)完成和周圍環(huán)境的交互。將觸覺(jué)和視覺(jué)這兩種感官結(jié)合在一起無(wú)疑是錦上添花。它還可能減少機(jī)器人為完成抓取任務(wù)所需的數(shù)據(jù)集”。

目前使能機(jī)器人具備更多感官能力的研究,比如MIT在2016年的項(xiàng)目:利用深度學(xué)習(xí)實(shí)現(xiàn)聲音可視化、預(yù)測(cè)物體對(duì)外力反應(yīng),都使用了大量的訓(xùn)練數(shù)據(jù),但不能實(shí)現(xiàn)視覺(jué)和觸覺(jué)的交互。該團(tuán)隊(duì)使用VisGel數(shù)據(jù)集和生成式對(duì)抗網(wǎng)絡(luò)(GANs)實(shí)現(xiàn)上述功能。

此GANs算法利用視覺(jué)或觸覺(jué)的圖像生成其他形式的圖像。其原理簡(jiǎn)而言之,就是GANs利用生成器(generator)捏造假的圖像試圖騙過(guò)判別器(discriminator),判別器將辨別結(jié)果反饋給生成器以調(diào)參,以使得生成器生成更高質(zhì)量的預(yù)期圖像,如此相得益彰。

所見(jiàn)即所觸

人可以通過(guò)觀察物體來(lái)判斷其手感,欲將這種能力賦予機(jī)器人,首先要標(biāo)定目標(biāo)位置,其次要推斷目標(biāo)區(qū)域的形狀和手感。

為此,需要一張參考圖像,它記錄了機(jī)器人沒(méi)有與外界交互時(shí)的所處的環(huán)境信息。模型在識(shí)別過(guò)程中會(huì)對(duì)比當(dāng)前捕捉到的幀圖像和參考圖像以輕松判斷所觸物體的位置和大小。

好比給模型“看”了一張鼠標(biāo)的圖像,模型將預(yù)測(cè)可能觸碰到鼠標(biāo)的區(qū)域,并告訴機(jī)器人從而使其實(shí)現(xiàn)安全高效的抓取任務(wù)。

所觸即所見(jiàn)

利用觸覺(jué)數(shù)據(jù)產(chǎn)生視覺(jué)圖像即所謂“所觸即所見(jiàn)”。模型通過(guò)觀察觸覺(jué)圖像推斷所接觸位置的物體形狀和材質(zhì),并和參考圖像對(duì)比進(jìn)而“想象”出交互過(guò)程。

舉個(gè)例子,將一只鞋的觸覺(jué)數(shù)據(jù)傳給模型,其輸出將是一張圖像,這張圖像則顯示了最有可能觸摸到這只鞋的區(qū)域位置。

當(dāng)燈被關(guān)掉,或者盲人進(jìn)入未知區(qū)域的時(shí)候,這種技能就可以發(fā)揮其作用了。

展望

目前的訓(xùn)練數(shù)據(jù)只能實(shí)現(xiàn)特定環(huán)境下的交互。該團(tuán)隊(duì)希望收集更復(fù)雜環(huán)境下的訓(xùn)練數(shù)據(jù)以提升模型的泛化性能。MIT的新設(shè)計(jì)——tactile glove或許可以幫助他們獲取更多更密集的訓(xùn)練數(shù)據(jù)。

翹首以盼,此類模型將協(xié)助機(jī)器人和其視覺(jué)緊密合作以實(shí)現(xiàn)無(wú)縫的人機(jī)交互。這些合作包括對(duì)象識(shí)別、抓取、場(chǎng)景理解等。

加州大學(xué)伯克利分校的博士后Andrew Owens說(shuō):“這是首次提出的視覺(jué)和觸覺(jué)信號(hào)可靠的轉(zhuǎn)換方法,此類方法于機(jī)器人而言將大有裨益,彼時(shí),它們就可以回答諸如‘這東西的硬度如何?’,‘如果我用手柄握住馬克杯,我會(huì)握得多好?’的問(wèn)題,這是一個(gè)十分有挑戰(zhàn)性的項(xiàng)目,因?yàn)閱?wèn)題的信號(hào)是如此的不同,其優(yōu)越性也可見(jiàn)一斑”。

李和MIT的教授Russ Tedrake 、 Antonio Torralba,博士后Jun-Yan Zhu共同完成這篇論文。它將于下周在加利福尼亞長(zhǎng)沙灘上舉辦的計(jì)算機(jī)視覺(jué)及模式識(shí)別大會(huì)上發(fā)布。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50107

    瀏覽量

    265561
  • MIT
    MIT
    +關(guān)注

    關(guān)注

    3

    文章

    254

    瀏覽量

    25005

原文標(biāo)題:所見(jiàn)即所觸,教AI實(shí)現(xiàn)觸覺(jué)和視覺(jué)的信息交互

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    淺談人工智能(2)

    接前文《淺談人工智能(1)》。 (5)什么是弱人工智能、強(qiáng)人工智能以及超人工智能? 弱人工智能(Weak AI),也稱限制領(lǐng)域
    的頭像 發(fā)表于 02-22 08:24 ?156次閱讀
    淺談<b class='flag-5'>人工智能</b>(2)

    開(kāi)發(fā)智能體配置-內(nèi)容合規(guī)

    智能體上架前,需完成“人工智能生成合成內(nèi)容標(biāo)識(shí)”和“大模型備案信息”填寫(xiě) ,以供平臺(tái)審核;可在智能體【配置】-【內(nèi)容合規(guī)】中填寫(xiě)。 人工智能
    發(fā)表于 02-07 11:44

    人形機(jī)器人傳感器產(chǎn)業(yè)鏈最新分析:力、觸覺(jué)、IMU、視覺(jué)傳感器為主流?。ㄈ妫?/a>

    人工智能與機(jī)器人技術(shù)飛速發(fā)展的浪潮中,人形機(jī)器人正從科幻概念逐步走向現(xiàn)實(shí)應(yīng)用,成為全球科技競(jìng)爭(zhēng)的新焦點(diǎn)。而傳感器作為人形機(jī)器人的“感官”,是其實(shí)現(xiàn)智能交互與復(fù)雜任務(wù)執(zhí)行的關(guān)鍵硬件基礎(chǔ)
    的頭像 發(fā)表于 10-11 18:38 ?12.6w次閱讀
    人形機(jī)器人傳感器產(chǎn)業(yè)鏈最新分析:力、<b class='flag-5'>觸覺(jué)</b>、IMU、<b class='flag-5'>視覺(jué)</b>傳感器為主流!(全面)

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    的框架小 10 倍,速度也快 10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文中,我們將介紹這對(duì)開(kāi)發(fā)人員意味著什么,以及使用 Neuton 模型如何改進(jìn)您的開(kāi)發(fā)和終端
    發(fā)表于 08-31 20:54

    挖到寶了!人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器

    和生態(tài)體系帶到使用者身邊 ,讓我們?cè)诩夹g(shù)學(xué)習(xí)和使用上不再受制于人。 三、多模態(tài)實(shí)驗(yàn),解鎖AI全流程 它嵌入了2D視覺(jué)、深度視覺(jué)、機(jī)械手臂、語(yǔ)音識(shí)別、嵌入式傳感器等多種類AI模塊,涵蓋人工智能領(lǐng)域主要
    發(fā)表于 08-07 14:30

    挖到寶了!比鄰星人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器!

    和生態(tài)體系帶到使用者身邊 ,讓我們?cè)诩夹g(shù)學(xué)習(xí)和使用上不再受制于人。 三、多模態(tài)實(shí)驗(yàn),解鎖AI全流程 它嵌入了2D視覺(jué)、深度視覺(jué)、機(jī)械手臂、語(yǔ)音識(shí)別、嵌入式傳感器等多種類AI模塊,涵蓋人工智能領(lǐng)域主要
    發(fā)表于 08-07 14:23

    迅為RK3588開(kāi)發(fā)板Linux安卓麒麟瑞芯微國(guó)產(chǎn)工業(yè)AI人工智能

    迅為RK3588開(kāi)發(fā)板Linux安卓麒麟瑞芯微國(guó)產(chǎn)工業(yè)AI人工智能
    發(fā)表于 07-14 11:23

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門(mén)學(xué)習(xí)課程參考2025版(大模型篇)

    人工智能大模型重塑教育與社會(huì)發(fā)展的當(dāng)下,無(wú)論是探索未來(lái)職業(yè)方向,還是更新技術(shù)儲(chǔ)備,掌握大模型知識(shí)都已成為新時(shí)代的必修課。從職場(chǎng)上輔助工作的智能助手,到課堂用于學(xué)術(shù)研究的智能工具,大模型正在工作生活
    發(fā)表于 07-04 11:10

    TDK收購(gòu)SoftEye,打造智能眼鏡系統(tǒng)實(shí)現(xiàn)通過(guò)眼球運(yùn)動(dòng)與人工智能進(jìn)行交互

    ·TDK收購(gòu)了人工智能/智能眼鏡應(yīng)用領(lǐng)域的領(lǐng)先技術(shù)推動(dòng)者SoftEye,lnc ? ·通過(guò)此次收購(gòu),TDK將能夠以更快的速度交付完整的智能眼鏡系統(tǒng),并打造全新的人機(jī)界面,實(shí)現(xiàn)通過(guò)眼球運(yùn)
    的頭像 發(fā)表于 06-25 15:12 ?9775次閱讀

    普強(qiáng)信息入選2025人工智能感知層創(chuàng)新榜單

    近日,由中國(guó)科學(xué)院主管、科學(xué)出版社主辦的商業(yè)期刊《互聯(lián)網(wǎng)周刊》(CIW)聯(lián)合德本咨詢(DBC)、中國(guó)社會(huì)科學(xué)院信息化研究中心(CIS)評(píng)選的“2025人工智能感知層創(chuàng)新排行”榜單揭曉發(fā)布。普強(qiáng)作為國(guó)內(nèi)人工智能、語(yǔ)音
    的頭像 發(fā)表于 05-10 10:45 ?1047次閱讀

    開(kāi)售RK3576 高性能人工智能主板

    ,HDMI-4K 輸出,支 持千兆以太網(wǎng),WiFi,USB 擴(kuò)展/重力感應(yīng)/RS232/RS485/IO 擴(kuò)展/I2C 擴(kuò)展/MIPI 攝像頭/紅外遙控 器等功能,豐富的接口,一個(gè)全新八核擁有超強(qiáng)性能的人工智能
    發(fā)表于 04-23 10:55

    維視智造助力高校人工智能和機(jī)器視覺(jué)課程落地

    人工智能浪潮下,機(jī)器視覺(jué)成為未來(lái)產(chǎn)業(yè)升級(jí)的重點(diǎn)技術(shù),對(duì)培養(yǎng)新型創(chuàng)新人才意義重大。
    的頭像 發(fā)表于 04-19 15:37 ?1385次閱讀

    支持實(shí)時(shí)物體識(shí)別的視覺(jué)人工智能微處理器RZ/V2MA數(shù)據(jù)手冊(cè)

    。此外,利用了 DRP技術(shù)高靈活性特點(diǎn)的 OpenCV 加速器,除了可進(jìn)行人工智能推理的圖像預(yù)處理之外,還能在單芯片上實(shí)現(xiàn)人工智能范疇之外的高速圖像處理。 *附件:支持實(shí)時(shí)物體識(shí)別的視覺(jué)
    的頭像 發(fā)表于 03-18 18:12 ?931次閱讀
    支持實(shí)時(shí)物體識(shí)別的<b class='flag-5'>視覺(jué)</b><b class='flag-5'>人工智能</b>微處理器RZ/V2MA數(shù)據(jù)手冊(cè)

    ?多模態(tài)交互技術(shù)解析

    多模態(tài)交互 多模態(tài)交互( Multimodal Interaction )是指通過(guò)多種感官通道(如視覺(jué)、聽(tīng)覺(jué)、觸覺(jué)等)或多種交互方式(如語(yǔ)音
    的頭像 發(fā)表于 03-17 15:12 ?4431次閱讀

    人工智能視覺(jué)識(shí)別技術(shù)的應(yīng)用領(lǐng)域及場(chǎng)景

    人工智能視覺(jué)識(shí)別技術(shù)的應(yīng)用領(lǐng)域及場(chǎng)景
    的頭像 發(fā)表于 03-14 11:41 ?2986次閱讀