91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

僅需20%信息 AI場景全再現(xiàn)

DPVg_AI_era ? 來源:fqj ? 2019-05-20 16:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,Science子刊發(fā)表文章,來自Facebook、加州伯克利分校和德克薩斯奧斯汀大學(xué)的研究人員通過強(qiáng)化學(xué)習(xí)解決了“如何讓智能體獲取信息性的視覺觀察”的問題。具體來說就是,AI智能體對新環(huán)境“瞥上幾眼”,就能快速推斷整個新環(huán)境的情況。AI的能力越來越接近人類了。

又接近了人類一步。

當(dāng)我們給計(jì)算機(jī)視覺系統(tǒng)輸入一張照片時,它們可以很容易捕獲照片中的信息。但是,自主捕獲信息對于計(jì)算機(jī)視覺系統(tǒng)還是非常困難的。

簡單來說就是,當(dāng)我們?nèi)祟惪吹较聢D左、中兩個不同方向的獎杯時,就有可能推測出第三個方向上獎杯的樣子。

但對于計(jì)算機(jī)視覺系統(tǒng)或者AI智能體來說,這種能力的實(shí)現(xiàn)是較為困難的。

近日,Science子刊(Sience Robotics)封面發(fā)表了一篇文章,便對這項(xiàng)任務(wù)做了深入研究,并讓智能體的視覺系統(tǒng)取得了突破性進(jìn)展。不得不感嘆AI離人類的距離又拉近了一段!

來自Facebook、加州伯克利分校和德克薩斯奧斯汀大學(xué)的研究人員通過強(qiáng)化學(xué)習(xí)解決了“如何讓智能體獲取信息性的視覺觀察”的問題。具體來說就是,AI智能體對新環(huán)境“瞥上幾眼”,就能快速推斷整個新環(huán)境的情況。

如上圖所示,AI智能體快速對新環(huán)境不同方向拍攝快照并作為輸入,通過總計(jì)不超過20%場景內(nèi)容的照片即可推測整個場景內(nèi)容!

“輕輕一瞥”,新場景即刻再現(xiàn)!

對于一個智能體,環(huán)境的各個視圖只提供所有相關(guān)信息的一小部分。

例如,一個智能體如果看到前面的電視屏幕,它可能不知道電視是在客廳還是臥室;智能體從側(cè)面觀察一個杯子,可能要從上面看才能知道杯子里面是什么。

這項(xiàng)研究的目標(biāo)是學(xué)習(xí)一種控制智能體的攝像機(jī)運(yùn)動策略,這樣它就可以有效地探索新的環(huán)境和對象。

為此,研究人員制定了一個基于主動觀察完成的無監(jiān)督學(xué)習(xí)目標(biāo)。它的主要思想是支持一系列的攝像機(jī)運(yùn)動,這些運(yùn)動能使智能體周圍看不見的部分更容易預(yù)測。其輸出是一個查找策略,用于在新環(huán)境中收集新圖像。

主動完成觀測任務(wù)面臨三大挑戰(zhàn):

首先,為了很好地預(yù)測未觀察到的視圖,智能體必須學(xué)會從很少的視圖理解3D關(guān)系。經(jīng)典的幾何解在這些條件下很難求解;

其次,智能行動選擇是這項(xiàng)任務(wù)的關(guān)鍵。鑒于過去的一系列觀察結(jié)果,系統(tǒng)必須根據(jù)可能提供最多信息的新觀點(diǎn)采取行動,即,確定哪些視圖最能改進(jìn)其完整視圖網(wǎng)格的模型。

強(qiáng)調(diào)系統(tǒng)將面對在訓(xùn)練期間從未遇到的對象和場景,但仍然必須智能地選擇下一步看起來有價值的地方。

作為這些挑戰(zhàn)的核心解決方案,研究人員提出了一種用于主動觀測完成的RL方法,如下圖所示。

僅需20%信息 AI場景全再現(xiàn)

我們的RL方法使用遞歸神經(jīng)網(wǎng)絡(luò)來聚合一系列視圖中的信息; 隨機(jī)神經(jīng)網(wǎng)絡(luò)使用聚合狀態(tài)和當(dāng)前觀察來選擇一系列有用的相機(jī)運(yùn)動。智能體根據(jù)其對未觀察到的視圖的預(yù)測而獲得獎勵。因此,它學(xué)會了一種策略來智能地選擇動作(攝像機(jī)動作),以最大限度地提高預(yù)測的質(zhì)量。

在訓(xùn)練期間,完整的viewgrid是已知的,因此允許智能體“自我監(jiān)督”其策略學(xué)習(xí),這意味著它學(xué)習(xí)時不需要任何人類提供的標(biāo)簽

該模型判斷了像素空間中viewgrid重構(gòu)的質(zhì)量,從而保持通用性:整個場景(或3D對象)的所有像素都包含了所有對任何任務(wù)都可能有用的視覺信息。

因此,該方法避免使用任何中間語義表示,而采用尋求對許多任務(wù)有用的通用信息的學(xué)習(xí)策略。也就是說,研究人員所提出的方法很容易適應(yīng)更專業(yè)的環(huán)境。例如,如果目標(biāo)任務(wù)只需要語義分割標(biāo)簽,那么預(yù)測可以放在對象標(biāo)簽的空間中。

RL方法往往存在勘探階段成本高和部分狀態(tài)可觀測性差的問題。特別是,一個活躍的視覺智能體必須完全基于第一人稱視圖中有限的可用信息進(jìn)行一系列的操作。最有效的視點(diǎn)軌跡隱藏在許多平庸的視點(diǎn)軌跡中,阻礙了智能體在復(fù)雜的狀態(tài)-動作空間中的探索。

為了解決這一挑戰(zhàn),作為這項(xiàng)工作的第二個主要技術(shù)貢獻(xiàn),引入了“sidekick策略學(xué)習(xí)”。

sidekick方法引入了獎勵塑造和演示,利用訓(xùn)練期間的完全可觀察性來預(yù)先計(jì)算每個候選快照的信息內(nèi)容。然后,助手引導(dǎo)智能體訪問環(huán)境中的信息熱點(diǎn)或樣本中信息豐富的軌跡,同時考慮到在測試過程中可觀察性只是部分的事實(shí)。通過這樣做,助手們可以加快對實(shí)際智能體的訓(xùn)練,提高整體表現(xiàn)。

實(shí)驗(yàn)結(jié)果

數(shù)據(jù)集

為了基準(zhǔn)和重現(xiàn)性,研究人員在兩個廣泛使用的數(shù)據(jù)集上評估了提出的方法。

SUN360 dataset for scenes

SUN360擁有26個不同類別的球形全景。數(shù)據(jù)集包括6174個訓(xùn)練、1013個驗(yàn)證和1805個測試示例。viewgrid有32×32像素分辨率的2D圖像。

ModelNet dataset for objects

對于此數(shù)據(jù)集,智能體操縱3D對象以完成從所有查看方向看到的對象的視圖。viewgrid構(gòu)成了一個隱式的基于圖像的三維形狀模型。ModelNet有兩個計(jì)算機(jī)輔助設(shè)計(jì)(CAD)模型子集:ModelNet-40(40個類別)和ModelNet-10 (ModelNet-40的10個類別子集)。不包括ModelNet-10類,ModelNet-40包含6085個訓(xùn)練、327個驗(yàn)證和1310個測試示例。ModelNet-10包含3991個訓(xùn)練、181個驗(yàn)證和727個測試示例。viewgrid有32×32分辨率的2D圖像。

基線

研究人員測試了主動完成方法,使用/不使用sidekick策略學(xué)習(xí)(分別是lookaround和lookaround+spl)與各種基線進(jìn)行比較:

one-view是用T = 1訓(xùn)練的方法。該基線沒有進(jìn)行信息聚合或動作選擇。

rnd-actions與研究人員的方法相同,只是動作選擇模塊被所有可能動作池中隨機(jī)選擇的動作所取代。

large-actions選擇最大允許動作。 這測試了遠(yuǎn)距離觀點(diǎn)是否足夠豐富。

peek-saliency使用一個流行的saliency度量,在每個時間步長移動到可觸及的最顯著的視圖。

僅需20%信息 AI場景全再現(xiàn)

不同智能體行為下的場景和對象完成精度

(A)隨著獲得更多的一瞥,兩個數(shù)據(jù)集上的像素級MSE錯誤隨時間的變化。(B)所有T次瞥見后,兩個數(shù)據(jù)集的平均/對抗性MSE誤差×1000(↓越低越好)和相對于單視圖模型(↑越高越好)的相應(yīng)改進(jìn)(%)。

SUN360(左)和ModelNet(右)的活動觀測完成情況

對于每個示例,左邊的第一行顯示了ground-truth viewgrid;左邊的后續(xù)行顯示了t = 0,1,t?1 = 3時的重構(gòu),以及像素方向的MSE錯誤(×1000)和代理當(dāng)前的快照(用紅色標(biāo)記)。在右側(cè),每個時間步長所采樣的智能體觀察角度顯示在觀察球上。重建質(zhì)量隨著時間的推移而提高,因?yàn)樗梢钥焖俚丶?xì)化場景結(jié)構(gòu)和對象形狀。

T = 6“瞥見”后的三個重建例子

適用于SUN360和ModelNet的多種環(huán)境的ground-truth 360全景圖或viewgrid以及最終的GAN-refined重建

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1819

    文章

    50213

    瀏覽量

    266479
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47695

原文標(biāo)題:Science子刊封面:僅需20%信息,AI場景全再現(xiàn)!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    曙光云AI棧平臺解鎖政企AI新效能

    AI風(fēng)口席卷政企,能扎進(jìn)實(shí)際場景的實(shí)戰(zhàn)型AI才是政企剛!行業(yè)空談AI概念時,曙光云AI
    的頭像 發(fā)表于 04-07 15:29 ?184次閱讀

    德明利亮相CFMS 2026,AI+存儲解方案拓展智能場景應(yīng)用邊界

    2026年3月27日,MemoryS 2026峰會在深圳圓滿落幕。本屆峰會匯聚全球存儲產(chǎn)業(yè)鏈的核心廠商,德明利圍繞“AI+存儲解決方案”,以面向AI負(fù)載優(yōu)化的底層技術(shù)體系,構(gòu)建覆蓋數(shù)據(jù)中心與端側(cè)
    的頭像 發(fā)表于 04-03 17:42 ?221次閱讀
    德明利亮相CFMS 2026,<b class='flag-5'>全</b>棧<b class='flag-5'>AI</b>+存儲解方案拓展智能<b class='flag-5'>場景</b>應(yīng)用邊界

    嵌入式AI開發(fā)必看:杜絕幻覺,才是工業(yè)級IDE的核心底氣

    流程校驗(yàn)調(diào)試體系為核心,結(jié)合十余年工業(yè)實(shí)踐沉淀,給出了工業(yè)級嵌入式 AI 開發(fā)的確定性解決方案。 一、 AI 幻覺的危害與行業(yè)困境 在工業(yè)嵌入式場景中,
    發(fā)表于 03-18 13:49

    TB級數(shù)據(jù)手工校驗(yàn)要多久?用NineData小時級別

    TB級數(shù)據(jù)手工校驗(yàn)要多久?用NineData小時級別
    的頭像 發(fā)表于 03-16 10:48 ?438次閱讀
    TB級數(shù)據(jù)手工校驗(yàn)要多久?用NineData<b class='flag-5'>僅</b><b class='flag-5'>需</b>小時級別

    ESP32CAM引腳不夠用,能否用AI8051U擴(kuò)展?

    結(jié)論前置: 能用AI8051U擴(kuò)展ESP32-CAM引腳,但不是最優(yōu)解——適合額外算力+GPIO擴(kuò)展的場景,純引腳擴(kuò)展優(yōu)先專用I2C/SPI擴(kuò)展芯片 。下面給你完整可行性分析、連接/代碼方案
    發(fā)表于 02-05 08:03

    場景向——CD7377CZ/CD7388場景適配解析:通勤、改裝、商用各選對款

    μA,車輛停10天電瓶電壓下降0.2V,無虧電風(fēng)險; 音質(zhì):驅(qū)動4Ω原廠喇叭,人聲、輕音樂細(xì)節(jié)還原清晰(THD≤0.02%),完全滿足日常通勤聽感需求; 改裝:外圍10個以內(nèi)元件,固定26dB增益
    發(fā)表于 12-11 11:04

    桂花網(wǎng)M1000:輕量型藍(lán)牙網(wǎng)關(guān)的場景落地與客戶實(shí)踐

    會科技 “海棠心智” 的合作項(xiàng)目。 項(xiàng)目背景:海棠心智構(gòu)建 “硬件采集 – 數(shù)據(jù)傳輸 – AI 分析 – 服務(wù)干預(yù)” 的心理健康服務(wù)體系,核心痛點(diǎn)是分散場景下(校園、企業(yè))生理數(shù)據(jù)的穩(wěn)定傳輸
    發(fā)表于 11-12 16:59

    聚力“AI×鴻蒙” | 拓維信息亮相華為聯(lián)接大會2025!

    9月18日-20日,華為聯(lián)接大會2025在上海世博中心盛大舉辦。作為華為“鯤鵬/昇騰/海思+大模型+鴻蒙”全方位戰(zhàn)略合作伙伴,拓維信息連續(xù)九載亮相,共赴大會十年之約,攜手華為及生態(tài)伙伴共同探討
    的頭像 發(fā)表于 09-22 20:28 ?2361次閱讀
    聚力“<b class='flag-5'>AI</b>×鴻蒙” | 拓維<b class='flag-5'>信息</b>亮相華為<b class='flag-5'>全</b>聯(lián)接大會2025!

    AI 芯片浪潮下,職場晉升新契機(jī)?

    芯片設(shè)計(jì)為例,從最初的架構(gòu)選型,到算法適配、性能優(yōu)化,每個環(huán)節(jié)都考驗(yàn)著工程師的專業(yè)素養(yǎng)。在設(shè)計(jì)一款面向智能安防領(lǐng)域的 AI 芯片時,需要深入研究安防場景下圖像識別算法的特點(diǎn),針對性地優(yōu)化芯片架構(gòu),提升
    發(fā)表于 08-19 08:58

    睿海光電800G光模塊助力全球AI基建升級

    激光器、SiPh晶圓)庫存周轉(zhuǎn)周期縮短至7天,較行業(yè)平均水平快2-3天。 靈活服務(wù)模式:提供OEM/ODM/JDM定制服務(wù),從需求確認(rèn)到樣品交付21天,滿足客戶差異化場景需求。
    發(fā)表于 08-13 19:05

    AI應(yīng)用創(chuàng)新與棧技術(shù)融合分論壇即將召開

    2025開放原子開源生態(tài)大會即將啟幕,其中 “AI應(yīng)用創(chuàng)新與棧技術(shù)融合分論壇”將于 7月24日重磅亮相。論壇聚焦人工智能技術(shù)與開源生態(tài)的深度融合,邀請各領(lǐng)域用戶、技術(shù)專家、開發(fā)者分享AI應(yīng)用創(chuàng)新實(shí)踐,旨在探索
    的頭像 發(fā)表于 07-23 09:54 ?1040次閱讀

    HarmonyOS AI輔助編程工具(CodeGenie)代碼續(xù)寫

    利用AI大模型分析并理解開發(fā)者在代碼編輯區(qū)的上下文信息或自然語言描述信息,智能生成符合上下文的ArkTS或C++代碼片段。 一、使用約束 建議在編輯區(qū)內(nèi)已有較豐富上下文,能夠使模型對編程場景
    發(fā)表于 07-15 16:15

    大象機(jī)器人攜手進(jìn)迭時空推出 RISC-V 棧開源六軸機(jī)械臂產(chǎn)品

    RISC-V”六軸機(jī)械臂為教育場景量身定制,具備6個自由度,280mm臂展,支持250g負(fù)載,整機(jī)重量860克。提供豐富接口,末端兼容樂高/M4拓展接口,可自由替換筆夾、夾爪、吸泵、視覺模塊等多種
    發(fā)表于 04-25 17:59

    RK3588核心板在邊緣AI計(jì)算中的顛覆性優(yōu)勢與場景落地

    推理任務(wù),額外部署GPU加速卡,導(dǎo)致成本與功耗飆升。 擴(kuò)展性受限:老舊接口(如USB 2.0、百兆網(wǎng)口)無法支持5G模組、高速存儲等現(xiàn)代外設(shè),升級困難。 開發(fā)周期長:BSP適配不完善,跨平臺AI
    發(fā)表于 04-15 10:48

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    AI的演進(jìn)正在逼近“終端智能涌現(xiàn)”的拐點(diǎn),從通用模型向場景落地遷移成為關(guān)鍵議題。聯(lián)發(fā)科以“AI隨芯,應(yīng)用無界”為主題召開天璣開發(fā)者大會2025(MDDC 2025),不僅聚合了全球生態(tài)資源,還
    發(fā)表于 04-13 19:52