91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出了在計算機視覺領(lǐng)域模擬重建人類視覺的新模型

DPVg_AI_era ? 來源:lq ? 2019-05-25 09:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌近日推出了在計算機視覺領(lǐng)域模擬重建人類視覺的新模型,與以往方法不同的是,新模型利用AI,通過普通Youtube視頻預(yù)測深度圖,可以在場景內(nèi)的攝像頭和人同時運動的復(fù)雜情況下生成自然視頻。

人類的視覺系統(tǒng)具有非凡的能力,可以從2D投影中理解3D世界。即使在包含多個移動物體的復(fù)雜環(huán)境中,人也能夠?qū)ξ矬w的幾何形狀和深度的排序進行可行的解釋。長期以來,計算機視覺領(lǐng)域都在研究如何通過2D圖像數(shù)據(jù)計算重建場景的幾何特征,來實現(xiàn)和人類類似的能力,但在許多情況下,仍然難以實現(xiàn)具備充分魯棒性的重建。

當(dāng)攝像頭和場景中的物體都在自由移動時,是實現(xiàn)重建的最困難的情況。這種情況混淆了基于三角測量的傳統(tǒng)3D重建算法,該算法假設(shè)可以同時從至少兩個不同的觀察點觀察到相同的對象。滿足這個假設(shè)需要一個多攝像頭陣列,或者單攝像頭移動,但場景目標(biāo)本身是靜止?fàn)顟B(tài)。因此,現(xiàn)有的大多數(shù)方法要么需要過濾掉移動的目標(biāo)(將移動目標(biāo)的深度固定為“零”),要么直接忽略移動目標(biāo)(會導(dǎo)致深度值發(fā)生錯誤)。

左圖:傳統(tǒng)的立體設(shè)置假設(shè)至少有兩個觀察點在同時捕捉場景。右圖:我們考慮攝像頭和拍攝對象都在移動的情況。

我們通過基于深度學(xué)習(xí)的方法來解決這個基本問題,該方法可以從普通視頻中生成深度圖,場景中的攝像頭和主體目標(biāo)都可以自由移動。模型從數(shù)據(jù)中學(xué)習(xí)人體姿勢和形狀的先驗知識,無需直接3D三角測量。盡管最近使用機器學(xué)習(xí)進行深度預(yù)測逐漸興起,但這項工作是第一個針對同時在攝像頭和目標(biāo)都在運動的狀態(tài)下的基于學(xué)習(xí)的方法。

本研究中的觀察目標(biāo)是人類,人類是增強現(xiàn)實和3D視頻效果的有趣目標(biāo)。

我們的模型可以預(yù)測深度圖(右圖,離攝像頭越近,圖中越亮),場景中的人和攝像頭都在自由移動。

訓(xùn)練數(shù)據(jù)

我們以監(jiān)督學(xué)習(xí)的方式訓(xùn)練深度預(yù)測模型,該模型需要通過移動的攝像頭捕獲的自然場景視頻以及精確的深度圖。關(guān)鍵問題是從何處獲取此類數(shù)據(jù)。綜合生成數(shù)據(jù)需要對各種場景和自然人類行為進行逼真的建模和渲染,這是很困難的任務(wù)。

此外,針對這樣的數(shù)據(jù)訓(xùn)練的模型可能難以推廣到真實場景中。另一種方法可能是用RGBD傳感器(如微軟的Kinect)記錄真實場景,但深度傳感器通常僅限于室內(nèi)環(huán)境,而且要面臨3D重建上的一系列問題。

我們利用現(xiàn)有的數(shù)據(jù)來進行監(jiān)督學(xué)習(xí):即YouTube視頻,視頻中的人們通過自己定格在各種自然姿勢,模仿人體模特效果,而手持?jǐn)z像機則在現(xiàn)場記錄。

因為整個場景是靜止的(只有攝像機在移動),所以基于三角測量的方法是行得通的,可以獲得包括其中人物在內(nèi)的整個場景的精確深度圖。我們收集了大約2000個這樣的視頻,涵蓋了各種逼真的場景,場景中的人按照不同的分組配置自然分布。

人們在攝像頭在場景中移動時模仿人體模特,我們將其作為訓(xùn)練數(shù)據(jù)。我們使用傳統(tǒng)的MVS算法來估計深度,并在深度預(yù)測模型的訓(xùn)練中將其用于監(jiān)督。

推斷移動中的人的場景深度

Mannequin挑戰(zhàn)視頻對移動中的攝像機和“定格”的人進行深度監(jiān)控,但我們的目標(biāo)是利用移動的攝像頭和移動的人來處理視頻。我們需要構(gòu)建網(wǎng)絡(luò)輸入來彌補這一差距。

一種可能的方法是為視頻的每一幀都進行深度圖推斷(也就是對模型的輸入相當(dāng)于單幀圖像)。雖然這種模型改進了用于深度預(yù)測的最先進的單幀方法,但是我們可以通過來自多幀的信息組合來進一步改善結(jié)果。比如運動視差,即兩個不同視點之間的靜態(tài)物體的明顯的相對運動,就對深度推斷提供了有力線索。為了充分利用這些信息,我們計算了視頻中每個輸入幀和另一幀之間的2D光流,用它表示兩幀之間的像素位移。

這些光流場取決于場景的深度和攝像頭的相對位置。但是,由于攝像頭位置是已知的,可以從流場中去除二者之間的依賴關(guān)系,由此生成初始深度圖。此初始深度僅對靜態(tài)場景區(qū)域有效。為了在測試時處理運動中的人,可以利用人工分割網(wǎng)絡(luò)來蓋住初始深度圖中的人類區(qū)域。這樣,我們網(wǎng)絡(luò)的完整輸入包括:RGB圖像、蓋住人類的區(qū)域,以及基于視差的遮蓋后的深度圖。

深度預(yù)測網(wǎng)絡(luò):模型的輸入包括RGB圖像(第t幀),人類區(qū)域的遮蓋和非人類區(qū)域的初始深度,根據(jù)輸入幀與另一個之間的運動視差(光流)計算視頻中的幀。模型輸出第t幀的完整深度圖。由MVS算法計算出的深度圖負(fù)責(zé)對訓(xùn)練過程的監(jiān)督。

該網(wǎng)絡(luò)的作用是“修復(fù)”人與場景的深度值,并在其他地方細化深度值。因為人類的外形和大小特征幾乎一致,網(wǎng)絡(luò)可以通過觀察多個訓(xùn)練樣例,在模型內(nèi)部學(xué)習(xí)這些先驗知識。經(jīng)過訓(xùn)練后,模型就可以處理任意攝像頭和人體同時運動的視頻。

以下是基于視頻的深度預(yù)測模型結(jié)果的一些示例,并與最近基于最新學(xué)習(xí)的方法做了比較。

上圖:基于學(xué)習(xí)的單眼深度預(yù)測方法。 下圖:基于學(xué)習(xí)的立體方法(DeMoN)和我們的估計深度圖的結(jié)果。

使用深度圖處理3D視頻效果

我們預(yù)測的深度圖可用于產(chǎn)生一系列3D感知視頻效

使用估計深度圖產(chǎn)生的散景效果

我們的深度圖也可用于其他方面的應(yīng)用,包括利用單眼視頻生成立體視頻,將合成CG對象插入場景,還可以在視頻的其他幀中顯示內(nèi)容的情況下進行場景區(qū)域的填充。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6255

    瀏覽量

    111852
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47695
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5602

    瀏覽量

    124567

原文標(biāo)題:Google AI:機器學(xué)習(xí)預(yù)測場景深度圖,模擬人眼更進一步

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    傳音相關(guān)研究成果入選計算機視覺頂會CVPR 2026

    (Mohamed bin Zayed University of Artificial Intelligence,簡稱MBZUAI)聯(lián)合開展的“拍照解題”項目研究取得重要進展,相關(guān)成果論文已被計算機視覺領(lǐng)域的國際頂級學(xué)術(shù)會議CV
    的頭像 發(fā)表于 04-03 17:45 ?2772次閱讀
    傳音相關(guān)研究成果入選<b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>頂會CVPR 2026

    上海計算機視覺企業(yè)行學(xué)術(shù)沙龍走進西井科技

    12月5日,由中國圖象圖形學(xué)學(xué)會青年工作委員會(下簡稱“青工委”)、上海市計算機學(xué)會計算機視覺專委會(下簡稱“專委會”)聯(lián)合主辦,上海西井科技股份有限公司、江蘇路街道商會承辦的“上海計算機
    的頭像 發(fā)表于 12-16 15:39 ?679次閱讀

    使用代理式AI激活傳統(tǒng)計算機視覺系統(tǒng)的三種方法

    當(dāng)前的計算機視覺系統(tǒng)擅長于識別物理空間與流程中的事件,卻難以詮釋場景細節(jié)及其意義,也無法推理后續(xù)可能發(fā)生的情況。
    的頭像 發(fā)表于 12-01 09:44 ?723次閱讀

    STM32計算機視覺開發(fā)套件:B-CAMS-IMX攝像頭模塊技術(shù)解析

    CMOS RGB圖像傳感器、ISM330DLC慣性運動單元和VL53L5CX ToF傳感器。B-CAMS-IMX可用于任何具有MIPI CSI-2? 接口(帶22引腳FFC連接器)的STM32開發(fā)板,輕松STM32微控制器和微處理器上實現(xiàn)全功能計算機
    的頭像 發(fā)表于 10-20 09:46 ?1510次閱讀
    STM32<b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>開發(fā)套件:B-CAMS-IMX攝像頭模塊技術(shù)解析

    什么是機器視覺及其功能?

    機器視覺本質(zhì)上是一個系統(tǒng)(例如一臺計算機)查看的能力。系統(tǒng)通過該能力分析圖像,然后作出決策或進行分類。
    的頭像 發(fā)表于 09-10 17:23 ?833次閱讀
    什么是機器<b class='flag-5'>視覺</b>及其功能?

    【作品合集】賽昉科技VisionFive 2單板計算機開發(fā)板測評

    :jf_05916765【VisionFive 2單板計算機試用體驗】 + 開箱體驗【VisionFive 2單板計算機試用體驗】SD卡分區(qū)【VisionFive 2單板計算機試用體驗】
    發(fā)表于 09-04 09:08

    易控智駕榮獲計算機視覺頂會CVPR 2025認(rèn)可

    近日,2025年國際計算機視覺與模式識別頂級會議(IEEE/CVF Conference on Computer Vision and Pattern Recognition,CVPR 2025)美國田納西州納什維爾召開。
    的頭像 發(fā)表于 07-29 16:54 ?1316次閱讀

    雙目視覺智能駕駛領(lǐng)域的應(yīng)用

    圍繞“雙目智駕應(yīng)用”,我們將推出系列文章深入解析雙目視覺如何跨越技術(shù)鴻溝,中國智駕的沃土上生根發(fā)芽,探索其賦能未來出行的無限可能。
    的頭像 發(fā)表于 07-09 16:21 ?1406次閱讀

    一文帶你了解什么是機器視覺網(wǎng)卡

    機器視覺網(wǎng)卡通常指的是機器視覺系統(tǒng)中用于連接工業(yè)相機到計算機的以太網(wǎng)卡。它的核心作用是實現(xiàn)高速、穩(wěn)定、低延遲的圖像數(shù)據(jù)傳輸。以下是關(guān)于機器視覺
    的頭像 發(fā)表于 07-09 16:18 ?797次閱讀
    一文帶你了解什么是機器<b class='flag-5'>視覺</b>網(wǎng)卡

    NVIDIA助力圖靈新訊美推出企業(yè)級多模態(tài)視覺模型融合解決方案

    中國推出企業(yè)級多模態(tài)視覺模型融合解決方案,推動先進 AI 模型交通治理、工業(yè)質(zhì)檢、金融風(fēng)控等領(lǐng)域
    的頭像 發(fā)表于 06-26 09:17 ?1457次閱讀

    工業(yè)相機圖像采集卡:機器視覺的核心樞紐

    工業(yè)相機圖像采集卡是用于連接工業(yè)相機與計算機的關(guān)鍵硬件設(shè)備,主要負(fù)責(zé)將相機輸出的圖像信號轉(zhuǎn)換為計算機可處理的數(shù)字信號,并實現(xiàn)高速、穩(wěn)定的數(shù)據(jù)傳輸。它在工業(yè)自動化、機器視覺、醫(yī)學(xué)影像、科學(xué)研究等
    的頭像 發(fā)表于 05-21 12:13 ?964次閱讀
    工業(yè)相機圖像采集卡:機器<b class='flag-5'>視覺</b>的核心樞紐

    利用邊緣計算和工業(yè)計算機實現(xiàn)智能視頻分析

    IVA的好處、實際部署應(yīng)用程序以及工業(yè)計算機如何實現(xiàn)這些解決方案。一、什么是智能視頻分析(IVA)?智能視頻分析(IVA)集成了復(fù)雜的計算機視覺,通常與卷積神經(jīng)網(wǎng)
    的頭像 發(fā)表于 05-16 14:37 ?935次閱讀
    利用邊緣<b class='flag-5'>計算</b>和工業(yè)<b class='flag-5'>計算機</b>實現(xiàn)智能視頻分析

    解決視覺感知難題:門控視覺技術(shù)汽車領(lǐng)域的應(yīng)用

    本文探討了友思特門控視覺技術(shù)夜間駕駛中的應(yīng)用,包括其基本概念、原理和應(yīng)用場景。該技術(shù)通過近紅外成像和智能“門控”算法,可以各種光照和天氣條件下提供清晰、高對比度的圖像,從而有效檢測障礙物和避免誤判,滿足汽車
    的頭像 發(fā)表于 05-13 11:20 ?1021次閱讀
    解決<b class='flag-5'>視覺</b>感知難題:門控<b class='flag-5'>視覺</b>技術(shù)<b class='flag-5'>在</b>汽車<b class='flag-5'>領(lǐng)域</b>的應(yīng)用

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    必須嚴(yán)謹(jǐn),并定期重新校準(zhǔn)。 OpenCV與ROS2的無縫結(jié)合 OpenCV是計算機視覺的核心工具,書中介紹了如何在ROS2中調(diào)用OpenCV進行圖像處理(如邊緣檢測、顏色空間轉(zhuǎn)換等)。 通過ROS2
    發(fā)表于 05-03 19:41