91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CVPR2019新作:一種基于視頻流的自監(jiān)督特征表達(dá)方法

nlfO_thejiangme ? 來源:lq ? 2019-10-01 16:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文為新欄目——將門好聲音第5期。

作者是來自將門計(jì)算機(jī)視覺社群的群友、中科院計(jì)算技術(shù)研究所VIPL課題組博士生——李勇。本文中,他將為大家介紹中科院計(jì)算所VIPL組的CVPR2019新作:一種基于視頻流的自監(jiān)督特征表達(dá)方法,通過利用巧妙的自監(jiān)督約束信號,得到提純的面部動作特征用于微表情識別。

如果你也想與廣大群友分享自己的研究工作、文章觀點(diǎn)、出坑經(jīng)驗(yàn),隨時與群主小姐姐聯(lián)系!只要內(nèi)容合適,我“門”送你頭條出道!

著名心理學(xué)家Paul Ekman和研究伙伴W.V.Friesen,通過對臉部肌肉動作與對應(yīng)表情關(guān)系的研究,于1976年創(chuàng)制了“面部運(yùn)動編碼系統(tǒng)”,而利用微表情的“讀心術(shù)”正是基于這一研究體系。由于該領(lǐng)域有限的數(shù)據(jù)集和高昂的標(biāo)注成本,有監(jiān)督學(xué)習(xí)的方法往往會導(dǎo)致模型過擬合。本文中,將為大家介紹中科院計(jì)算所VIPL組的CVPR2019新作:作者提出了一種基于視頻流的自監(jiān)督特征表達(dá)方法,通過利用巧妙的自監(jiān)督約束信號,得到提純的面部動作特征用于微表情識別。

李勇,中國科學(xué)院計(jì)算技術(shù)研究所視覺信息處理與課題組博士研究生,導(dǎo)師為常虹副研究員以及山世光研究員,研究方向?yàn)殚_放場景下的人臉表情分析。在攻讀博士學(xué)位期間,李勇在 CVPR, TIP 等會議及期刊上發(fā)表過多篇學(xué)術(shù)論文,其已發(fā)表的會議文章均被錄取為口頭報告。此外,李勇獲得ACM Multimedia 2017 親屬關(guān)系識別國際競賽冠軍。

論文信息:

Yong Li, Jiabei Zeng, Shiguang Shan, Xilin Chen. “Self-Supervised Representation Learning From Videos for Facial Action Unit Detection”, CVPR 2019, pp. 10924-10933, Long Beach, California, USA, June 16-20, 2019.

論文鏈接:

http://openaccess.thecvf.com/content_CVPR_2019/papers/Li_Self-Supervised_Representation_Learning_From_Videos_for_Facial_Action_Unit_Detection_CVPR_2019_paper.pdf

一、研究背景

面部運(yùn)動編碼系統(tǒng)(FACS,F(xiàn)acial Action Coding System)從人臉解剖學(xué)的角度,定義了44個面部動作單元(Action Unit,簡稱AU)用于描述人臉局部區(qū)域的肌肉運(yùn)動。

圖1. 面部動作單元示例

如圖1所示,AU9表示“皺鼻”,AU12表示“嘴角拉伸”。各種動作單元之間可以自由組合,對應(yīng)不同的表情。如“AU4(降低眉毛)+AU5(上眼瞼上升)+AU24(嘴唇相互按壓)”這一組合對應(yīng)“憤怒”這一情緒狀態(tài)。

面部動作單元能夠客觀、精確、細(xì)粒度地描述人臉表情。然而昂貴的標(biāo)注代價在很大程度上限制了AU識別問題的研究進(jìn)展,其原因在于不同的AU分布在人臉的不同區(qū)域,表現(xiàn)為不同強(qiáng)度、不同尺度的細(xì)微變化。具體來說,為一分鐘的人臉視頻標(biāo)注一個AU,需要耗費(fèi)一名AU標(biāo)注專家30分鐘。目前學(xué)術(shù)界已發(fā)布的AU數(shù)據(jù)集只包含了有限的采集對象,以及有限的人臉圖像(如2017年CMU發(fā)布的GFT數(shù)據(jù)集有96個人,約35,000張人臉圖像)。

當(dāng)前已有的工作多采用人臉區(qū)域分塊、注意力機(jī)制等方法學(xué)習(xí)人臉局部區(qū)域的AU特征,這類方法在訓(xùn)練階段需要利用精確標(biāo)注的AU標(biāo)簽,由于目前業(yè)界發(fā)布的AU數(shù)據(jù)集人數(shù)及圖像總量不足,采用監(jiān)督學(xué)習(xí)方法訓(xùn)練得到的模型往往呈現(xiàn)出在特定數(shù)據(jù)集上的過擬合現(xiàn)象,這無疑限制了其實(shí)際使用效果。

我們提出了一種能夠在不依賴AU標(biāo)簽的前提下,從人臉視頻數(shù)據(jù)中自動學(xué)習(xí)AU表征的方法(Twin-Cycle Autoencoder,簡稱TCAE)。TCAE用于后續(xù)的AU識別任務(wù)時,只需要利用訓(xùn)練數(shù)據(jù)訓(xùn)練一個分類器即可,顯著減少了所需的訓(xùn)練數(shù)據(jù),并提升了模型的泛化能力。

二、方法概述

如圖2所示,該方法以兩幀人臉圖像(源圖,目標(biāo)圖)之間的運(yùn)動信息為監(jiān)督信號,驅(qū)使模型提取出用于解碼運(yùn)動信息的圖像特征。這個方法的理念在于,模型只有感知并理解了人臉圖像中各個面部動作單元的狀態(tài)(AU是否激活),才能夠?qū)⒃磮D的面部動作轉(zhuǎn)換為目標(biāo)圖像的面部動作。

圖2. TCAE 設(shè)計(jì)圖

考慮到兩幀人臉圖像之間的運(yùn)動信息包含了AU以及頭部姿態(tài)的運(yùn)動分量,TCAE通過利用巧妙的自監(jiān)督約束信號,使得模型能夠分離出AU變化引起的運(yùn)動分量,以及頭部姿態(tài)變化引起的運(yùn)動分量,從而得到提純的AU特征。與其他監(jiān)督方法,TCAE可以利用大量的無標(biāo)注人臉視頻,這類視頻是海量的。與半監(jiān)督或者弱監(jiān)督方法相比, TCAE采用了自監(jiān)督信號進(jìn)行模型訓(xùn)練,避免了對數(shù)據(jù)或者標(biāo)簽的分布做出任何假設(shè)。

三、算法詳解

如圖3所示,TCAE包含四個階段,分別是特征解耦,圖像重建,AU循環(huán)變換,以及姿態(tài)(pose)循環(huán)變換。

圖3. TCAE的四個階段示意圖,四個階段分別是特征解耦,圖像重建,AU循環(huán)變換,以及姿態(tài)循環(huán)變換。

給定兩張人臉圖像,TCAE在特征解耦階段使用編碼器得到每張圖像的AU特征以及姿態(tài)特征,隨后,兩幀圖像的AU特征被送入AU解碼器,用于解碼出AU位移場;兩幀圖像的姿態(tài)特征被送入姿態(tài)解碼器,用于解碼出姿態(tài)位移場。考慮到AU的變化是稀疏的,且AU位移場的數(shù)值與姿態(tài)位移場相比更小,我們?yōu)锳U位移場添加了L1約束:

在目標(biāo)圖重建階段,TCAE通過線性組合AU位移場和pose位移場,得到源圖和目標(biāo)圖之間的整體位移場,進(jìn)行圖像重建:

在AU循環(huán)變換階段,僅變換了AU的人臉圖像被重新變換到源圖,由此我們獲得一個像素層面的一致性約束:

另外,對于變換了AU的人臉圖像,其AU特征應(yīng)該接近目標(biāo)圖像的AU特征,其姿態(tài)特征應(yīng)該和源圖的姿態(tài)特征一致,由此我們獲得一個特征層面的一致性約束:

同理,在pose循環(huán)變化階段,我們同樣可以獲得類似的像素及特征層面的一致性約束:

四、實(shí)驗(yàn)結(jié)果

多個數(shù)據(jù)集上的實(shí)驗(yàn)證明,TCAE能夠成功提取出人臉圖像的AU及姿態(tài)特征。如圖4所示,給定兩張人臉圖像(源圖,目標(biāo)圖),TCAE能夠僅僅改變源圖的AU或者頭部姿態(tài)??梢暬腁U位移場呈現(xiàn)出運(yùn)動方向的多樣性。

圖4. 可視化結(jié)果在AU識別任務(wù)上,TCAE取得了與監(jiān)督方法可比的性能。

表1及表2的結(jié)果表明,TCAE明顯優(yōu)于其他自監(jiān)督方法。在GFT數(shù)據(jù)集(該數(shù)據(jù)集存在大范圍的頭部姿態(tài)變化)上,TCAE的性能優(yōu)于其他監(jiān)督方法。

表1. BP4D及DISFA數(shù)據(jù)集評測結(jié)果

(評測標(biāo)準(zhǔn):F1 值 (%))

表2. GFT及EmotioNet數(shù)據(jù)集評測結(jié)果(評測標(biāo)準(zhǔn):F1 值 (%) )

五、總結(jié)與展望

TCAE通過自監(jiān)督的方法學(xué)習(xí)到了魯棒的AU表征,實(shí)驗(yàn)證明該AU表征是魯棒的,適用于AU分類任務(wù)的。可視化結(jié)果表明,TCAE具有潛在的人臉表情編輯價值。另外,TCAE在訓(xùn)練階段使用了大量的無標(biāo)簽數(shù)據(jù)(近6000人,約10,000,000張圖像),由此可見使用自監(jiān)督方法訓(xùn)練模型時數(shù)據(jù)利用的效率需要進(jìn)一步提高,這一點(diǎn)在BERT的實(shí)驗(yàn)分析中也得到了印證:

Good results on pre-training is 》1,000x to 100,000 more expensive than supervised training.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:將門好聲音 | CVPR2019 “識面知心”——基于自監(jiān)督學(xué)習(xí)的微表情特征表達(dá)

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    一種可跨不同領(lǐng)域的異常檢測通用模型UniOD介紹

    本研究提出了一種可跨不同領(lǐng)域、適用于特征維度各異且特征空間異構(gòu)的數(shù)據(jù)集的異常檢測通用模型。
    的頭像 發(fā)表于 03-18 09:09 ?391次閱讀
    <b class='flag-5'>一種</b>可跨不同領(lǐng)域的異常檢測通用模型UniOD介紹

    CVPR 2019看事件相機(jī)步態(tài)識別:技術(shù)突破與產(chǎn)品應(yīng)用

    這篇題為《EV-Gait:Event-basedRobustGaitRecognitionusingDynamicVisionSensors》的論文發(fā)表于計(jì)算機(jī)視覺領(lǐng)域的頂級會議CVPR2019
    的頭像 發(fā)表于 02-27 16:22 ?834次閱讀
    從<b class='flag-5'>CVPR</b> <b class='flag-5'>2019</b>看事件相機(jī)步態(tài)識別:技術(shù)突破與產(chǎn)品應(yīng)用

    布爾表達(dá)式及范圍檢查

    p.y < r->ymax); } 這里有一種更快的方法:x>min xxmin) < r->xmax (unsigned) (p.y - r->ymin) < r->ymax); }
    發(fā)表于 12-12 07:08

    RK3576輕松搭建RTMP視頻,基于FFmpeg+Nginx協(xié)同

    瑞芯微RK3576芯片平臺實(shí)現(xiàn)多路RTMP視頻,基于觸覺智能RK3576開發(fā)板PurplePiOH2演示。RTMP視頻RTMP視頻
    的頭像 發(fā)表于 12-11 17:17 ?1015次閱讀
    RK3576輕松搭建RTMP<b class='flag-5'>視頻</b>推<b class='flag-5'>流</b>,基于FFmpeg+Nginx協(xié)同

    指令集測試的一種糾錯方法

    本文描述在進(jìn)行指令集測試的一種糾錯方法 1.打開測試指令集對應(yīng)的dump文件 dump文件是指由匯編文件進(jìn)行反匯編之后,可以供人閱讀指令的反匯編文件。其包含了每條指令的具體操作的信息。指令集測試
    發(fā)表于 10-24 14:04

    一種新的無刷直流電機(jī)反電動勢檢測方法

    無位置傳感器無刷直流電機(jī)的控制算法是近年來研究的熱點(diǎn)之,有霍爾位置信號直流電機(jī)根據(jù)霍爾狀態(tài)來確定通斷功率器件。利用無刷直流電機(jī)的數(shù)學(xué)模型,根據(jù)反電動勢檢測原理,提出了一種新的線反電動勢檢測方法
    發(fā)表于 08-07 14:29

    一種新的無刷直流電機(jī)反電動勢檢測方法

    無位置傳感器無刷直流電機(jī)的控制算法是近年來研究的熱點(diǎn)之,有霍爾位置信號直流電機(jī)根據(jù)霍爾狀態(tài)來確定通斷功率器件。利用無刷直流電機(jī)的數(shù)學(xué)模型,根據(jù)反電動勢檢測原理,提出了一種新的線反電動勢檢測方法
    發(fā)表于 08-04 14:59

    一種基于PWM的電壓輸出DAC電路設(shè)計(jì)

    誤差的方法,論文給出了兩從PWM到0~5V電壓輸出的電路實(shí)現(xiàn)方法,第2電路具有很高的轉(zhuǎn)換精度。 純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料~~~ 內(nèi)容有幫助可以關(guān)注、點(diǎn)贊、評論支
    發(fā)表于 08-04 14:58

    一種帶通濾波器在無位置傳感器轉(zhuǎn)子檢測中的應(yīng)用

    摘 要:論文研究了一種直流無刷電機(jī)的無位置傳感器的轉(zhuǎn)子位置的硬件電路檢測方法。結(jié)合傳統(tǒng)“反電動勢\"方法,分析并設(shè)計(jì)了一種新的帶通濾波器延時檢測電路。該電路不僅可以抑制高頻分量和消除直
    發(fā)表于 08-04 14:56

    如何保存al視頻中的幀照片?

    如何保存al視頻中的幀照片
    發(fā)表于 07-11 08:07

    傳音多媒體團(tuán)隊(duì)攬獲CVPR NTIRE 2025兩項(xiàng)挑戰(zhàn)賽冠亞軍

    Efficient Super-Resolution Challenge)第名,短視頻UGC圖像超分辨率挑戰(zhàn)賽(NTIRE 2025 Short-form UGC Image Super-Resolution
    的頭像 發(fā)表于 06-24 16:08 ?1656次閱讀
    傳音多媒體團(tuán)隊(duì)攬獲<b class='flag-5'>CVPR</b> NTIRE 2025兩項(xiàng)挑戰(zhàn)賽冠亞軍

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識。
    的頭像 發(fā)表于 05-16 14:48 ?1496次閱讀
    使用MATLAB進(jìn)行無<b class='flag-5'>監(jiān)督</b>學(xué)習(xí)

    FCX3上的視頻亂碼怎么解決?

    我們在使用 CX3 和 1.3.5 EzUSB SDK 運(yùn)行視頻傳感器時遇到了些間歇性問題。 打開視頻任意時間后,視頻
    發(fā)表于 05-16 07:32

    一種實(shí)時多線程VSLAM框架vS-Graphs介紹

    針對現(xiàn)有VSLAM系統(tǒng)語義表達(dá)不足、地圖可解釋性差的問題,本文提出vS-Graphs,一種實(shí)時多線程VSLAM框架。該方案顯著提升了重建地圖的語義豐富度、可解釋性及定位精度。實(shí)驗(yàn)表明
    的頭像 發(fā)表于 04-19 14:07 ?1057次閱讀
    <b class='flag-5'>一種</b>實(shí)時多線程VSLAM框架vS-Graphs介紹

    一種永磁電機(jī)用轉(zhuǎn)子組件制作方法

    一種永磁電機(jī)所使用的轉(zhuǎn)子組件,是由磁鋼與芯軸組裝而成,產(chǎn)品工作轉(zhuǎn)速80 000 r /mi n,磁鋼相對于芯軸的同軸度要小于O.015 mm?,F(xiàn)有的裝配方法是:先在芯軸兩端面制作中心孔,然后直接
    發(fā)表于 03-25 15:20