91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

浙大攜手微軟聯(lián)合提出實時視頻增強|RT-VENet

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-12-08 22:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

首發(fā):AIWalker

標題&作者團隊

paper: http://www.cad.zju.edu.cn/hom...

該文是浙江大學&微軟提出的一種實時視頻增強方案(ACM Multimedia 2020),它不僅可以達到SOTA的視頻增強效果,同時對于1080P的視頻可以達到驚人的77fps@Tesla P40GPU或者45fps@CPU端。

Abstract

實時視頻增強具有巨大的潛在應(yīng)用場景,但是現(xiàn)有的方案遠遠不足以滿足視頻增強的實時性與穩(wěn)定性需求。

該文提出一種新穎的AI視頻增強方法,它能夠單CPU以45fps處理1080P視頻,極具產(chǎn)品化應(yīng)用價值。所提方法基于輕量型MobileNetV2設(shè)計,并在此基礎(chǔ)上引入了時序特征集(Temporal Feature Aggregation, TFA)成模塊以確保視頻的時序一致性。不同于已有多數(shù)圖像增強方法采用encoder-decoder架構(gòu)生成通分辨率的輸出,該文所提方法消除了decoder模塊,而僅僅采用了encoder部分與一個小的head模塊。所提方法直接預(yù)測顏色映射函數(shù),而非像素值,這就使得所提方法可以更好的處理任意分辨率的視頻。除此之外,該文還引入了TFA以確保生成視頻的時序一致性

最后,作者通過實驗證實:所提方法可以適用于不同類型的增強任務(wù),比如relighting, retouching 以及dehazing等。相比已有方法(比如HDRNet、UPE),所提方法不僅可以取得SOTA性能,同時處理速度快10倍(HD視頻哦)。


image-20201121193610283

該文的主要貢獻包含以下三點:

  • 提出一種新穎的實時圖像/視頻增強方法,所提方法比現(xiàn)有實時方法(HDRNet,UPE)快10倍(處理的對象是1080P視頻哦);
  • 提出一種廣義的圖像增強表達方式,它可以有效的集成全局上下文信息與局部信息進行像素映射。實驗證實:所提方法可以處理欠曝光、過曝光、retouching、dehazing等場景圖像;
  • 提出一種TFA用于確保視頻的時序一致性,甚至可以進一步改善訓(xùn)練的穩(wěn)定性。

Method

該文提出了一種end-to-end輕量CNN用于實時視頻增強,接下來,我們將從問題定義、視頻增強網(wǎng)絡(luò)、損失函數(shù)三個方面展開本文所提方法的介紹。

Problem Formulation

現(xiàn)有稠密像素預(yù)測任務(wù)大多采用encoder-decoder方案,而decoder部分的高計算量問題是難以忽視的。估計顏色映射函數(shù)是一種極具吸引力的方向,然而它有這樣兩個挑戰(zhàn):(1) 單一映射函數(shù)難以反映復(fù)雜的局部圖像處理計算問題;(2) 現(xiàn)有的顏色映射函數(shù)往往基于用戶評價或參考圖像,而無參考自動校正則會“模棱兩可”。

受啟發(fā)于“Bilateral Guided Upsampling”與“Fast Guided Filter”(兩種非常經(jīng)典的傳統(tǒng)圖像處理方法),該文構(gòu)建了一種網(wǎng)格狀態(tài)的映射函數(shù),它不僅可以獲得局部區(qū)域的更細粒度的細節(jié),同時可以更好的切合encoder部分的CNN結(jié)構(gòu)。輸入圖像I經(jīng)過CNN處理后,可以得到一個大小為的特征。網(wǎng)格中每個特征點信息與網(wǎng)格中的映射函數(shù)參數(shù)相關(guān),并用于預(yù)測映射函數(shù),并反過來作用于局部區(qū)域。下圖給出了該過程的示意圖,也就是說圖像將被進行分塊處理,每個塊采用不同的映射函數(shù)。

image-20201121195843151

映射函數(shù)在這里定義為分片線性函數(shù),定義如下:

其中,L表示映射函數(shù)的分片數(shù)量,表示每個線性函數(shù)的斜率。因此,網(wǎng)絡(luò)的目標在于預(yù)測映射函數(shù)的系數(shù)。

看到這里,也許會有不少同學不知道這里的系數(shù)與映射函數(shù)該怎么去應(yīng)用。其實這個地方?jīng)]想象的那么復(fù)雜。先來個最簡單的情形:,即恒等映射,也就是圖像不做任何操作,此時有。如果我們希望調(diào)整圖像的亮區(qū)呢,其實就需要將亮區(qū)對應(yīng)的斜率調(diào)大,而其他區(qū)域?qū)?yīng)的斜率調(diào)小;類似的,如果我們希望調(diào)整圖像的暗區(qū),就需要調(diào)整其對應(yīng)的斜率。也就是說,通過每一段線性函數(shù)的斜率,它可以輕松的構(gòu)建不同形狀的映射函數(shù),而這個映射函數(shù)則對應(yīng)于傳統(tǒng)圖像處理中的累積直方圖

對此該興趣的同學,非常建議去了解一下直方圖均衡相關(guān)的一些基礎(chǔ)知識,可以參考剛薩雷斯的《圖像處理》第三章的直方圖均衡。其實這個地方的映射函數(shù)理解還可以參考PhotoShop中的直方圖類增強方案,通過調(diào)節(jié)直方圖的形狀達到不同的編輯目的,Photoshop中的直方圖調(diào)整方法其實與這里的調(diào)整機制是相通的。

Video Enhancement Network

image-20201121195529411

上圖給出了該文所提出的視頻增強網(wǎng)絡(luò)架構(gòu)示意圖,它包含一個輕量型基礎(chǔ)網(wǎng)路與一個時序特征集成模塊。

Baseline Image Network 上圖的下半部分給出了基礎(chǔ)網(wǎng)絡(luò)部分,注:下角標t表示視頻的時序標簽。輸入圖像I首先下采樣到低分辨率,然后送入到基礎(chǔ)網(wǎng)絡(luò)中回歸映射系數(shù)集。這里的基礎(chǔ)網(wǎng)絡(luò)是在MobileNetV2的基礎(chǔ)上改進而來,它用于將圖像映射到高維空間并得到隱狀態(tài)特征。在上述網(wǎng)絡(luò)的后端接一個head,它包含三個卷積用于將隱狀態(tài)特征變換為顏色映射系數(shù)。最終輸出的形狀為。最后,目標圖像則是由輸入圖像經(jīng)由映射函數(shù)變換得到。

Temporal feature aggregation 視頻增強網(wǎng)絡(luò)是在上述圖像增強網(wǎng)絡(luò)的基礎(chǔ)上插入TFA得到,TFA用于促使時序一致性。為緩解閃爍偽影問題,作者認為:靜態(tài)區(qū)域應(yīng)當有相鄰兩幀賦予相似的注意力,運動區(qū)域則主要由當前幀決定,而區(qū)域的運動/靜態(tài)特性則由相鄰幀的相關(guān)性決定。基于該假設(shè),作者設(shè)計了如下的特征集成方式:

其中,分別表示融合特征,前一幀的影響因子,以及像素級特征相似性。特征的相似性計算方式則是采用的cosine相似性(上圖也給出了相鄰幀的相似性圖示),公式如下:

$$M/_g = cos/= //frac{f/_{t-1} //cdot f/_t}{//|f/_{t-1} //| //cdot //|f/_t //|} $$

Loss Function

給定預(yù)測的映射系數(shù)與高分辨率圖像,我們可以通過相應(yīng)的變換得到目標圖像(假設(shè)表示GT)。為更好的訓(xùn)練上述模型,作者提出了一個同時考慮圖像距離關(guān)系和映射函數(shù)約束的損失函數(shù),定義如下:

損失函數(shù)的四部分分別對應(yīng)重建損失(損失)、感知損失、平滑損失以及時序一致性損失。更具體的函數(shù)定義建議查看原文,這里不再贅述。

Experiments

在實現(xiàn)方面,輸入圖像首先被下采樣到大小,映射函數(shù)的分片數(shù),對應(yīng)的輸出通道數(shù)為48。正如前述,骨干網(wǎng)絡(luò)包含5個階段,前四個階段與MobileNetV2相同,最后一個階段包含三個卷積,其參數(shù)為:。head部分由三個卷積構(gòu)成,其輸出通道數(shù)分別為。最終的輸出經(jīng)tanh激活,其對應(yīng)了映射系數(shù)的對數(shù)值。假設(shè)表示每個通道的輸出,那么映射函數(shù)可以表示為 其中用于控制映射函數(shù)的范圍。基于上述表達,曲線的范圍將被限制在.

在超參方面,。作者選用Adam+L2正則進行訓(xùn)練,batch=32,學習率為0.005,經(jīng)40k迭代后衰減到0.001.

我們先來看一下所提方法在圖像增強方面的效果,見下圖&下表。從中可以看到:(1) 相比HDRNet,所提方法具有更快的推理速度,更高的PSNR、SSIM等指標;(2) 相比HDRNet、UPE等方法,所提方法生成結(jié)果具有更好的對比度和顏色分布。

接下來,我們再來看一下所提方法在視頻增強方面的效果,見下圖&下表。可以看到:所提方法具有更高的PSNR指標;更快的推理速度;更好的時序一致性。

image-20201122132832313

image-20201122132857742

最后,我們再來看一下所提方法在去霧任務(wù)上的表現(xiàn),見下圖。從中可以看到:所提方法在圖像去霧任務(wù)上同樣取得了SOTA指標與視覺效果。

image-20201122133254136

Conclusion

該文從AI+直方圖的角度提出了一種實時圖像/視頻增強方法,它采用encoder網(wǎng)絡(luò)預(yù)測映射函數(shù)系數(shù),然后將得到的映射函數(shù)作用于輸入圖像得到期望的輸出圖像。這種處理方式將輸入分辨率與方法進行了解耦,進而使得Image-to-Image類方法的的產(chǎn)品化應(yīng)用提供了一個非常有參考價值的方向。盡管所提方法在圖像/視頻增強方面取得了非常好的效果和推理速度,但該方法對于低光/帶噪圖像的效果并不太好,甚至會進一步造成噪聲放大,當然,這也是直方圖增強類方案的缺陷所在。

image-20201122134143102

推薦閱讀

本文章著作權(quán)歸作者所有,任何形式的轉(zhuǎn)載都請注明出處。更多動態(tài)濾波,圖像質(zhì)量,超分辨相關(guān)請關(guān)注我的專欄深度學習從入門到精通。

審核編輯:符乾江
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 視頻
    +關(guān)注

    關(guān)注

    6

    文章

    2006

    瀏覽量

    75017
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40260

    瀏覽量

    301867
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5600

    瀏覽量

    124482
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    新思科技攜手微軟、英偉達發(fā)布可實時優(yōu)化動態(tài)制造流程框架

    新思科技(納斯達克代碼:SNPS)近日攜手技術(shù)合作伙伴在微軟 Ignite 大會上發(fā)布了一套仿真技術(shù)驅(qū)動的可實時優(yōu)化動態(tài)制造流程框架。該框架已經(jīng)被全球領(lǐng)先的灌裝包裝系統(tǒng)集成商 Krones 率先采用,構(gòu)建了物理精確的虛擬裝配線,
    的頭像 發(fā)表于 11-30 09:53 ?570次閱讀

    RK3588核心板/開發(fā)板RT-Linux系統(tǒng)實時性及硬件中斷延遲測試

    本文介紹瑞芯微RK3588芯片平臺RT-Linux系統(tǒng)實時性及硬件中斷延遲測試,基于觸覺智能RK3588核心板/開發(fā)板演示。Linux-RT實時性測試測試環(huán)境說明本次測試是使用Cycl
    的頭像 發(fā)表于 11-28 18:57 ?754次閱讀
    RK3588核心板/開發(fā)板<b class='flag-5'>RT</b>-Linux系統(tǒng)<b class='flag-5'>實時</b>性及硬件中斷延遲測試

    兆芯攜手合作伙伴打造高效智能視頻管理解決方案

    視頻數(shù)據(jù)呈爆炸式增長的當下,兆芯攜手凌川科技及深圳可數(shù)智能公司,聯(lián)合打造了一套高效智能的視頻管理解決方案。依托異構(gòu)架構(gòu)與垂直領(lǐng)域軟件的深度融合,該方案在性能表現(xiàn)、成本控制及安全自主三
    的頭像 發(fā)表于 11-18 14:58 ?686次閱讀

    請問RT-Thread與stm32cubemx聯(lián)合開發(fā)的原理是什么?

    在使用RT-Thread與stm32cubemx聯(lián)合開發(fā)的原理是什么,cubemx在其中主要起到了哪些功能呢?
    發(fā)表于 10-11 15:49

    RK3576核心板/開發(fā)板RT-Linux系統(tǒng)實時性及硬件中斷延遲測試

    本文介紹瑞芯微RK3576芯片平臺RT-Linux系統(tǒng)實時性及硬件中斷延遲測試,基于觸覺智能RK3576開發(fā)板PurplePiOH2演示。Linux-RT實時性測試測試環(huán)境說明本次測試
    的頭像 發(fā)表于 09-30 16:52 ?2039次閱讀
    RK3576核心板/開發(fā)板<b class='flag-5'>RT</b>-Linux系統(tǒng)<b class='flag-5'>實時</b>性及硬件中斷延遲測試

    瑞芯微RK35XX系列Linux實時性詳細測試對比( PREEMPT_RT和Xenomai )

    工業(yè)控制、工業(yè)網(wǎng)關(guān)、軌道交通、能源電力等場景,都需要一個運行穩(wěn)定、可靠的“實時操作系統(tǒng)”。RT-Linux作為一款開源實時性操作系統(tǒng),擁有實時性內(nèi)核、開源、免費、功能完善等特性,完美滿
    的頭像 發(fā)表于 09-30 16:37 ?2004次閱讀
    瑞芯微RK35XX系列Linux<b class='flag-5'>實時</b>性詳細測試對比( PREEMPT_<b class='flag-5'>RT</b>和Xenomai )

    rt-studio支持仿真的時候變量實時刷新嗎?

    rt-studio支持仿真的時候變量實時刷新么?像keil那樣。目前看到的好像不能實時刷新變量,只有下斷點了變量才會刷新出來。
    發(fā)表于 09-28 09:44

    請問rt_kprintf會影響RT-Threat系統(tǒng)的實時性嗎?

    有人說頻繁調(diào)用rt_kprintf可能阻塞實時任務(wù),影響系統(tǒng)響應(yīng),是這樣嗎?
    發(fā)表于 09-23 07:06

    日本航空攜手微軟率先將AI應(yīng)用引入客艙管理

    日本航空(JAL)攜手微軟,率先將AI應(yīng)用引I入客艙管理。通過基于微軟Phi-4小型語言模型(SLM)開發(fā)的JAL-AI報告系統(tǒng),空乘人員報告航班事件的效率提升高達2/3,即使離線也能流暢運行。不僅
    的頭像 發(fā)表于 07-18 11:12 ?1461次閱讀

    RT-Thread攜手玄鐵,全面展示 RISC-V 生態(tài)最新成果,期待蒞臨!

    2025年7月16日-19日,第五屆RISC-V中國峰會將在上海張江科學會堂舉行。作為全球領(lǐng)先的開源實時操作系統(tǒng)(RTOS)提供商,RT-Thread將攜手玄鐵,在大會現(xiàn)場打造專屬展位,帶來精彩演講
    的頭像 發(fā)表于 07-15 11:13 ?1061次閱讀
    <b class='flag-5'>RT</b>-Thread<b class='flag-5'>攜手</b>玄鐵,全面展示 RISC-V 生態(tài)最新成果,期待蒞臨!

    新思科技攜手微軟借助AI技術(shù)加速芯片設(shè)計

    近日,微軟Build大會在西雅圖盛大開幕,聚焦AI在加速各行業(yè)(包括芯片設(shè)計行業(yè))科學突破方面的變革潛力。作為Microsoft Discovery平臺發(fā)布的啟動合作伙伴,新思科技亮相本次大會,并攜手微軟將AI融入芯片設(shè)計,開發(fā)
    的頭像 發(fā)表于 06-27 10:23 ?1138次閱讀

    RT-Thread睿賽德開源無人機領(lǐng)域硬核飛控上線!| 產(chǎn)品動態(tài)

    SIEON-S1飛控視頻介紹隨著無人機、無人車、無人船和機器人等行業(yè)的快速發(fā)展,智能設(shè)備對操作系統(tǒng)高性能、可靠性和靈活性的需求日益增長。RT-Thread睿賽德攜手釋云科技,打造了一款專業(yè)級、高性能
    的頭像 發(fā)表于 05-28 20:33 ?1349次閱讀
    <b class='flag-5'>RT</b>-Thread睿賽德開源無人機領(lǐng)域硬核飛控上線!| 產(chǎn)品動態(tài)

    Arm攜手微軟共筑云計算和PC未來

    Arm 和微軟攜手共筑未來,從而使創(chuàng)新不受設(shè)備功耗或不同部署環(huán)境的限制。在上周舉行的微軟 Build 大會上,Arm 的愿景實現(xiàn)再次得到體現(xiàn) —— 致力于確保微軟的整個軟件生態(tài)系統(tǒng)都
    的頭像 發(fā)表于 05-28 14:08 ?987次閱讀

    2025 RT-Thread全球技術(shù)大會議程正式發(fā)布!

    。2024RT-Thread全球技術(shù)大會,由開源操作系統(tǒng)RT-Thread發(fā)起,并聯(lián)合國內(nèi)外領(lǐng)先企業(yè)的重磅嘉賓,攜手國內(nèi)外頂尖企業(yè)專家與超3萬名線上參與者,共議邊緣計算、嵌入式
    的頭像 發(fā)表于 05-27 19:28 ?1426次閱讀
    2025 <b class='flag-5'>RT</b>-Thread全球技術(shù)大會議程正式發(fā)布!

    【直播預(yù)告】《實時操作系統(tǒng)應(yīng)用技術(shù)—基于RT-Thread與ARM的編程實踐》教學脈絡(luò)及資源簡介

    直播預(yù)告直播主題:《實時操作系統(tǒng)應(yīng)用技術(shù)—基于RT-Thread與ARM的編程實踐》教學脈絡(luò)及資源簡介開放時間:2025年5月29日(周四)20:00主講老師:王宜懷課程類型:視頻直播觀看平臺
    的頭像 發(fā)表于 05-26 17:50 ?1308次閱讀
    【直播預(yù)告】《<b class='flag-5'>實時</b>操作系統(tǒng)應(yīng)用技術(shù)—基于<b class='flag-5'>RT</b>-Thread與ARM的編程實踐》教學脈絡(luò)及資源簡介