91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI驅(qū)動的超分辨技術(shù)應用現(xiàn)狀

LiveVideoStack ? 來源:LiveVideoStack ? 作者:LiveVideoStack ? 2020-11-25 15:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

基于AI的超分辨技術(shù)在圖像恢復和圖像增強等領(lǐng)域的應用前景,受到了學術(shù)界的關(guān)注,但在RTC領(lǐng)域中很多算法并不能滿足實際場景下的應用需求。本次分享我們邀請到了網(wǎng)易云信音視頻算法工程師袁振老師探討超分辨技術(shù)在RTC領(lǐng)域大規(guī)模落地應用所面臨的機遇與挑戰(zhàn)。

文 /袁振 整理 /LiveVideoStack 大家好,我是袁振,現(xiàn)在就職于網(wǎng)易云信,主要負責視頻后處理算法的開發(fā)和研究。今天我將和大家分享AI驅(qū)動的超分辨技術(shù)應用現(xiàn)狀,主要是結(jié)合我之前的研究方向,以及當前的業(yè)務需求,來向大家分享一下基于深度學習的超分技術(shù)在RTC領(lǐng)域落地應用所面臨的一些機遇和挑戰(zhàn)。 我的分享主要包括以下四部分內(nèi)容。

1. 圖像超分辨技術(shù)的簡要概述

1.1 超分辨技術(shù)的提出

有的同學可能會問,什么是超分辨?比較直觀的理解,超分辨就是將一張低分辨率圖像,通過某種算法、模型生成一張高分辨圖像的過程,并且在這個過程中盡可能地恢復出更多的細節(jié)信息。比較通俗的理解,超分辨就是從小圖生成大圖的計算機視覺任務。 超分辨這一概念最早是在20世紀60年代由Harris和Goodman提出的,一開始也被稱為頻譜外推法。但是在研究初期,頻譜外推法只是在一些比較理想的條件下,進行的一些仿真,所以一開始并沒有得到廣泛的認可。直到后來,單張圖像超分辨方法提出之后,超分辨重建技術(shù)才開始得到廣泛的研究和應用。目前,它已經(jīng)成為圖像增強、乃至整個計算機視覺領(lǐng)域重要的研究方向。 1.2 超分辨技術(shù)的分類

根據(jù)超分辨對象,超分辨技術(shù)可以分成單張圖像的超分辨以及多張圖像的超分辨兩種類型。其中,單張圖像的超分辨方法只根據(jù)低分辨率圖像自身的信息就可以完成到高分辨圖像的重建,是目前學術(shù)界研究的重點。單張圖像的超分辨方法根據(jù)原理的不同,也可以分為基于插值、重構(gòu)、學習的方法。 其中基于插值的方法是最簡單、也是應用最為廣泛的方法,像我們平時應用最多的用于圖像縮放的算法,基本上都是基于插值的方法。它的優(yōu)點是算法比較簡單,實時性比較好,所以目前應用最廣泛,但缺點是,在插值的時候沒有充分利用圖像的像素信息,效果比較平滑,不能恢復出更多細節(jié)信息。

它的主要思想是選擇合適的插值窗口和插值函數(shù)來對低分辨率圖像中一定范圍內(nèi)的像素信息進行加權(quán)計算,來得到一個新的像素值,插入到圖像中,從而實現(xiàn)圖像的放大。根據(jù)插值窗口和插值函數(shù)不同,基于插值的方法也有很多類型:像最簡單的最近鄰插值方法,它是直接將待插值像素點最近的像素值,賦值給新的像素值,它的插值窗口大小是1×1;其他的插值方法比如雙線性和雙三次插值,使用了更大的插值窗口以及一些更高階的插值函數(shù),超分辨的效果也更好??傮w來說,插值窗口越大,基于插值的超分辨方法的效果也會越好。 基于重構(gòu)的方法,它主要是利用了圖像的降質(zhì)退化模型,假定圖像是經(jīng)過了一定的退化過程,才得到了低分辨率的圖像,然后根據(jù)這一信息,完成高分辨圖像的逆向重建。

這種方法在一些特定的領(lǐng)域具有比較好的效果,但是由于在實際的場景中,圖像退化的因素多種多樣,假設的先驗信息并不準確,因此重構(gòu)的方法在實際應用中,并不是很廣泛。 然后就是基于學習的方法,也是目前效果最好也是學術(shù)界研究最多的一種方法。它的核心包括兩個部分:一個是算法模型的建立,另一個就是訓練集的選取。根據(jù)算法模型和訓練集,基于學習的方法也可以分為傳統(tǒng)學習方法和深度學習方法。一般來說,傳統(tǒng)學習方法的算法模型比較簡單,訓練集也往往比較小。深度學習方法一般是指采用大量數(shù)據(jù)訓練的卷積神經(jīng)網(wǎng)絡的方法,也是目前效果最好的超分辨方法。因此接下來我將重點介紹基于深度學習的超分辨方法的發(fā)展過程。 1.3 DL-based SR

首先SRCNN是深度學習方法在超分辨問題的首次嘗試,它是一個比較簡單的卷積網(wǎng)絡,由3個卷積層構(gòu)成,每個卷積層所負責的職能也各不相同,其中第一個卷積層的作用主要是負責提取出抽象的高頻信息,第二個卷積層則負責完成從低清特征到高清特征的非線性映射,最后一個卷積層的作用是重建出高分辨率的圖像。SRCNN的網(wǎng)絡結(jié)構(gòu)比較簡單,超分辨效果也有待改善,不過它確立了深度學習方法在處理超分辨這類問題時的三個基本過程。

后來的一些深度學習方法不管網(wǎng)絡有多復雜,卷積層有多深,基本也是遵循著這一思想去進行超分辨的重建。后來的 ESPCN、FSRCNN也都基于SRCNN進行了一些改進,總的來說它們的網(wǎng)絡層數(shù)仍然比較淺,卷積層數(shù)一般不會超過10,超分辨的效果也不是特別理想。因為在當時,深度卷積網(wǎng)絡的訓練是存在一些問題的。一般對于卷積神經(jīng)網(wǎng)絡來說,當網(wǎng)絡層數(shù)增加的時候,它的性能也會增加,但在實際應用中,人們發(fā)現(xiàn)當網(wǎng)絡層數(shù)增加到了一定程度的時候,由于反向傳播的原理,就會出現(xiàn)梯度消失的問題,導致網(wǎng)絡的收斂性變差,使得模型性能降低。這個問題直到ResNet提出了殘差網(wǎng)絡結(jié)構(gòu)之后,才得到了比較好的解決。

VDSR網(wǎng)絡是殘差網(wǎng)絡以及殘差學習思想在超分辨問題上的首次應用,將超分辨網(wǎng)絡的層數(shù)首次增加到了20層,它的優(yōu)點是可以利用殘差學習的方式,直接學習殘差特征,這樣的話網(wǎng)絡的收斂會比較快,超分辨效果也更好。后來的一些卷積神經(jīng)網(wǎng)絡也提出了更復雜的結(jié)構(gòu), 比如SRGAN提出使用生成式對抗網(wǎng)絡來生成高分辨的圖像,SRGAN由2部分組成,一個是生成網(wǎng)絡,另一個是判別網(wǎng)絡。生成網(wǎng)絡的作用是根據(jù)一張低分辨率的圖像來生成一張高分辨的圖像,而判別網(wǎng)絡的作用是將生成網(wǎng)絡生成的高分辨圖像盡量判定為假,這樣網(wǎng)絡在訓練的時候,生成網(wǎng)絡和判定網(wǎng)絡兩者之間不斷博弈,最終達到平衡,從而可以生成細節(jié)紋理比較逼真的高分辨圖像,具有更好的主觀視覺效果。其他的深度卷積網(wǎng)絡方法比如SRDenseNet、EDSR、RDN,它們使用了一些更復雜的網(wǎng)絡結(jié)構(gòu),網(wǎng)絡的卷積層也越來越深,在單張圖像上的超分辨效果也是越來越好。

以上是我對超分辨技術(shù)發(fā)展的總體趨勢的簡單總結(jié),基本上可以概括為從傳統(tǒng)方法,到深度學習方法,從簡單的卷積網(wǎng)絡方法到深度殘差網(wǎng)絡方法。在這個過程中,超分辨模型結(jié)構(gòu)越來越復雜,網(wǎng)絡層次越來越深,單張圖像的超分辨效果也越來越好,不過這也會有一定的問題,在后面我會具體介紹到。

2. 超分辨技術(shù)應用現(xiàn)狀

根據(jù)我的調(diào)研,目前在業(yè)界已經(jīng)落地的超分辨項目,應用場景可以概括為視頻和圖像兩個領(lǐng)域,具體包括低質(zhì)視頻的修復,比如一些老舊電影、電視劇或者質(zhì)量比較差的視頻,這在一些視頻網(wǎng)站上比較常用;還有電視和直播分辨率的提升,比如一些網(wǎng)絡TV或者直播平臺;此外在移動端,主要應用于圖像畫質(zhì)的優(yōu)化,比如手機相機分辨率的提升。下面我會介紹幾個具體的例子分別介紹這三類應用場景。 2.1 愛奇藝ZoomAI

第一個是愛奇藝推出的ZoomAI,它是一個比較成熟的深度學習工具包,主要針對目前網(wǎng)絡視頻所存在的一些低質(zhì)退化問題,是各種視頻處理和增強方法的集合,它主要應用的場景包括用戶在上傳網(wǎng)絡視頻的時候,由于拍攝手段不專業(yè)導致的噪點和模糊問題,還有一些老舊電影、電視劇由于在拍攝時分辨率比較低,以及后來數(shù)字化過程中引入的噪點和劃痕問題,導致網(wǎng)絡視頻畫質(zhì)低下。ZoomAI針對這些低質(zhì)視頻存在的問題,提出了一系列不同的視頻處理算法,像超分辨、去噪、銳化等等。這些算法模塊都是由一個或若干個深度學習模型組成,并且相互獨立,可以根據(jù)用戶的不同需要,實現(xiàn)不同場景視頻的增強和修復。

我們比較關(guān)注其中的超分模塊,ZoomAI的超分模塊提出了兩種策略。學術(shù)界在探究超分辨問題時,一般經(jīng)典的做法是采用均方誤差作為損失函數(shù)去約束整個網(wǎng)絡的訓練,均方誤差是一種L2型的損失函數(shù),好處是可以重建得到具有更大峰值信噪比的超分辨圖像,不過峰值信噪比并不能代表人眼的主觀感受。當使用L2損失作為損失函數(shù)時,需要對異常值進行平方處理,所以當異常值比較大的時候,損失也會比較大。這樣導致對噪聲特別敏感,在宏觀上,表現(xiàn)為生成圖像會出現(xiàn)模糊預測的問題。

ZoomAI針對學術(shù)界這種常用的訓練模式所存在的問題,提出了兩種策略上的改進,首先它在訓練集中加入了一些模糊操作。這樣網(wǎng)絡在訓練時,數(shù)據(jù)和標簽之間,不僅有從低分辨特征到高分辨特征的映射關(guān)系,也存在從模糊到清晰的映射關(guān)系,生成的圖像會具有更好的細節(jié)。針對MSE損失函數(shù)所存在的模糊預測問題,ZoomAI則是引入了另外一種損失函數(shù),來改善之前均方誤差所產(chǎn)生的模糊預測問題。

右邊這張圖像是傳統(tǒng)的插值方法和ZoomAI中基于深度學習的超分辨方法的對比,可以看到雙三次插值后的圖像細節(jié)是比較差的,發(fā)絲的紋理和細節(jié)基本上是看不太清?;谏疃葘W習的方法,生成的圖像具有更豐富的細節(jié)和邊緣。不過ZoomAI也存在一些局限,因為它是由若干個模塊組成的,每個模塊都包含了一個或者若干個深度學習模型,導致它的計算量比較大,只是在自己服務端進行視頻處理,沒有辦法在接收端做到視頻的實時處理。另外,由于計算量的限制,在手機端也沒有用到深度學習的方法。 2.2 虎牙直播AI超分

下面是一個直播超分辨的例子,上圖是去年的一篇報道,虎牙的技術(shù)團隊利用他們基于深度學習的超分技術(shù)實現(xiàn)了S9賽事視頻從1080P到4K的兩倍超分,并且可以達到60幀,畫面延時僅僅增加了100毫秒。 我當時看到這個新聞時是比較震驚的,對于從1080P到4K的兩倍超分,計算量是特別大的,而且關(guān)鍵是還要達到60幀,延遲的增加也在可接受范圍之內(nèi)。后來仔細看完文章之后,發(fā)現(xiàn)他們的超分也是在自己的服務端進行的,先是在服務端的GPU轉(zhuǎn)碼集群內(nèi)做了超分處理,然后再通過虎牙比較強大的分發(fā)平臺去分發(fā)給用戶。這樣其實與我們目前的業(yè)務場景是相悖的,因為RTC領(lǐng)域更多是希望窄帶高清的應用場景,在不犧牲用戶畫質(zhì)的前提下,盡可能減少網(wǎng)絡帶寬。這種方法由于是在分發(fā)之前做了超分,所以傳輸?shù)囊曨l比較大,所需要占用的帶寬也比較大,沒有辦法在接收端實時實現(xiàn)。 2.3 移動端畫質(zhì)增強

這兩個是應用在移動設備上圖像超分的落地項目,其中一個是vivo和商湯合作的,基于深度學習的手機相機分辨率增強的項目;另一個是谷歌和騰訊在他們各自社交平臺上所推出的圖像省流的項目,據(jù)說可以在不犧牲圖像質(zhì)量的前提下,來盡量減少用戶流量,可以降低高達75%的帶寬。

3. 視頻任務的需求與SR的挑戰(zhàn)

上面三個例子是幾個比較有代表性的已經(jīng)落地的比較成熟的超分辨項目,總體來說,這些項目依然沒有辦法在客戶端尤其是移動端做到實時處理。接下來我將介紹一下,RTC領(lǐng)域?qū)τ谝曨l任務提出的一些需求,以及目前基于深度學習的超分辨方法在這種情況下所面臨的挑戰(zhàn)。

在RTC領(lǐng)域中,對于視頻處理任務來說,由于我們所面對的大多數(shù)場景都是像直播和會議這種即時通信場景,對算法的實時性要求是特別高的,所以視頻處理算法的實時性是優(yōu)先考慮的,然后是算法的實用性。這里怎么理解呢?用戶在使用直播或會議時,攝像頭所采集到的視頻質(zhì)量一般都不是比較高的,可能包含了很多噪點;另外視頻在編碼傳輸?shù)倪^程中會先進行壓縮,在壓縮的過程中也會導致圖像畫質(zhì)的退化,所以RTC領(lǐng)域的實際應用場景比較復雜,而很多視頻處理方法,比如超分辨算法在研究的是比較理想的場景。所以我們需要考慮如何提高這些方法在實際場景中的實用性。另外,如何去提升用戶尤其是移動端用戶的體驗,減少算法的計算資源占用,適用更多的終端和設備,也是視頻任務所必須考慮的。

針對上面這些需求,目前的超分辨方法尤其是基于深度學習的超分辨方法是存在很多問題的。目前學術(shù)界關(guān)于超分辨的研究大多還是局限在理論階段,圖像超分,尤其是視頻超分如果要大規(guī)模落地的話,必須要去面對一些實際問題。 首先是網(wǎng)絡模型的問題,因為目前很多深度學習方法為了追求更好的超分辨效果,所采用的網(wǎng)絡規(guī)模比較大,這些卷積神經(jīng)網(wǎng)絡規(guī)模動不動就幾十、上百層,并且參數(shù)量也越來越多,需要耗費大量的計算資源。

這在很多實際場景中沒有辦法實時處理。 第二點是關(guān)于深度學習模型的泛化能力問題,對于各種深度學習模型來說,都會存在訓練集適配的問題,在訓練的時候所使用的訓練集不同,在不同場景上的表現(xiàn)也不同。用公開數(shù)據(jù)集訓練的模型,在實際的應用場景中是否也會具有同樣良好的表現(xiàn),也是我們需要重點關(guān)注的問題。 第三點是真實場景下超分效果的問題,目前學術(shù)界的一些超分方法,都是針對一些比較理想的問題,比如通常都是針對從下采樣圖像到高分辨圖像的重建。但在真實的場景中,圖像的退化不僅僅包括下采樣因素,可能會有很多其他的因素,比如之前提到的圖像壓縮、噪點、模糊等。怎么樣在這些真實的場景下提高超分的效果,也是目前超分辨方法需要思考的問題。

總的來說,目前基于深度學習的超分辨方法在視頻任務中,所面臨的主要挑戰(zhàn)可以概括為,如何憑借規(guī)模比較小的網(wǎng)絡來實現(xiàn)具有良好真實效果的視頻質(zhì)量增強,也就是說怎么樣“既叫馬兒跑得快,又讓馬兒少吃草”。

4. 視頻超分辨技術(shù)的發(fā)展方向

目前在RTC視頻領(lǐng)域,超分辨基本上可以概括為三個發(fā)展方向。 首先,深度學習方法依然會是超分辨算法的主流,因為傳統(tǒng)的方法在超分辨任務上的效果還是不太理想,細節(jié)會比較差。深度學習方法為超分辨提供了一條新的思路。近年來基于卷積神經(jīng)網(wǎng)絡的超分辨方法,也逐漸成為主流方法,效果也是在不斷改善,雖然還存在一些問題,但相信在不久的將來,這些問題也將會得以解決,深度學習方法依然會是超分辨的主流研究方向。

第二點,一些參數(shù)比較小的輕量級網(wǎng)絡,在推動超分算法落地方面,可能會發(fā)揮出更大的作用。因為目前各種的深度卷積網(wǎng)絡方法,像EDSR、RDN這些過于龐大的深度殘差網(wǎng)絡是難以滿足視頻實時傳輸需要的,一些比較小的輕量級網(wǎng)絡對于實時任務會有更好的效果。 第三點是將來的超分辨方法會更加聚焦在一些真實場景的任務,因為學術(shù)領(lǐng)域的SR方法多是針對下采樣問題進行超分,在真實場景下的表現(xiàn)并不是很好,在真實場景中,圖像退化因素是各種各樣的,一些比較有針對性的方法,比如包含壓縮損失、編碼損失以及各種噪聲的超分辨任務,可能會更加實用。 下面我將對這三點做具體的介紹。 4.1 深度學習方法依然是主流

我總結(jié)了一下,近年來一些頂級CV會議上所發(fā)表的超分辨論文的總結(jié)??梢钥吹浇鼛啄陙?,基于深度學習的超分辨方法相對于傳統(tǒng)方法的論文數(shù)量呈現(xiàn)出一邊倒的局面,并且這種局面在未來幾年還會進一步擴大。因為隨著一些輕量級網(wǎng)絡的出現(xiàn),深度學習方法將來在落地應用方面可能會有更大的突破。 4.2輕量級網(wǎng)絡推動算法落地 下面介紹輕量級網(wǎng)絡在推動超分算法落地時所發(fā)揮的作用。在這之前,先向大家介紹卷積神經(jīng)網(wǎng)絡以及卷積神經(jīng)網(wǎng)絡參數(shù)計算相關(guān)的一些基本概念。

左圖是一個經(jīng)典的3×3的卷積過程, 3×3大小的卷積核會對輸入特征圖上的3×3范圍內(nèi)的像素值進行加權(quán)計算,得到一個新的特征值,最終通過步長為1的逐次掃描得到一張輸出特征圖。在輸入特征圖中,邊界這一圈空白像素代表的是padding為1的填充,目的是保證特征圖的對齊,也就是讓輸出特征圖和輸入特征圖的尺寸保持一致。因為在超分辨的過程中,特征圖的尺寸比較重要,一般不會輕易發(fā)生改變,所以我們需要采用合適的填充,來保證特征圖的對齊。

右邊是沒有加padding的情況,可以看到一個5×5的特征圖經(jīng)過3×3的卷積后,它的尺寸會縮小為3。 右邊是一個比較簡單的卷積層的示意圖,它的輸入是一個三通道的RGB圖像,經(jīng)過5個通道的卷積之后,每個卷積核都會和輸入的三個通道進行卷積計算,得到一個新的特征圖,經(jīng)過5個卷積核之后就會輸出5通道的6×6特征圖。在這個過程中,卷積層的參數(shù)主要是跟輸入輸出的特征維度以及特征圖、卷積核的尺寸是相關(guān)的。

現(xiàn)在的輕量級網(wǎng)絡通常也是從以上方面對網(wǎng)絡的模型和參數(shù)進行壓縮。具體包括特征壓縮、特征降維、減少卷積層尺寸、利用分組思想的卷積策略。其中比較好理解的是特征壓縮和特征降維的方式,在進行比較大尺寸的卷積計算之前,先用1×1的卷積核降低特征的維度,然后再進行比較大尺寸的卷積核進行計算。另外卷積核尺寸減少對于縮減網(wǎng)絡規(guī)模也是一種比較有效的方法。

在介紹之前,先向大家介紹一下感受野的概念。感受野是指卷積神經(jīng)網(wǎng)絡輸出特征圖的特征值在輸入圖片上映射的區(qū)域范圍的大小。比較通俗的理解就是,輸出特征圖的一個特征值所對應輸入特征圖的區(qū)域范圍。 比如右邊的例子是一個5×5的卷積過程,左邊的是輸入特征圖,在進行卷積時,5×5范圍內(nèi)的像素會和卷積核進行卷積計算得到一個新的特征值。那么新的特征值所對應的輸入特征圖上的范圍就是5×5,所以它的感受也就是5×5。

那么我們是不是可以在保持感受野不變的情況下使用更小尺寸的卷積核去減少網(wǎng)絡的參數(shù),比如一個5×5的卷積核可以用兩個3×3的卷積核代替,并且它的參數(shù)量可以減少到原來18/25,感受野保持不變;一個7×7的卷積核可以用3個3×3的卷積核來代替,參數(shù)量可以減少為原來的27/49;一個9×9的卷積核也可以用4個3×3的卷積核來代替。這樣的好處是使用多個較小尺寸的卷積層可以比一個更大的卷積層進行更多次的非線性變化,這樣的話對抽象特征的學習能力會更強。而且VGGNet提出,對于卷積神經(jīng)網(wǎng)絡,卷積核的尺寸并不是越大越好,當卷積核尺寸增加到一定程度后,網(wǎng)絡的精確度反而會下降,所以當我們使用比較小的多個卷積層去代替大的卷積層時,不僅可以減少網(wǎng)絡的尺寸,而且可以使網(wǎng)絡具有更好的非線性能力。

上圖是兩個利用分組思想的模型壓縮策略,一個是分組卷積,在左邊的經(jīng)典卷積計算過程中,它的輸入是一個12通道的特征圖,經(jīng)過6通道的卷積后,會得到6個輸出特征圖,在進行卷積計算時,每個卷積核都會和12個輸入特征圖進行卷積計算,這種情況下需要進行72次的卷積計算。但是如果我們把不同的卷積核和輸入特征進行分組,比如我們將其分為3組,其中每3個輸入特征只分別和對應的兩個卷積層進行卷積,這樣的話,可以把卷積計算的次數(shù)縮減到原來的三分之一,只進行24次的卷積計算。

所以分組卷積可以大幅度壓縮網(wǎng)絡的規(guī)模。另外一種深度可分離卷積是一種比較特殊的分組卷積,它也是把傳統(tǒng)的卷積計算分為了兩個過程,同樣可以對網(wǎng)絡的參數(shù)進行多倍的壓縮。 目前基于深度學習的超分辨方法,網(wǎng)絡規(guī)模還是比較大的,如果要想在移動端落地應用,依舊存在不小的難度。所以使用這些輕量級網(wǎng)絡所提出的一些思想對模型進行壓縮,對于深度學習方法的落地是極為重要的。 4.3 更加聚焦真實場景任務

最后是關(guān)于真實場景任務的一些思考,這是目前學術(shù)界比較通用的超分辨模型的訓練模式,一般是將高分辨圖像經(jīng)過下采樣得到低分辨率圖像,以此作為配對的數(shù)據(jù)集輸入到網(wǎng)絡中進行訓練。但是這種情況只考慮到了下采樣退化的因素,而在實際場景中圖像會有像圖像壓縮、視頻編碼以及圖像采集噪聲等多種退化因素,如果直接用公開訓練集訓練好的模型套用在實際的場景中,效果是比較差的。

這里舉一個我們業(yè)務中遇到的例子,在RTC領(lǐng)域中我們需要對視頻進行編碼,然后再去傳輸給接收端解碼,但是當網(wǎng)絡比較差的時候,視頻編碼所采用的量化參數(shù)會比較大,會對圖像造成比較嚴重的壓縮,從而導致輸出圖像會帶有一些塊效應和其他失真,畫質(zhì)比較模糊。這種情況下,如果直接將解碼后的視頻進行超分,這些視頻的損失也會被進一步放大,超分效果就會不夠理想。針對這種問題,我們提出了一些改進思路,一種方法是在數(shù)據(jù)集中加入編碼損失,先對數(shù)據(jù)集進行預處理,在預處理時把編碼損失也加入到訓練集中,網(wǎng)絡在訓練時可以同時學習到下采樣損失和編碼壓縮損失;另外則是結(jié)合去模糊和去噪等算法增強超分效果?;谶@些思路,我們目前提出了基于編碼損失復原的視頻超分辨方法。

這是我們所提出的視頻超分方法的基本思想,目前還在探究階段,所以這里提出兩條思路,一種直接將原始尺寸的視頻使用比較大的QP進行編碼、傳輸。這樣解碼后視頻會產(chǎn)生比較大的失真,這時候可以用去模糊的方法,并且把QP損失考慮進去,得到去模糊的重建視頻。對于這種方法,視頻的損失是比較單一的,只包含了視頻編碼的壓縮損失,但缺點是在原始尺寸的視頻上進行的,所以計算量會比較大。 另外一種思路是在進行編碼傳輸之前先對視頻進行下采樣,然后將解碼后的低分辨率視頻進行超分,并且在超分模型中加入特定QP損失,重建得到超分辨圖像。這種方法是在下采樣后的小尺寸視頻上進行計算的,計算量相對第一種方法會小一些,但是解碼后視頻中既包含了下采樣損失,也包含編碼壓縮損失,所以如何恢復出更好的細節(jié)也是對于超分辨算法的嚴峻挑戰(zhàn)。

責任編輯:xj

原文標題:基于AI的超分辨技術(shù)在RTC領(lǐng)域的技術(shù)難點與挑戰(zhàn)

文章出處:【微信公眾號:LiveVideoStack】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39866

    瀏覽量

    301520
  • RTC
    RTC
    +關(guān)注

    關(guān)注

    2

    文章

    653

    瀏覽量

    71853
  • 超分辨
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    6709

原文標題:基于AI的超分辨技術(shù)在RTC領(lǐng)域的技術(shù)難點與挑戰(zhàn)

文章出處:【微信號:livevideostack,微信公眾號:LiveVideoStack】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    高通推出完整的AI驅(qū)動RAN創(chuàng)新技術(shù)組合

    今日,高通技術(shù)公司宣布推出完整的AI驅(qū)動RAN創(chuàng)新技術(shù)組合,在6G時代來臨前,加速實現(xiàn)RAN AI和自智網(wǎng)絡的價值,為移動網(wǎng)絡運營商帶來立竿
    的頭像 發(fā)表于 03-04 09:39 ?195次閱讀

    使用NORDIC AI的好處

    不依賴持續(xù)聯(lián)網(wǎng),整體系統(tǒng)可靠性更高。[Edge AI 概述; Nordic Edge AI 技術(shù)頁] 覆蓋從“小 MCU”到“高性能 SoC”的完整產(chǎn)品線 Neuton 模型 :
    發(fā)表于 01-31 23:16

    發(fā)力AI節(jié)點和AI推理服務器,華勤技術(shù)重磅亮相英特爾大會

    電子發(fā)燒友原創(chuàng) 章鷹 近日,在2025英特爾技術(shù)創(chuàng)新大會上,華勤技術(shù)數(shù)據(jù)事業(yè)部總經(jīng)理程勵之指出,AI算力需求激增,萬億級模型參數(shù)需要多GPU高帶寬互聯(lián),節(jié)點已經(jīng)成為產(chǎn)業(yè)共識,但是落地
    的頭像 發(fā)表于 12-07 05:59 ?1.1w次閱讀
    發(fā)力<b class='flag-5'>AI</b><b class='flag-5'>超</b>節(jié)點和<b class='flag-5'>AI</b>推理服務器,華勤<b class='flag-5'>技術(shù)</b>重磅亮相英特爾大會

    索尼FCB-CR8530分辨率變焦:無人機光電吊艙的“視覺增強引擎”

    在無人機技術(shù)快速發(fā)展的當下,光電吊艙作為無人機的核心觀測設備,其性能直接決定了任務執(zhí)行的效率與精度。SONY FCB-CR8530模組憑借分辨率變焦技術(shù)與緊湊型設計,成為無人機光電吊
    的頭像 發(fā)表于 10-21 14:05 ?422次閱讀

    華為節(jié)點互聯(lián)技術(shù)引領(lǐng)AI基礎設施新范式

    今日,華為全聯(lián)接大會2025在上海啟幕,華為副董事長、輪值董事長徐直軍發(fā)表題為“以開創(chuàng)的節(jié)點互聯(lián)技術(shù),引領(lǐng)AI基礎設施新范式”的主題演講,正式發(fā)布全球最強算力節(jié)點和集群。
    的頭像 發(fā)表于 09-20 16:15 ?2145次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    配備科學發(fā)現(xiàn)仍需人類的直覺和靈感 ④正價可解釋性和透明性 ⑤解決倫理和道德問題六、AI芯片用于“AI科學家”系統(tǒng) AI芯片的作用:七、用量子啟發(fā)AI
    發(fā)表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升算力還是智力

    。 耦合振蕩計算與傳統(tǒng)的計算的區(qū)別: 3、神經(jīng)符號計算 神經(jīng)符號極端是指將基于神經(jīng)網(wǎng)絡的方法與基于符號知識的方法結(jié)合的AI計算。 神經(jīng)符號計算分兩大類: 神經(jīng)符號計算的優(yōu)勢: 維計算與神經(jīng)網(wǎng)絡相結(jié)合: 其他使用符號計算的AI
    發(fā)表于 09-14 14:04

    2025嵌入式行業(yè)現(xiàn)狀如何?

    →CTO??缃绶较颍褐悄苡布a(chǎn)品經(jīng)理、芯片設計工程師。 2025年嵌入式行業(yè)正處于技術(shù)變革與市場需求爆發(fā)的黃金期,架構(gòu)革新、AI融合、實時性與安全強化成為核心驅(qū)動力。就業(yè)市場呈現(xiàn)“初級內(nèi)卷、中高級緊缺
    發(fā)表于 08-25 11:34

    驅(qū)動系統(tǒng)EMC測試整改:AI仿真技術(shù)如何提升效率

    深圳南柯電子|電驅(qū)動系統(tǒng)EMC測試整改:AI仿真技術(shù)如何提升效率
    的頭像 發(fā)表于 08-25 11:01 ?845次閱讀

    【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    問題請咨詢工作人員(微信:elecfans_666)。 AI芯片,從過去走向未來 四年前,市面上僅有的一本AI芯片全書在世界范圍內(nèi)掀起一陣求知熱潮,這本暢銷書就是《AI芯片:前沿技術(shù)
    發(fā)表于 07-28 13:54

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡智能診斷邁向 “自愈”時代

    DeepSeek-R1:強大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎技術(shù)研究有限公司開發(fā)的新一代AI大模型。其核心優(yōu)勢在于強大的推理引擎能力,融合了自然語言處理(NLP)、深度
    發(fā)表于 07-16 15:29

    人工智能技術(shù)現(xiàn)狀與未來發(fā)展趨勢

    人工智能技術(shù)現(xiàn)狀與未來發(fā)展趨勢 ? ? 近年來,人工智能(AI技術(shù)迅猛發(fā)展,深刻影響著各行各業(yè)。從計算機視覺到自然語言處理,從自動駕駛到醫(yī)療診斷,
    的頭像 發(fā)表于 07-16 15:01 ?1904次閱讀

    立訊技術(shù)解讀ETH-X節(jié)點高速互連技術(shù)現(xiàn)狀與未來

    當前,人工智能技術(shù)驅(qū)動全球數(shù)據(jù)中心向智算中心加速演進,傳統(tǒng)架構(gòu)在承載AI大模型訓練時暴露出顯著瓶頸--資源調(diào)度碎片化、異構(gòu)算力協(xié)同低效、能源利用率不足等問題。在此背景下,行業(yè)亟需通過技術(shù)
    的頭像 發(fā)表于 07-03 09:44 ?2489次閱讀
    立訊<b class='flag-5'>技術(shù)</b>解讀ETH-X<b class='flag-5'>超</b>節(jié)點高速互連<b class='flag-5'>技術(shù)</b>的<b class='flag-5'>現(xiàn)狀</b>與未來

    奇異摩爾邀您相約2025中國AI算力大會

    在2025中國AI算力大會上,奇異摩爾首席網(wǎng)絡架構(gòu)專家葉棟將帶來“AI原生時代 —共筑節(jié)點的網(wǎng)絡基礎架構(gòu)”的主題演講,分享國內(nèi)外節(jié)點解決方案在A
    的頭像 發(fā)表于 06-17 17:49 ?1537次閱讀

    90元打造小智AI腕表,語音交互有趣!

    的右下方。所以,方便左手攜帶。設計這個助手的初衷,就是下班途中,可以和AI聊聊未盡事宜,問問技術(shù)、問問天氣,如果AI回答不盡滿意,直接觸摸屏幕,打斷他。 背面視圖 TYPE-C 口,可以充電、固件
    發(fā)表于 04-16 14:26