91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何改進(jìn)和加速擴(kuò)散模型采樣的方法1

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:NVIDIA ? 2022-05-07 14:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這是一系列關(guān)于 NVIDIA 研究人員如何改進(jìn)和加速擴(kuò)散模型采樣的方法的一部分,擴(kuò)散模型是一種新穎而強(qiáng)大的生成模型。 Part 2 介紹了克服擴(kuò)散模型中緩慢采樣挑戰(zhàn)的三種新技術(shù)。

生成模型是一類機(jī)器學(xué)習(xí)方法,它可以學(xué)習(xí)所訓(xùn)練數(shù)據(jù)的表示形式,并對(duì)數(shù)據(jù)本身進(jìn)行建模。它們通?;谏顚?a href="http://www.makelele.cn/tags/神經(jīng)網(wǎng)絡(luò)/" target="_blank">神經(jīng)網(wǎng)絡(luò)。相比之下,判別模型通常預(yù)測(cè)給定數(shù)據(jù)的單獨(dú)數(shù)量。

生成模型允許您合成與真實(shí)數(shù)據(jù)不同但看起來(lái)同樣真實(shí)的新數(shù)據(jù)。設(shè)計(jì)師可以在汽車圖像上訓(xùn)練生成性模型,然后讓生成性人工智能計(jì)算出具有不同外觀的新穎汽車,從而加速藝術(shù)原型制作過(guò)程。

深度生成學(xué)習(xí)已成為機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)重要研究領(lǐng)域,并有許多相關(guān)應(yīng)用。生成模型廣泛用于圖像合成和各種圖像處理任務(wù),如編輯、修復(fù)、著色、去模糊和超分辨率。

生成性模型有可能簡(jiǎn)化攝影師和數(shù)字藝術(shù)家的工作流程,并實(shí)現(xiàn)新水平的創(chuàng)造力。類似地,它們可能允許內(nèi)容創(chuàng)建者高效地為游戲、動(dòng)畫電影或 metaverse 生成虛擬 3D 內(nèi)容。

基于深度學(xué)習(xí)的語(yǔ)音和語(yǔ)言合成已經(jīng)進(jìn)入消費(fèi)品領(lǐng)域。醫(yī)學(xué)和醫(yī)療保健等領(lǐng)域也可能受益于生成性模型,例如生成對(duì)抗疾病的分子候選藥物的方法。

當(dāng)神經(jīng)網(wǎng)絡(luò)被用于不同的生成性學(xué)習(xí)任務(wù)時(shí),尤其是對(duì)于不同的生成性學(xué)習(xí)任務(wù),神經(jīng)網(wǎng)絡(luò)和神經(jīng)網(wǎng)絡(luò)也可以被用于合成。

生成性學(xué)習(xí)三位一體

為了在實(shí)際應(yīng)用中得到廣泛采用,生成模型在理想情況下應(yīng)滿足以下關(guān)鍵要求:

High-quality sampling :許多應(yīng)用程序,尤其是那些直接與用戶交互的應(yīng)用程序,需要高生成質(zhì)量。例如,在語(yǔ)音生成中,語(yǔ)音質(zhì)量差是很難理解的。類似地,在圖像建模中,期望的輸出在視覺(jué)上與自然圖像無(wú)法區(qū)分。

模式覆蓋和樣本多樣性 :如果訓(xùn)練數(shù)據(jù)包含復(fù)雜或大量的多樣性,一個(gè)好的生成模型應(yīng)該在不犧牲生成質(zhì)量的情況下成功捕獲這種多樣性。

快速且計(jì)算成本低廉的采樣 :許多交互式應(yīng)用程序需要快速生成,例如實(shí)時(shí)圖像編輯。

雖然目前大多數(shù)深層生成性學(xué)習(xí)方法都注重高質(zhì)量的生成,但第二和第三個(gè)要求也非常重要。

忠實(shí)地表示數(shù)據(jù)的多樣性對(duì)于避免數(shù)據(jù)分布中遺漏少數(shù)模式至關(guān)重要。這有助于減少學(xué)習(xí)模型中不希望出現(xiàn)的偏差。

另一方面,在許多應(yīng)用程序中,數(shù)據(jù)分布的長(zhǎng)尾巴特別有趣。例如,在交通建模中,人們感興趣的正是罕見的場(chǎng)景,即與危險(xiǎn)駕駛或事故相對(duì)應(yīng)的場(chǎng)景。

降低計(jì)算復(fù)雜度和采樣時(shí)間不僅可以實(shí)現(xiàn)交互式實(shí)時(shí)應(yīng)用。它還通過(guò)降低發(fā)電所需的總功率使用量,減少了運(yùn)行昂貴的深層神經(jīng)網(wǎng)絡(luò)(發(fā)電模型的基礎(chǔ))所造成的環(huán)境足跡。

在本文中,我們將這三個(gè)需求帶來(lái)的挑戰(zhàn)定義為 生成性學(xué)習(xí)三位一體 ,因?yàn)楝F(xiàn)有方法通常會(huì)做出權(quán)衡,無(wú)法同時(shí)滿足所有需求。

pYYBAGJ2ENyAeWg5AAEcsXtThOM930.png

圖 1 生成性學(xué)習(xí)三位一體

基于擴(kuò)散模型的生成性學(xué)習(xí)

最近,擴(kuò)散模型已經(jīng)成為一種強(qiáng)大的生成性學(xué)習(xí)方法。這些模型,也被稱為去噪擴(kuò)散模型或基于分?jǐn)?shù)的生成模型,表現(xiàn)出驚人的高樣本質(zhì)量,通常優(yōu)于生成性對(duì)抗網(wǎng)絡(luò)。它們還具有強(qiáng)大的模式覆蓋和樣本多樣性。

擴(kuò)散模型已經(jīng)應(yīng)用于各種生成任務(wù),如圖像、語(yǔ)音、三維形狀和圖形合成。

擴(kuò)散模型包括兩個(gè)過(guò)程:正向擴(kuò)散和參數(shù)化反向擴(kuò)散。

前向擴(kuò)散過(guò)程通過(guò)逐漸擾動(dòng)輸入數(shù)據(jù)將數(shù)據(jù)映射為噪聲。這是通過(guò)一個(gè)簡(jiǎn)單的隨機(jī)過(guò)程正式實(shí)現(xiàn)的,該過(guò)程從數(shù)據(jù)樣本開始,使用簡(jiǎn)單的高斯擴(kuò)散核迭代生成噪聲較大的樣本。也就是說(shuō),在這個(gè)過(guò)程的每一步,高斯噪聲都會(huì)逐漸添加到數(shù)據(jù)中。

第二個(gè)過(guò)程是一個(gè)參數(shù)化的反向過(guò)程,取消正向擴(kuò)散并執(zhí)行迭代去噪。這個(gè)過(guò)程代表數(shù)據(jù)合成,并經(jīng)過(guò)訓(xùn)練,通過(guò)將隨機(jī)噪聲轉(zhuǎn)換為真實(shí)數(shù)據(jù)來(lái)生成數(shù)據(jù)。它也被正式定義為一個(gè)隨機(jī)過(guò)程,使用可訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)對(duì)輸入圖像進(jìn)行迭代去噪。

正向和反向過(guò)程通常使用數(shù)千個(gè)步驟來(lái)逐步注入噪聲,并在生成過(guò)程中進(jìn)行去噪。

poYBAGJ2EN2AMQOEAAEBEFupDWg453.png

圖 2 擴(kuò)散模型處理數(shù)據(jù)和噪聲之間的移動(dòng)

圖 2 顯示,在擴(kuò)散模型中,固定前向過(guò)程以逐步方式逐漸擾動(dòng)數(shù)據(jù),使其接近完全隨機(jī)噪聲。學(xué)習(xí)一個(gè)參數(shù)化的反向過(guò)程來(lái)執(zhí)行迭代去噪,并從噪聲中生成數(shù)據(jù),如圖像。

在形式上,通過(guò)x0表示一個(gè)數(shù)據(jù)點(diǎn),例如圖像,通過(guò)xt表示時(shí)間步長(zhǎng)t的擴(kuò)散版本,正向過(guò)程由以下公式定義:

雖然離散時(shí)間擴(kuò)散模型和連續(xù)時(shí)間擴(kuò)散模型看起來(lái)可能不同,但它們有一個(gè)幾乎相同的生成過(guò)程。事實(shí)上,很容易證明離散時(shí)間擴(kuò)散模型是連續(xù)時(shí)間模型的特殊離散化。

在實(shí)踐中使用連續(xù)時(shí)間擴(kuò)散模型基本上要容易得多:

它們更通用,可以通過(guò)簡(jiǎn)單的時(shí)間離散化轉(zhuǎn)換為離散時(shí)間模型。

它們是用 SDE 描述的, SDE 在各個(gè)科學(xué)領(lǐng)域都得到了很好的研究。

生成性 SDE 可以使用現(xiàn)成的數(shù)值 SDE 解算器進(jìn)行求解。

它們可以轉(zhuǎn)換為相關(guān)的常微分方程( ODE ),這些方程也得到了很好的研究,并且易于使用。

如前所述,擴(kuò)散模型通過(guò)遵循反向擴(kuò)散過(guò)程生成樣本,該過(guò)程將簡(jiǎn)單的基本分布(通常為高斯分布)映射到復(fù)雜的數(shù)據(jù)分布。在生成 SDE 表示的連續(xù)時(shí)間擴(kuò)散模型中,由于神經(jīng)網(wǎng)絡(luò)逼近分?jǐn)?shù)函數(shù)

latex.php?latex=%5Cnabla_%7Bx_%7Bt%7D%7D%5Clog+p_%7Bt%7D%28x_%7Bt%7D%29&bg=ffffff&fg=000&s=0&c=20201002

,這種映射通常很復(fù)雜。

用數(shù)值積分技術(shù)解決這個(gè)問(wèn)題需要調(diào)用 1000 次深層神經(jīng)網(wǎng)絡(luò)來(lái)生成樣本。正因?yàn)槿绱?,擴(kuò)散模型在生成樣本時(shí)通常很慢,需要幾分鐘甚至幾小時(shí)的計(jì)算時(shí)間。這與生成性對(duì)抗網(wǎng)絡(luò)( GANs )等競(jìng)爭(zhēng)性技術(shù)形成了鮮明對(duì)比,后者只需對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行一次調(diào)用即可生成樣本。

總結(jié)

盡管擴(kuò)散模型實(shí)現(xiàn)了較高的樣本質(zhì)量和多樣性,但不幸的是,它們?cè)诓蓸铀俣确矫娲嬖诓蛔?。這限制了擴(kuò)散模型在實(shí)際應(yīng)用中的廣泛采用,并導(dǎo)致了從這些模型加速采樣的研究領(lǐng)域的活躍。在 Part 2 中,我們回顧了 NVIDIA 為克服擴(kuò)散模型的主要局限性而開發(fā)的三種技術(shù)。

關(guān)于作者

Arash Vahdat 是 NVIDIA research 的首席研究科學(xué)家,專攻計(jì)算機(jī)視覺(jué)和機(jī)器學(xué)習(xí)。在加入 NVIDIA 之前,他是 D-Wave 系統(tǒng)公司的研究科學(xué)家,從事深度生成學(xué)習(xí)和弱監(jiān)督學(xué)習(xí)。在 D-Wave 之前,阿拉什是西蒙·弗雷澤大學(xué)( Simon Fraser University , SFU )的一名研究人員,他領(lǐng)導(dǎo)了深度視頻分析的研究,并教授大數(shù)據(jù)機(jī)器學(xué)習(xí)的研究生課程。阿拉什在格雷格·莫里( Greg Mori )的指導(dǎo)下獲得了 SFU 的博士和理學(xué)碩士學(xué)位,致力于視覺(jué)分析的潛變量框架。他目前的研究領(lǐng)域包括深層生成學(xué)習(xí)、表征學(xué)習(xí)、高效神經(jīng)網(wǎng)絡(luò)和概率深層學(xué)習(xí)。

Karsten Kreis 是 NVIDIA 多倫多人工智能實(shí)驗(yàn)室的高級(jí)研究科學(xué)家。在加入 NVIDIA 之前,他在 D-Wave Systems 從事深度生成建模工作,并與他人共同創(chuàng)立了變分人工智能,這是一家利用生成模型進(jìn)行藥物發(fā)現(xiàn)的初創(chuàng)公司??ㄋ闺隈R克斯·普朗克光科學(xué)研究所獲得量子信息理論理學(xué)碩士學(xué)位,并在馬克斯·普朗克聚合物研究所獲得計(jì)算和統(tǒng)計(jì)物理博士學(xué)位。目前,卡斯滕的研究重點(diǎn)是開發(fā)新的生成性學(xué)習(xí)方法,以及將深層生成模型應(yīng)用于計(jì)算機(jī)視覺(jué)、圖形和數(shù)字藝術(shù)等領(lǐng)域的問(wèn)題。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5597

    瀏覽量

    109782
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50102

    瀏覽量

    265504
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    利用NVIDIA Cosmos開放世界基礎(chǔ)模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測(cè)試與驗(yàn)證數(shù)據(jù)生成。借助 NVIDIA Omniverse 庫(kù)和 Cosmos,開發(fā)者可以大規(guī)模生成基于物理學(xué)的合
    的頭像 發(fā)表于 12-01 09:25 ?1142次閱讀

    神經(jīng)網(wǎng)絡(luò)加速器的雙線性插值上采樣

    了和這個(gè)浮點(diǎn)數(shù)最接近的象素的值,這種方法是很不科學(xué)的,雙線性插值法算是它的改進(jìn)吧。 坐標(biāo): srcX=dstX* (srcWidth/dstWidth) , srcY =dstY
    發(fā)表于 10-29 06:36

    小白學(xué)大模型:大模型加速的秘密 FlashAttention 1/2/3

    在Transformer架構(gòu)中,注意力機(jī)制的計(jì)算復(fù)雜度與序列長(zhǎng)度(即文本長(zhǎng)度)呈平方關(guān)系()。這意味著,當(dāng)模型需要處理更長(zhǎng)的文本時(shí)(比如從幾千個(gè)詞到幾萬(wàn)個(gè)詞),計(jì)算時(shí)間和所需的內(nèi)存會(huì)急劇增加。最開始
    的頭像 發(fā)表于 09-10 09:28 ?4818次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:大<b class='flag-5'>模型</b><b class='flag-5'>加速</b>的秘密 FlashAttention <b class='flag-5'>1</b>/2/3

    成都匯陽(yáng)投資關(guān)于大模型白熱化,應(yīng)用加速分化

    ? ? ? ?大模型加速多模態(tài)研發(fā) ,閉源模型逐步逆襲開源 多模態(tài)技術(shù)路線尚未收斂 , 國(guó)內(nèi)外大模型廠商持續(xù)刷新 SOAT。 圖片領(lǐng)域 ,GPT-4o 圖像生成功能引發(fā)熱潮后 ,谷
    的頭像 發(fā)表于 09-09 09:30 ?927次閱讀

    基于改進(jìn)滑模觀測(cè)器的PMSM無(wú)位置傳感器控制

    為解決傳統(tǒng)基于滑模觀測(cè)器永磁同步電機(jī)無(wú)位置傳感器控制系統(tǒng)存在的抖振問(wèn)題,本文提出了一種基于非線性能量函數(shù)參考模型的新型改進(jìn)滑模觀測(cè)器。在分析非線性能量函數(shù)參考模型的基礎(chǔ)上,設(shè)計(jì)了改進(jìn)
    發(fā)表于 08-06 14:38

    MSCMG無(wú)刷直流電機(jī)改進(jìn)的I_f無(wú)位置起動(dòng)方法

    針對(duì)磁懸浮控制力矩陀螺無(wú)刷直流電機(jī)電阻、電感值極小的特點(diǎn)和已有的無(wú)位置傳感器 I/f 起動(dòng)算法加速階段換相精度不高且算法復(fù)雜的問(wèn)題,通過(guò)分析電磁轉(zhuǎn)矩和換相時(shí)刻的關(guān)系,提出了一種改進(jìn)的 I/f起動(dòng)方法
    發(fā)表于 08-06 14:27

    MSCMG無(wú)刷直流電機(jī)改進(jìn)的I_f無(wú)位置起動(dòng)方法

    方法。該方法在電磁轉(zhuǎn)矩恒定的情況下,結(jié)合電機(jī)模型,精確計(jì)算出電機(jī)換相的具體時(shí)刻。為保證電磁轉(zhuǎn)矩恒定確保換相時(shí)刻的準(zhǔn)確性,采用神經(jīng)網(wǎng)絡(luò)法估計(jì)反電勢(shì)系數(shù),并設(shè)計(jì)了基于三相繞組不對(duì)稱補(bǔ)償?shù)?b class='flag-5'>改進(jìn)
    發(fā)表于 07-23 13:19

    模型推理顯存和計(jì)算量估計(jì)方法研究

    、顯存估計(jì)方法 基于模型結(jié)構(gòu)的顯存估計(jì) 根據(jù)深度學(xué)習(xí)模型的層次結(jié)構(gòu)和參數(shù)數(shù)量,可以估算模型在推理過(guò)程中所需的顯存大小。具體方法如下: (
    發(fā)表于 07-03 19:43

    請(qǐng)問(wèn)如何通過(guò)OpenVINO?加速啟用穩(wěn)定的擴(kuò)散 Web UI?

    無(wú)法運(yùn)行具有OpenVINO?加速的穩(wěn)定擴(kuò)散 Web UI。
    發(fā)表于 06-24 06:48

    FA模型訪問(wèn)Stage模型DataShareExtensionAbility說(shuō)明

    。 DataShareHelper并沒(méi)有實(shí)現(xiàn)原DataAbilityHelper對(duì)外API接口的所有功能,因此有部分接口是無(wú)法兼容的,具體如表1所示。 表1 FA模型訪問(wèn)stage模型
    發(fā)表于 06-04 07:53

    改進(jìn)電壓模型的異步電機(jī)無(wú)速度傳感器矢量控制

    無(wú)速度傳感器矢量控制技術(shù)能夠有效提高交流傳動(dòng)系統(tǒng)的可靠性,降低系統(tǒng)成本。該技術(shù)的核心問(wèn)題是準(zhǔn)確獲取電機(jī)轉(zhuǎn)子轉(zhuǎn)速,并將其反饋到速度閉環(huán)控制環(huán)節(jié)。介紹一種采用改進(jìn)模型參考自適應(yīng)轉(zhuǎn)速估計(jì)方法的異步電機(jī)矢量
    發(fā)表于 05-28 15:43

    Nordic下一代可穿戴設(shè)備和邊緣人工智能改進(jìn)運(yùn)動(dòng)表現(xiàn)分析

    包括在不同比賽階段中,運(yùn)動(dòng)員在關(guān)鍵動(dòng)作中的身體移動(dòng),或者球棒或球的位置、發(fā)射角、旋轉(zhuǎn)率和加速率。 對(duì)于田徑和自行車等個(gè)人運(yùn)動(dòng),關(guān)鍵指標(biāo)可能側(cè)重于生物力學(xué)效率和技術(shù)精度。對(duì)于包括足球在內(nèi)的團(tuán)隊(duì)運(yùn)動(dòng),常用指標(biāo)包括沖刺、加速、減速和運(yùn)動(dòng)強(qiáng)度。
    發(fā)表于 05-12 11:24

    晶圓擴(kuò)散清洗方法

    晶圓擴(kuò)散前的清洗是半導(dǎo)體制造中的關(guān)鍵步驟,旨在去除表面污染物(如顆粒、有機(jī)物、金屬離子等),確保擴(kuò)散工藝的均勻性和器件性能。以下是晶圓擴(kuò)散清洗的主要方法及工藝要點(diǎn): 一、RCA清洗工藝
    的頭像 發(fā)表于 04-22 09:01 ?1707次閱讀

    電機(jī)控制系統(tǒng)低速區(qū)測(cè)速方法分析與改進(jìn)

    純分享帖,需要者可點(diǎn)擊附件獲取完整資料~~~*附件:電機(jī)控制系統(tǒng)低速區(qū)測(cè)速方法分析與改進(jìn).pdf 【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問(wèn)題,請(qǐng)第一時(shí)間告知,刪除內(nèi)容!
    發(fā)表于 04-17 22:32

    NVIDIA Isaac GR00T N1開源人形機(jī)器人基礎(chǔ)模型+開源物理引擎Newton加速機(jī)器人開發(fā)

    NVIDIA Isaac GR00T N1開源人形機(jī)器人基礎(chǔ)模型+開源物理引擎Newton加速機(jī)器人開發(fā)
    的頭像 發(fā)表于 03-20 16:56 ?1728次閱讀