91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

商湯科技NEO-unify如何打造原生視覺語言理解與生成

商湯科技SenseTime ? 來源:商湯科技SenseTime ? 2026-03-10 14:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天,商湯科技發(fā)布一篇最新技術(shù)博客 NEO-unify: 原生架構(gòu)打造端到端多模態(tài)理解與生成統(tǒng)一模型(NEO-unify: Building Native Multimodal Unified Models End to End)

這篇博客深入解讀NEO-unify:一項旨在從底層統(tǒng)一多模態(tài)理解與生成的端到端原生架構(gòu)。

當(dāng)前,多模態(tài)模型普遍采用“視覺編碼器(VE)用于理解,變分自編碼器(VAE)用于生成”的組合式設(shè)計。這套范式雖行之有效,卻也內(nèi)在割裂了感知與創(chuàng)造,常面臨模塊協(xié)同與效率權(quán)衡的挑戰(zhàn)。

我們能否更進一步,讓AI像人一樣,直接從最原始的像素和文字中,統(tǒng)一地進行學(xué)習(xí)、理解與生成?這正是NEO-unify嘗試回答的根本問題。它摒棄了傳統(tǒng)的VE與VAE,首次構(gòu)建了一個真正的端到端原生統(tǒng)一模型,在同一個架構(gòu)內(nèi)直接處理像素與文本,并在此基礎(chǔ)上協(xié)同完成理解與生成任務(wù)。初步研究成果令人振奮,該設(shè)計在保持強大語義理解與細節(jié)恢復(fù)能力的同時,顯著提升了訓(xùn)練與計算效率。

這項技術(shù)將如何為生成式AI打開新的想象?讓我們一同展開探討。

《NEO-unify:原生架構(gòu)打造端到端多模態(tài)理解與生成統(tǒng)一模型》

英文博客地址:

https://huggingface.co/blog/sensenova/neo-unify

中文博客地址:

https://www.sensetime.com/cn/news-detail/51170543?categoryId=72

當(dāng)前多模態(tài)智能架構(gòu)困境

長期以來,多模態(tài)研究已形成一種默認范式:視覺編碼器(Vision Encoder, VE) 負責(zé)感知與理解,而變分自編碼器(Variational Autoencoder, VAE) 則用于內(nèi)容生成。近期的一些工作嘗試構(gòu)建共享編碼器,但這種折衷往往引入新的結(jié)構(gòu)性設(shè)計權(quán)衡。

由此回到第一性原理:構(gòu)建一體化模型直接處理原生輸入,即像素本身與文字本身。商湯科技聯(lián)合南洋理工大學(xué),提出一種全新的架構(gòu)范式:NEO-unify(preview),一個原生、統(tǒng)一、端到端的多模態(tài)模型架構(gòu)。它不僅越過了當(dāng)前視覺表征的爭論,也擺脫了預(yù)訓(xùn)練先驗和規(guī)模定律瓶頸的限制。最關(guān)鍵的是:不需要 VE,也不需要 VAE。

我們正擴大規(guī)模、持續(xù)迭代。更多模型與開源成果,將很快與大家見面。

NEO-unify原生一體化架構(gòu)新范式

c4562a2c-1923-11f1-90a1-92fbcf53809c.png

NEO-unify 第一次邁向真正的端到端統(tǒng)一框架,能夠直接從近乎無損的信息輸入中學(xué)習(xí),并由模型自身塑造內(nèi)部表征空間。首先,引入近似無損的視覺接口,用于統(tǒng)一圖像的輸入與輸出表示;其次,采用原生混合Transformer(Mixture-of-Transformer,MoT)架構(gòu),使理解與生成能夠在同一體系中協(xié)同進行;最終,通過統(tǒng)一學(xué)習(xí)框架實現(xiàn)跨模態(tài)訓(xùn)練:文本采用自回歸交叉熵目標(biāo),視覺通過像素流匹配進行優(yōu)化。

模型效果

1. 定量結(jié)果分析

c4b4bfce-1923-11f1-90a1-92fbcf53809c.png

c51270c4-1923-11f1-90a1-92fbcf53809c.png

2. 生圖效果展示

技術(shù)發(fā)現(xiàn)

1. 無編碼器設(shè)計能夠同時保留抽象語義與細粒度表征

[圖像重建任務(wù)]

我們先前的工作NEO(Diao et al., ICLR 2026)表明,原生端到端模型同樣能夠?qū)W習(xí)到豐富的語義表征。在此基礎(chǔ)上,我們進一步觀察到一個有趣的現(xiàn)象:即使在凍結(jié)理解分支的情況下,獨立的生成分支仍然能夠從表示中抽取并恢復(fù)細粒度的視覺細節(jié)。

基于這一發(fā)現(xiàn),我們訓(xùn)練了NEO-unify(2B)。在初步 9 萬步預(yù)訓(xùn)練后,模型在 MS COCO 2017 上取得31.56 PSNR和0.85 SSIM,而Flux VAE的對應(yīng)指標(biāo)為32.65和0.91。這一結(jié)果表明,即使不依賴預(yù)訓(xùn)練VE或VAE,近似無損的原生輸入仍能夠同時支持高質(zhì)量的語義理解與像素級細節(jié)保真。

域外圖像重建(2B NEO-unify,理解分支凍結(jié))

[圖像編輯任務(wù)]

據(jù)此,我們進一步開展探索:NEO-unify將所有全模態(tài)條件信息統(tǒng)一輸入到理解分支,而生成分支僅負責(zé)生成新的圖像。

即使在凍結(jié)理解分支的情況下,NEO-unify(2B)仍展現(xiàn)出強大的圖像編輯能力,同時顯著減少了輸入圖像令牌的數(shù)量。在使用開源生成與圖像編輯數(shù)據(jù)集并進行初步 6 萬步混合訓(xùn)練后,模型在ImgEdit基準上取得3.32的成績,且理解分支在整個訓(xùn)練過程中保持凍結(jié)。

小規(guī)模數(shù)據(jù)驗證(2B NEO-unify,理解分支凍結(jié))

ImgEdit提示詞編輯(2B NEO-unify,理解分支凍結(jié))

2. 無編碼器架構(gòu)與 MoT 主干高度協(xié)同大幅降低內(nèi)在沖突

借助預(yù)訓(xùn)練的理解分支與生成分支,NEO-unify使用相同的中期訓(xùn)練(MT)與 監(jiān)督微調(diào)(SFT) 數(shù)據(jù)進行聯(lián)合訓(xùn)練。即使在較低的數(shù)據(jù)比例和損失權(quán)重下,理解能力依然保持穩(wěn)定,而生成能力則收斂很快。二者在 MoT 主干中協(xié)同提升,整體沖突極小。

c77199e4-1923-11f1-90a1-92fbcf53809c.png

3. 無編碼器架構(gòu),展現(xiàn)更高數(shù)據(jù)訓(xùn)練效率

此外,我們首先進行 web-scale 預(yù)訓(xùn)練,隨后在多樣且高質(zhì)量的數(shù)據(jù)語料上依次進行中期訓(xùn)練(MT) 和 監(jiān)督微調(diào)(SFT)。與 Bagel 模型相比,NEO-unify 展現(xiàn)出更高的數(shù)據(jù)訓(xùn)練效率,在使用更少訓(xùn)練 token 的情況下取得了更優(yōu)的性能。

c7d5fa88-1923-11f1-90a1-92fbcf53809c.png

未來展望

這不僅僅是一種模型架構(gòu)探索,更是邁向下一代智能形態(tài)的一步:

? 感知與生成交織的閉環(huán)

? 全模態(tài)推理

? 視覺推理

? 空間智能

? 世界模型

? …

一條新的路線圖正在展開:模型不再在模態(tài)之間進行轉(zhuǎn)換,而是能夠原生地跨模態(tài)思考。多模態(tài) AI 不再只是連接不同系統(tǒng),而是構(gòu)建一個從未割裂的統(tǒng)一智能體,并讓所需能力從其內(nèi)部自然涌現(xiàn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39866

    瀏覽量

    301510
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3756

    瀏覽量

    52127
  • 商湯科技
    +關(guān)注

    關(guān)注

    8

    文章

    610

    瀏覽量

    37562

原文標(biāo)題:技術(shù)博客:無需編解碼器,NEO-unify如何打造原生視覺語言理解與生成

文章出處:【微信號:SenseTime2017,微信公眾號:商湯科技SenseTime】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    基于NVIDIA GPU加速端點使用千問3.5 VLM開發(fā)原生多模態(tài)智能體

    阿里巴巴推出了全新開源 千問3.5 系列,專為構(gòu)建原生多模態(tài)智能體而設(shè)計。該系列的首個模型是一款總參數(shù)為 397B、具備推理能力的原生視覺語言模型 (VLM),基于由混合專家模型 (M
    的頭像 發(fā)表于 03-04 16:37 ?455次閱讀

    商湯科技美顏Agent正式上線

    商湯科技正式推出的美顏Agent,通過將更智能的AI分析和決策能力與歷經(jīng)海量驗證的美顏SDK效果執(zhí)行深度協(xié)同,打造出一個能更精準聽懂人話、更深刻懂得審美的AI 美顏助手。
    的頭像 發(fā)表于 02-27 15:37 ?230次閱讀

    商湯大裝置SenseCore原生AI云平臺榮獲軟件供應(yīng)鏈安全能力評估認證

    近期,商湯大裝置SenseCore原生AI云平臺通過工業(yè)和信息化部電子工業(yè)標(biāo)準化研究院組織的軟件供應(yīng)鏈安全能力評估,獲評優(yōu)秀級,成為全國首批通過該項認證的企業(yè)。
    的頭像 發(fā)表于 02-26 10:42 ?486次閱讀

    商湯大裝置SenseCore原生AI云平臺榮獲信通院5A卓越級認證

    近日,商湯大裝置SenseCore原生AI云平臺通過中國信通院與泰爾實驗室《算模數(shù)用-算力平臺服務(wù)能力》權(quán)威測試,獲業(yè)界最高等級5A卓越級認證,這也是業(yè)界首個獲得5A認證的原生AI云平臺。
    的頭像 發(fā)表于 02-04 15:55 ?331次閱讀
    <b class='flag-5'>商湯</b>大裝置SenseCore<b class='flag-5'>原生</b>AI云平臺榮獲信通院5A卓越級認證

    商湯科技日日新V6.5榮獲2025年多模態(tài)大模型全國第一

    近日,權(quán)威大模型評測基準 SuperCLUE 發(fā)布《中文多模態(tài)視覺語言模型測評基準12月報告》,商湯日日新V6.5(SenseNova V6.5 Pro)以75.35的總分位列國內(nèi)第一,斬獲金牌,并在
    的頭像 發(fā)表于 01-06 14:44 ?642次閱讀
    <b class='flag-5'>商湯</b>科技日日新V6.5榮獲2025年多模態(tài)大模型全國第一

    商湯方舟全面升級助力視覺AI 2.0實現(xiàn)規(guī)?;涞?/a>

    12月9日,商湯科技與香港科技園公司聯(lián)合主辦的“2025商湯科技AI論壇”于香港科學(xué)園圓滿落幕。
    的頭像 發(fā)表于 12-17 13:56 ?435次閱讀
    <b class='flag-5'>商湯</b>方舟全面升級助力<b class='flag-5'>視覺</b>AI 2.0實現(xiàn)規(guī)?;涞? />    </a>
</div>                              <div   id=

    商湯科技推出實時語音驅(qū)動數(shù)字人技術(shù)SekoTalk

    在數(shù)字人技術(shù)蓬勃發(fā)展的今天,生成效率仍是行業(yè)面臨的核心挑戰(zhàn)。商湯科技憑借在生成式 AI 與多模態(tài)交互領(lǐng)域的深厚積累,推出了實時語音驅(qū)動數(shù)字人技術(shù)——SekoTalk。
    的頭像 發(fā)表于 12-17 13:52 ?431次閱讀
    <b class='flag-5'>商湯</b>科技推出實時語音驅(qū)動數(shù)字人技術(shù)SekoTalk

    商湯科技正式發(fā)布并開源全新多模態(tài)模型架構(gòu)NEO

    商湯科技正式發(fā)布并開源了與南洋理工大學(xué)S-Lab合作研發(fā)的全新多模態(tài)模型架構(gòu) —— NEO,為日日新SenseNova 多模態(tài)模型奠定了新一代架構(gòu)的基石。
    的頭像 發(fā)表于 12-08 11:19 ?1026次閱讀
    <b class='flag-5'>商湯</b>科技正式發(fā)布并開源全新多模態(tài)模型架構(gòu)<b class='flag-5'>NEO</b>

    商湯科技持續(xù)引領(lǐng)中國原生AI云廠商陣營

    近日,權(quán)威研究機構(gòu)弗若斯特沙利文(Frost & Sullivan)聯(lián)合頭豹研究院發(fā)布《2025年H1中國全棧AI云服務(wù)市場報告》。報告顯示,商湯科技憑整體市場份額位列中國全棧AI云服務(wù)市場第四,原生AI云廠商首位,持續(xù)引領(lǐng)原生
    的頭像 發(fā)表于 11-21 10:59 ?474次閱讀

    商湯如影圖片數(shù)字人技術(shù)閃耀央視舞臺

    依托商湯日日新大模型的多模態(tài)能力,只需上傳一張人物照片,輸入文字腳本或音頻文件,AI 就能自動生成人物動態(tài)視頻,并支持多種語言,實現(xiàn)了與真人幾乎無差別的口型匹配、動作呼應(yīng)和情緒表達。
    的頭像 發(fā)表于 09-22 16:18 ?971次閱讀

    商湯日日新大模型賦能紫光漢圖打造激光多功能一體機

    商湯日日新大模型賦能紫光漢圖,為一線教師打造全新教學(xué)生產(chǎn)力。
    的頭像 發(fā)表于 08-19 15:51 ?910次閱讀
    <b class='flag-5'>商湯</b>日日新大模型賦能紫光漢圖<b class='flag-5'>打造</b>激光多功能一體機

    商湯科技與上海徐匯區(qū)文旅局達成合作

    近日,商湯科技與上海徐匯區(qū)文旅局達成合作,基于商湯最新AI大模型日日新SenseNova V6,打造智慧文旅新技術(shù)與應(yīng)用成果,可為游客提供擬人化的“貼身導(dǎo)游”服務(wù)。
    的頭像 發(fā)表于 04-24 16:23 ?952次閱讀

    芯科科技Unify軟件開發(fā)套件更新

    Silicon Labs(芯科科技)最新發(fā)布的Unify 軟件開發(fā)套件 (SDK) 更新內(nèi)容引入了一系列功能,旨在大幅增強對Z-Wave開發(fā)的支持,包括優(yōu)化的安全性以及協(xié)議功能。該版本標(biāo)志著一個轉(zhuǎn)變
    的頭像 發(fā)表于 04-23 10:03 ?1205次閱讀

    ?VLM(視覺語言模型)?詳細解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型,能夠理解
    的頭像 發(fā)表于 03-17 15:32 ?8903次閱讀
    ?VLM(<b class='flag-5'>視覺</b><b class='flag-5'>語言</b>模型)?詳細解析

    模型原生操作系統(tǒng):機遇、挑戰(zhàn)與展望 CCCF精選

    與作者團隊的相關(guān)初步探索。 以ChatGPT為代表的生成式人工智能(Generative AI)正在深刻變革人類社會。大模型憑借其卓越的語言理解、內(nèi)容生成與邏輯推理能力,已成為科技發(fā)展
    的頭像 發(fā)表于 03-14 17:46 ?1166次閱讀
    模型<b class='flag-5'>原生</b>操作系統(tǒng):機遇、挑戰(zhàn)與展望  CCCF精選