91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

CVPR 2023論文總結(jié)!CV最熱領域頒給多模態(tài)、擴散模型

OpenCV學堂 ? 來源:新智元 ? 2023-05-24 15:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導讀】CVPR 2023有哪些亮點?從錄用論文中我們又能看到CV領域有哪些趨勢?

一年一度的CVPR即將在6月18-22日加拿大溫哥華正式開幕。

每年,來自世界各地的成千上萬的CV研究人員和工程師聚集在一起參加頂會。這個久負盛名的會議可以追溯到1983年,它代表了計算機視覺發(fā)展的巔峰。

目前,CVPR的h5指數(shù)所有會議或出版物中位列第四,僅次于《自然》、《科學》和《新英格蘭醫(yī)學雜志》。

e4a2cecc-f8f4-11ed-90ce-dac502259ad0.png

前段時間,CVPR公布了論文接收結(jié)果。根據(jù)官網(wǎng)上統(tǒng)計數(shù)據(jù),一共接受論文9155篇,錄用2359篇,接受率為25.8%。

此外,還公布了12篇獲獎候選論文。

那么,今年的CVPR有哪些亮點?從錄用論文中我們又能看到CV領域有哪些趨勢?

接下來一并揭曉。

CVPR一覽

初創(chuàng)公司Voxel51就所有被接收論文列表中進行了分析。

先來整體看一張論文標題的匯總圖,每個字的大小與數(shù)據(jù)集中出現(xiàn)的頻率成正比。

簡要說明

- 2359篇論文被接收(9155份論文提交)

- 1724篇Arxiv論文

- 68份文件提交到其他地址

每篇論文的作者

- CVPR論文的平均作者約為5.4人

- 論文當中作者最多的是: 「Why is the winner the best?」有125位作者

- 有13篇論文只有一個作者。

主要Arxiv分類

在1724篇Arxiv論文中,有1545篇,或者說接近90%的論文將cs.CV列為主要類別。

cs.LG位列第二,有101篇。eess.IV (26)和 cs.RO (16)也分得一杯羹。

CVPR 論文的其他類別包括: cs.HC,cs.CV,cs.AR,cs.DC,cs.NE,cs.SD,cs.CL,cs.IT,cs.CR,cs.AI,cs.MM,cs.GR,eess.SP,eess.AS,math.OC,math.NT,physics.data-an和stat.ML。

「Meta」數(shù)據(jù)

- 「數(shù)據(jù)集」和「模型」這2個詞共同出現(xiàn)在567篇摘要中。「數(shù)據(jù)集」在265篇論文摘要中單獨出現(xiàn),而「模型」則單獨出現(xiàn)了613次。只有16.2%的 CVPR接收論文沒有包含這兩個詞。

- 根據(jù)CVPR論文摘要,今年最受歡迎的數(shù)據(jù)集是ImageNet(105),COCO(94),KITTI(55)和CIFAR(36)。

- 28篇論文提出了一個新的「基準」。

縮寫詞比比皆是

似乎沒有首字母縮略詞就沒有機器學習項目。2359篇論文中,1487篇的標題有多個大寫字母的縮略詞或復合詞,占比63%。

這些首字母縮略詞中有一些很容易記住,甚至可以脫口而出:

- CLAMP: Prompt-based Contrastive Learning for Connecting Language and Animal PoseCLAMP

- PATS: Patch Area Transportation with Subdivision for Local Feature Matching

- CIRCLE: Capture In Rich Contextual Environments

有些則要復雜得多:

- SIEDOB: Semantic Image Editing by Disentangling Object and Background

- FJMP: Factorized Joint Multi-Agent Motion Prediction over Learned Directed Acyclic Interaction GraphsFJMP

他們中的一些人似乎在首字母縮略詞構建上借鑒了別人的創(chuàng)意

- SCOTCH and SODA: A Transformer Video Shadow Detection Framework(荷蘭流行潮牌Scotch & Soda)

- EXCALIBUR: Encouraging and Evaluating Embodied Exploration(Ex咖喱棒,笑)

什么最熱?

除了2023年的論文標題,我們抓取了2022年所有接受的論文標題。從這兩個列表中,我們計算了各種關鍵詞的相對頻率,從讓大家對什么是上升趨勢、什么是下降趨勢有更深入的了解。

模型

2023年,擴散模型(Diffusion models)占據(jù)了主導地位。

e4d05e00-f8f4-11ed-90ce-dac502259ad0.png

擴散模型

隨著Stable Diffusion和Midjourney等圖像生成模型的走紅,擴散模型發(fā)展的火熱趨勢也就不足為奇了。

擴散模型在去噪、圖像編輯和風格轉(zhuǎn)換方面也有應用。把所有這些加起來,到目前為止,它是所有類別中最大的贏家,比去年同期增長了573% 。

輻射場

神經(jīng)輻射場(NERF)也越來越受歡迎,論文中使用單詞「radiance」增加了80% ,「NERF」增加了39% 。NeRF已經(jīng)從概念驗證轉(zhuǎn)向編輯、應用和訓練過程優(yōu)化。

Transformers

「Transformer」和「ViT」的使用率下降并不意味著Transformer模型過時,而是反映了這些模型在2022年的主導地位。2021年,「Transformer」這個詞只出現(xiàn)在37篇論文中。2022年,這個數(shù)字飆升至201。Transformer不會很快消失。

CNN

CNN曾經(jīng)是計算機視覺的寵兒,到了2023年,似乎失去了它們的優(yōu)勢,使用率下降了68%。許多提到 CNN 的標題也提到了其他模型。例如,這些論文提到了CNN和Transformer:

- Lite-Mono: A Lightweight CNN and Transformer Architecture for Self-Supervised Monocular Depth EstimationLite-Mono

- Learned Image Compression with Mixed Transformer-CNN Architectures

任務

掩碼任務和掩碼圖像建模相結(jié)合,在CVPR中占據(jù)了主導地位。

e4db6624-f8f4-11ed-90ce-dac502259ad0.png

生成

傳統(tǒng)的判別任務,如檢測、分類和分割并沒有失寵,但是由于生成應用的一系列進步,它們在CV的份額正在縮小,包括「編輯」、「合成」以及「生成」的上升就證明這點。

掩碼

關鍵字「mask」比去年同期增長了263% ,在2023年被接收的論文中出現(xiàn)了92次,有時在一個標題中出現(xiàn)了2次。

- SIM: Semantic-aware Instance Mask Generation for Box-Supervised Instance SegmentationSIM

- DynaMask: Dynamic Mask Selection for Instance SegmentationDynaMask

但大多數(shù)(64%)實際上指的是「掩碼」任務,包括8個「掩碼圖像建?!购?5個「掩碼自動編碼器」任務。此外,還有8篇出現(xiàn)「掩碼」。

同樣值得注意的是,3篇帶有單詞「mask」的論文標題實際上指的是「無掩碼」任務。

零樣本vs小樣本

隨著遷移學習、生成方法、提示和通用模型的興起,「零樣本」學習正在獲得關注。與此同時,「小樣本」學習比去年有所下降。然而,就原始數(shù)字而言,至少目前而言,「小樣本」(45)比「零樣本」(35)略有優(yōu)勢。

模態(tài)

2023年,多模態(tài)和跨模態(tài)應用加速發(fā)展。

e4f291fa-f8f4-11ed-90ce-dac502259ad0.png

邊界模糊

雖然傳統(tǒng)計算機視覺關鍵詞如「圖像」和「視頻」的頻率相對保持不變,但「文本」/「語言」和「音頻」出現(xiàn)的頻率更高。

即使「多模態(tài)」這個詞本身沒有在論文標題中出現(xiàn),也很難否認計算機視覺正在走向多模態(tài)的未來。

這在視覺-語言任務中尤其明顯,正如「開放」、「提示」和「詞匯」的急劇上升所表明的那樣。

這種情況最極端的例子是「開放詞匯」這個復合詞,它在2022年只出現(xiàn)了3次,但在2023年出現(xiàn)了18次。

e50320d8-f8f4-11ed-90ce-dac502259ad0.png

深入挖掘CVPR 2023論文標題中的關鍵詞

點云9

三維計算機視覺應用正在從以二維圖像推斷3D信息(「深度」和「立體」)轉(zhuǎn)向直接在3D點云數(shù)據(jù)上進行工作的計算機視覺系統(tǒng)。

CV標題的創(chuàng)造力

如果不將ChatGPT納入其中,2023年任何與機器學習相關的全面報道都是不完整的。我們決定讓事情變得有趣,并使用ChatGPT來尋找CVPR 2023中最有創(chuàng)意的標題。

對于每一篇上傳到Arxiv的論文,我們抓取了摘要,并要求 ChatGPT (GPT-3.5 API)為相應的CVPR論文生成一個標題。

然后,我們將這些由ChatGPT生成的標題和實際的論文標題,使用OpenAI的text-embedding-ada-002模型生成嵌入向量,并計算ChatGPT生成的標題和作者生成的標題之間的余弦相似度。

這可以告訴我們什么?ChatGPT越接近實際的論文標題,這個標題就越可預測。換句話說,ChatGPT的預測越「偏」,作者給論文命名的「創(chuàng)造性」就越強。

嵌入和余弦相似度為我們提供了一個有趣的,盡管遠非完美的,量化方法。

我們按照這個指標對論文進行了排序。話不多說,下面是最具創(chuàng)造性的標題:

實際的標題:Tracking Every Thing in the Wild

預測的標題:Disentangling Classification from Tracking: Introducing TETA for Comprehensive Benchmarking of Multi-Category Multiple Object Tracking

實際的標題:Learning to Bootstrap for Combating Label Noise

預測的標題:Learnable Loss Objective for Joint Instance and Label Reweighting in Deep Neural Networks

實際的標題:Seeing a Rose in Five Thousand Ways

預測的標題:Learning Object Intrinsics from Single Internet Images for Superior Visual Rendering and Synthesis

實際的標題:Why is the winner the best?

預測的標題:Analyzing Winning Strategies in International Benchmarking Competitions for Image Analysis: Insights from a Multi-Center Study of IEEE ISBI and MICCAI 2021

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3757

    瀏覽量

    52130
  • 計算機視覺
    +關注

    關注

    9

    文章

    1715

    瀏覽量

    47642
  • 數(shù)據(jù)集

    關注

    4

    文章

    1236

    瀏覽量

    26208

原文標題:CVPR 2023論文總結(jié)!CV最熱領域頒給多模態(tài)、擴散模型

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    模態(tài)感知大模型驅(qū)動的密閉空間自主勘探系統(tǒng)的應用與未來發(fā)展

    ? ? 模態(tài)感知大模型驅(qū)動的密閉空間自主勘探系統(tǒng) ? ?北京華盛恒輝模態(tài)感知大模型驅(qū)動的密閉
    的頭像 發(fā)表于 12-29 11:27 ?311次閱讀

    模態(tài)模型驅(qū)動的復雜環(huán)境精準導航避障系統(tǒng)平臺的應用

    模態(tài)模型驅(qū)動的復雜環(huán)境精準導航避障系統(tǒng)平臺的應用
    的頭像 發(fā)表于 12-22 13:15 ?295次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>驅(qū)動的復雜環(huán)境精準導航避障系統(tǒng)平臺的應用

    商湯科技正式發(fā)布并開源全新模態(tài)模型架構NEO

    商湯科技正式發(fā)布并開源了與南洋理工大學S-Lab合作研發(fā)的全新模態(tài)模型架構 —— NEO,為日日新SenseNova 模態(tài)
    的頭像 發(fā)表于 12-08 11:19 ?1028次閱讀
    商湯科技正式發(fā)布并開源全新<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>模型</b>架構NEO

    格靈深瞳模態(tài)模型Glint-ME讓圖文互搜更精準

    在電商、安防等場景下,圖文互搜應用廣泛。隨著以CLIP為代表的模態(tài)表征方法相繼提出,過去單一模態(tài)搜索(文搜文、圖搜圖)被突破,模型可以同時理解文本、圖像、音頻乃至視頻,實現(xiàn)跨
    的頭像 發(fā)表于 11-02 15:56 ?1726次閱讀
    格靈深瞳<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>Glint-ME讓圖文互搜更精準

    亞馬遜云科技上線Amazon Nova模態(tài)嵌入模型

    Embeddings模態(tài)嵌入模型現(xiàn)已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應用打造的頂尖模態(tài)
    的頭像 發(fā)表于 10-29 17:15 ?277次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>嵌入<b class='flag-5'>模型</b>

    商湯日日新V6.5模態(tài)模型登頂全球權威榜單

    根據(jù)權威評測平臺OpenCompass模態(tài)模型學術榜單(Multi-modal Academic Leaderboard)最新數(shù)據(jù)顯示,商湯「日日新 V6.5」(SenseNova-V6.5
    的頭像 發(fā)表于 09-10 09:55 ?807次閱讀

    淺析模態(tài)標注對大模型應用落地的重要性與標注實例

    ?在人工智能邁向AGI通用智能的關鍵道路上,大模型正從單一的文本理解者,演進為能同時看、聽、讀、想的“多面手”。驅(qū)動這一進化的核心燃料,正是高質(zhì)量的模態(tài)數(shù)據(jù),而將原始數(shù)據(jù)轉(zhuǎn)化為“機器可讀教材
    的頭像 發(fā)表于 09-05 13:49 ?2353次閱讀

    商湯科技模態(tài)通用智能戰(zhàn)略思考

    時間是最好的試金石,AI領域尤其如此。當行業(yè)熱議大模型走向時,商湯早已錨定“模態(tài)通用智能”——這是我們以深厚研究積累和實踐反復驗證的可行路徑。
    的頭像 發(fā)表于 08-14 09:33 ?1197次閱讀

    NVIDIA助力圖靈新訊美推出企業(yè)級模態(tài)視覺大模型融合解決方案

    中國推出企業(yè)級模態(tài)視覺大模型融合解決方案,推動先進 AI 模型在交通治理、工業(yè)質(zhì)檢、金融風控等領域實現(xiàn)高效識別、精準預警和穩(wěn)定交付。
    的頭像 發(fā)表于 06-26 09:17 ?1353次閱讀

    模態(tài)感知+豆包大模型!家居端側(cè)智能升級

    的關鍵力量。星宸科技與豆包大模型的合作,將這一技術趨勢落實到實際應用場景中,在智能家居、可穿戴設備以及連鎖店等領域引發(fā)了深刻變革。 ? 智能家居升級 ? 陳立敬指出:“智能家居2.0需要大模型大腦”。在智能家居
    的頭像 發(fā)表于 06-21 00:06 ?7142次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>感知+豆包大<b class='flag-5'>模型</b>!家居端側(cè)智能升級

    商湯日日新SenseNova融合模態(tài)模型 國內(nèi)首家獲得最高評級的大模型

    近日,中國信息通信研究院(以下簡稱“中國信通院”)完成可信AI模態(tài)模型首輪評估。 商湯日日新SenseNova融合模態(tài)模型在所有
    的頭像 發(fā)表于 06-11 11:57 ?1432次閱讀

    愛芯通元NPU適配Qwen2.5-VL-3B視覺模態(tài)模型

    熟悉愛芯通元NPU的網(wǎng)友很清楚,從去年開始我們在端側(cè)模態(tài)模型適配上一直處于主動緊跟的節(jié)奏。先后適配了國內(nèi)最早開源的模態(tài)大模MiniCP
    的頭像 發(fā)表于 04-21 10:56 ?3170次閱讀
    愛芯通元NPU適配Qwen2.5-VL-3B視覺<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    ??低暟l(fā)布模態(tài)模型AI融合巡檢超腦

    基于??涤^瀾大模型技術體系,??低曂瞥鲂乱淮?b class='flag-5'>多模態(tài)模型AI融合巡檢超腦,全面升級人、車、行為、事件等算法,為行業(yè)帶來全新的
    的頭像 發(fā)表于 04-17 17:12 ?1645次閱讀

    移遠通信智能模組全面接入模態(tài)AI大模型,重塑智能交互新體驗

    隨著千行百業(yè)數(shù)智化進程的不斷加速,模態(tài)AI大模型的應用需求不斷攀升,圖像、語音、視頻等多樣化的交互方式正逐漸成為推動行業(yè)變革的新動力。 ? 3月20日,全球物聯(lián)網(wǎng)整體解決方案供應商移遠通信宣布,其
    發(fā)表于 03-21 14:12 ?538次閱讀
    移遠通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>AI大<b class='flag-5'>模型</b>,重塑智能交互新體驗

    移遠通信智能模組全面接入模態(tài)AI大模型,重塑智能交互新體驗

    隨著千行百業(yè)數(shù)智化進程的不斷加速,模態(tài)AI大模型的應用需求不斷攀升,圖像、語音、視頻等多樣化的交互方式正逐漸成為推動行業(yè)變革的新動力。3月20日,全球物聯(lián)網(wǎng)整體解決方案供應商移遠通信宣布,其全系
    的頭像 發(fā)表于 03-20 19:03 ?845次閱讀
    移遠通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>AI大<b class='flag-5'>模型</b>,重塑智能交互新體驗