91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CVer

文章:215 被閱讀:41.7w 粉絲數(shù):3 關(guān)注數(shù):0 點(diǎn)贊數(shù):1

廣告

北工大校友Cheng Zhang獲SIGGRAPH最佳博士論文獎(jiǎng)!

SIGGRAPH 博士論文獎(jiǎng)設(shè)立于 2016 年,每年頒發(fā)給在計(jì)算機(jī)圖形學(xué)和交互技術(shù)領(lǐng)域成功答辯并完....
的頭像 CVer 發(fā)表于 07-04 10:55 ?1910次閱讀
北工大校友Cheng Zhang獲SIGGRAPH最佳博士論文獎(jiǎng)!

基于未知物體進(jìn)行6D追蹤和3D重建的方法

如今,計(jì)算機(jī)視覺(jué)社區(qū)已經(jīng)廣泛展開(kāi)了對(duì)物體姿態(tài)的 6D 追蹤和 3D 重建。本文中英偉達(dá)提出了同時(shí)對(duì)未....
的頭像 CVer 發(fā)表于 07-03 11:24 ?1422次閱讀
基于未知物體進(jìn)行6D追蹤和3D重建的方法

構(gòu)建一個(gè)移動(dòng)端友好的SAM方案MobileSAM

導(dǎo)讀 本文提出一種"解耦蒸餾"方案對(duì)SAM的ViT-H解碼器進(jìn)行蒸餾,同時(shí)所得輕量級(jí)編碼器可與SAM....
的頭像 CVer 發(fā)表于 06-30 10:59 ?2567次閱讀
構(gòu)建一個(gè)移動(dòng)端友好的SAM方案MobileSAM

DragGAN開(kāi)源效果如何

動(dòng)動(dòng)鼠標(biāo),讓圖片變「活」,成為你想要的模樣。 在 AIGC 的神奇世界里,我們可以在圖像上通過(guò)「拖曳....
的頭像 CVer 發(fā)表于 06-30 10:57 ?1009次閱讀

OpenOOD v1.5:更全面、更精確的分布外檢測(cè)代碼庫(kù)及測(cè)試平臺(tái)

對(duì)于訓(xùn)練好的圖像分類(lèi)器,能讓其可靠地在開(kāi)放世界中工作的一個(gè)關(guān)鍵能力便是檢測(cè)未知的、分布外的(out-....
的頭像 CVer 發(fā)表于 06-28 15:57 ?1537次閱讀
OpenOOD v1.5:更全面、更精確的分布外檢測(cè)代碼庫(kù)及測(cè)試平臺(tái)

中科院提出FastSAM快速分割一切模型!比Meta原版提速50倍!

通過(guò)將分割?切任務(wù)重新劃分為全實(shí)例分割和提?指導(dǎo)選擇兩個(gè)?任務(wù),?帶實(shí)例分割分?的常規(guī) CNN 檢測(cè)....
的頭像 CVer 發(fā)表于 06-28 14:33 ?2626次閱讀
中科院提出FastSAM快速分割一切模型!比Meta原版提速50倍!

谷歌教你用"注意力"提升產(chǎn)品體驗(yàn)

之前的模型大多利用手工制作的視覺(jué)線索特征,如顏色/亮度對(duì)比度、邊緣和形狀等,最近也有一些方法轉(zhuǎn)向基于....
的頭像 CVer 發(fā)表于 06-27 14:37 ?909次閱讀
谷歌教你用"注意力"提升產(chǎn)品體驗(yàn)

論文插圖也能自動(dòng)生成了!用到了擴(kuò)散模型,還被ICLR 2023接收!

然而生成圖表也面臨一些挑戰(zhàn),它需要表示框、箭頭、文本等離散組件之間的復(fù)雜關(guān)系。與生成自然圖像不同,論....
的頭像 CVer 發(fā)表于 06-27 14:32 ?1243次閱讀
論文插圖也能自動(dòng)生成了!用到了擴(kuò)散模型,還被ICLR 2023接收!

基于通用的模型PADing解決三大分割任務(wù)

1. 研究動(dòng)機(jī) 圖像分割旨在將具有不同語(yǔ)義的像素進(jìn)行分類(lèi)進(jìn)而分組,例如類(lèi)別或?qū)嵗?,近年?lái)取得飛速的發(fā)....
的頭像 CVer 發(fā)表于 06-26 10:39 ?1413次閱讀
基于通用的模型PADing解決三大分割任務(wù)

基于Transformer的大型語(yǔ)言模型(LLM)的內(nèi)部機(jī)制

本文旨在更好地理解基于 Transformer 的大型語(yǔ)言模型(LLM)的內(nèi)部機(jī)制,以提高它們的可靠....
的頭像 CVer 發(fā)表于 06-25 15:08 ?2511次閱讀
基于Transformer的大型語(yǔ)言模型(LLM)的內(nèi)部機(jī)制

復(fù)旦和Meta提出Open-VCLIP:兼顧時(shí)序建模與開(kāi)集識(shí)別的視頻理解模型

本文提出了一種新的CLIP向視頻領(lǐng)域的遷移方法,找到模型泛化和專(zhuān)用化之間的平衡,讓模型既能識(shí)別微調(diào)時(shí)....
的頭像 CVer 發(fā)表于 06-25 15:04 ?2072次閱讀
復(fù)旦和Meta提出Open-VCLIP:兼顧時(shí)序建模與開(kāi)集識(shí)別的視頻理解模型

NVIDIA拿下CVPR 2023 3D Occupancy預(yù)測(cè)第一名!

在傳統(tǒng)的三維物體檢測(cè)任務(wù)中,前景物體通常由三維邊界框表示。然而,這種方法存在一些弊端,一方面,現(xiàn)實(shí)世....
的頭像 CVer 發(fā)表于 06-21 14:04 ?1560次閱讀
NVIDIA拿下CVPR 2023 3D Occupancy預(yù)測(cè)第一名!

650億參數(shù),8塊GPU就能全參數(shù)微調(diào)!邱錫鵬團(tuán)隊(duì)把大模型門(mén)檻打下來(lái)了!

在上周復(fù)旦大學(xué)邱錫鵬團(tuán)隊(duì)提交的論文《Full Parameter Fine-tuning for L....
的頭像 CVer 發(fā)表于 06-21 14:00 ?1597次閱讀
650億參數(shù),8塊GPU就能全參數(shù)微調(diào)!邱錫鵬團(tuán)隊(duì)把大模型門(mén)檻打下來(lái)了!

純隨機(jī)數(shù)學(xué)無(wú)限生成逼真3D世界火了!

盡管AI發(fā)展迅猛,但目前CV領(lǐng)域的許多任務(wù)仍然缺乏高質(zhì)量的數(shù)據(jù),3D尤甚。一個(gè)解決辦法是用合成數(shù)據(jù)。....
的頭像 CVer 發(fā)表于 06-20 14:47 ?964次閱讀
純隨機(jī)數(shù)學(xué)無(wú)限生成逼真3D世界火了!

顏寧新論文突然上線Nature子刊:結(jié)構(gòu)是AI無(wú)能為力的

這篇論文的通訊作者是結(jié)構(gòu)生物學(xué)家顏寧,主要從事與疾病相關(guān)的重要膜轉(zhuǎn)運(yùn)蛋白、電壓門(mén)控離子通道的結(jié)構(gòu)與工....
的頭像 CVer 發(fā)表于 06-19 16:08 ?1063次閱讀
顏寧新論文突然上線Nature子刊:結(jié)構(gòu)是AI無(wú)能為力的

CVPR 2023最佳論文候選!真實(shí)高精3D物體數(shù)據(jù)集OmniObject3D

面向真實(shí) 3D 物體的感知、理解、重建與生成是計(jì)算機(jī)視覺(jué)領(lǐng)域一直倍受關(guān)注的問(wèn)題,也在近年來(lái)取得了飛速....
的頭像 CVer 發(fā)表于 06-19 15:30 ?2424次閱讀
CVPR 2023最佳論文候選!真實(shí)高精3D物體數(shù)據(jù)集OmniObject3D

基于交互環(huán)境的生成式預(yù)訓(xùn)練和指令微調(diào)方法

引言 距離上次的長(zhǎng)篇大論,已經(jīng)過(guò)去了半年有余。這段時(shí)間,對(duì)于AI業(yè)界甚至整個(gè)世界,都是驚心動(dòng)魄的。在....
的頭像 CVer 發(fā)表于 06-19 11:44 ?1179次閱讀
基于交互環(huán)境的生成式預(yù)訓(xùn)練和指令微調(diào)方法

陶哲軒自曝用了"滿血版"GPT-4:人類(lèi)對(duì)信息技術(shù)的期待全部需要校準(zhǔn)

我可以將最近的一篇數(shù)學(xué)預(yù)印本的前幾頁(yè)P(yáng)DF輸入GPT-4,讓它生成半打有關(guān)該預(yù)印本的專(zhuān)家可能會(huì)提出的....
的頭像 CVer 發(fā)表于 06-19 10:52 ?1027次閱讀
陶哲軒自曝用了"滿血版"GPT-4:人類(lèi)對(duì)信息技術(shù)的期待全部需要校準(zhǔn)

一個(gè)通用的時(shí)空預(yù)測(cè)學(xué)習(xí)框架

本文介紹CVPR2023的中稿論文:Temporal Attention Unit: Towards....
的頭像 CVer 發(fā)表于 06-19 10:27 ?2817次閱讀
一個(gè)通用的時(shí)空預(yù)測(cè)學(xué)習(xí)框架

基于預(yù)訓(xùn)練模型和語(yǔ)言增強(qiáng)的零樣本視覺(jué)學(xué)習(xí)

在一些非自然圖像中要比傳統(tǒng)模型表現(xiàn)更好 CoOp 增加一些 prompt 會(huì)讓模型能力進(jìn)一步提升 怎....
的頭像 CVer 發(fā)表于 06-15 16:36 ?1190次閱讀
基于預(yù)訓(xùn)練模型和語(yǔ)言增強(qiáng)的零樣本視覺(jué)學(xué)習(xí)

LeCun世界模型首個(gè)研究!自監(jiān)督視覺(jué)像人一樣學(xué)習(xí)和推理!

今日,Meta 推出了首個(gè)基于 LeCun 世界模型概念的 AI 模型。該模型名為圖像聯(lián)合嵌入預(yù)測(cè)架....
的頭像 CVer 發(fā)表于 06-15 15:47 ?828次閱讀
LeCun世界模型首個(gè)研究!自監(jiān)督視覺(jué)像人一樣學(xué)習(xí)和推理!

基于顏色感知背景的文檔圖像陰影去除

圖2是模型的整體結(jié)構(gòu)圖,它包含顏色感知背景提取網(wǎng)絡(luò)(Color-aware Background E....
的頭像 CVer 發(fā)表于 06-12 14:20 ?2155次閱讀
基于顏色感知背景的文檔圖像陰影去除

李飛飛團(tuán)隊(duì)新作SiamMAE:孿生掩碼自編碼器,刷榜視覺(jué)自監(jiān)督方法!

先隨機(jī)采樣兩個(gè)視頻幀,并進(jìn)行非對(duì)稱(chēng)掩碼操作;然后SiamMAE編碼器網(wǎng)絡(luò)對(duì)兩個(gè)幀進(jìn)行獨(dú)立處理,最后使....
的頭像 CVer 發(fā)表于 06-12 14:18 ?1246次閱讀
李飛飛團(tuán)隊(duì)新作SiamMAE:孿生掩碼自編碼器,刷榜視覺(jué)自監(jiān)督方法!

基于一種移動(dòng)端高性能 Stable Diffusion 模型

? Stable Diffusion (SD)是當(dāng)前最熱門(mén)的文本到圖像(text to image)....
的頭像 CVer 發(fā)表于 06-12 10:14 ?1979次閱讀
基于一種移動(dòng)端高性能 Stable Diffusion 模型

Transformer在下一個(gè)token預(yù)測(cè)任務(wù)上的SGD訓(xùn)練動(dòng)態(tài)

? 【導(dǎo)讀】 AI理論再進(jìn)一步,破解ChatGPT指日可待? Transformer架構(gòu)已經(jīng)橫掃了包....
的頭像 CVer 發(fā)表于 06-12 10:11 ?1523次閱讀
Transformer在下一個(gè)token預(yù)測(cè)任務(wù)上的SGD訓(xùn)練動(dòng)態(tài)

NUS&深大提出VisorGPT:為可控文本圖像生成定制空間條件

本文將空間條件中物體的形狀、位置以及它們之間的關(guān)系等性質(zhì)總結(jié)為視覺(jué)先驗(yàn)(Visual Prior),....
的頭像 CVer 發(fā)表于 06-11 10:34 ?1027次閱讀
NUS&深大提出VisorGPT:為可控文本圖像生成定制空間條件

多模態(tài)新任務(wù)和新數(shù)據(jù)集!NTU提出廣義引用分割問(wèn)題GRES

RES在圖形編輯、視頻制作、人機(jī)交互和機(jī)器人等眾多應(yīng)用領(lǐng)域具有巨大潛力。目前,大多數(shù)現(xiàn)有方法都遵循在....
的頭像 CVer 發(fā)表于 06-08 15:06 ?1225次閱讀
多模態(tài)新任務(wù)和新數(shù)據(jù)集!NTU提出廣義引用分割問(wèn)題GRES

開(kāi)源了!UniControl:可控視覺(jué)生成的統(tǒng)一擴(kuò)散模型

現(xiàn)有的可控圖片生成模型都是針對(duì)單一的模態(tài)進(jìn)行設(shè)計(jì),然而 Taskonomy [3] 等工作證明不同的....
的頭像 CVer 發(fā)表于 06-08 15:01 ?1533次閱讀
開(kāi)源了!UniControl:可控視覺(jué)生成的統(tǒng)一擴(kuò)散模型

微軟提出Control-GPT:用GPT-4實(shí)現(xiàn)可控文本到圖像生成!

該研究提出了一個(gè)簡(jiǎn)單而有效的框架 Control-GPT,它利用 LLM 的強(qiáng)大功能根據(jù)文本 pro....
的頭像 CVer 發(fā)表于 06-05 15:31 ?1694次閱讀
微軟提出Control-GPT:用GPT-4實(shí)現(xiàn)可控文本到圖像生成!

阿里&華科大提出ONE-PEACE:更好的通用表征模型,刷新多個(gè)SOTA!

ImageBind算是跨出了重要的一步,但我之前文章提了我的個(gè)人觀點(diǎn),就是采用小規(guī)模其他模態(tài)和圖像的....
的頭像 CVer 發(fā)表于 06-02 17:26 ?1731次閱讀
阿里&華科大提出ONE-PEACE:更好的通用表征模型,刷新多個(gè)SOTA!