91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SAM-PT:點幾下鼠標,視頻目標就分割出來了!

CVer ? 來源:機器之心 ? 2023-07-10 15:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

只要在視頻中點幾下鼠標,SAM-PT 就能分割并且追蹤物體的輪廓。

1dc92af0-1ec7-11ee-962d-dac502259ad0.gif

視頻分割在許多場景下被廣泛應(yīng)用。電影視覺效果的增強、自動駕駛的理解場景,以及視頻會議中創(chuàng)建虛擬背景等等都需要應(yīng)用到視頻分割。近期,基于深度學(xué)習(xí)的視頻分割已經(jīng)有著不錯的表現(xiàn)了,但這依舊是計算機視覺中一個具有挑戰(zhàn)性的話題。

在半監(jiān)督視頻對象分割(VOS)和視頻實例分割(VIS)方面,目前的主流方法處理未知數(shù)據(jù)時表現(xiàn)一般,是在零樣本情況下更是「一言難盡」。零樣本情況就是指,這些模型被遷移應(yīng)用到未經(jīng)過訓(xùn)練的視頻領(lǐng)域,并且這些視頻中包含訓(xùn)練之外的物體。而表現(xiàn)一般的原因就是沒有特定的視頻分割數(shù)據(jù)進行微調(diào),這些模型就很難在各種場景中保持一致的性能。

克服這個難題,就需要將在圖像分割領(lǐng)域取得成功的模型應(yīng)用到視頻分割任務(wù)中。這就不得不提到 Segment Anything Model(SAM,分割一切模型)了。

SAM 是一個強大的圖像分割基礎(chǔ)模型,它在規(guī)模龐大的 SA-1B 數(shù)據(jù)集上進行訓(xùn)練,這其中包含 1100 萬張圖像和 10 億多個掩碼。大量的訓(xùn)練讓 SAM 了具備驚人的零樣本泛化能力。SAM 可以在不需要任何標注的情況下,對任何圖像中的任何物體進行分割,引起了業(yè)界的廣泛反響,甚至被稱為計算機視覺領(lǐng)域的 GPT。

盡管 SAM 在零樣本圖像分割上展現(xiàn)了巨大的能力,但它并非「天生」就適用于視頻分割任務(wù)。

最近研究人員已經(jīng)開始致力于將 SAM 應(yīng)用于視頻分割。雖然這些方法恢復(fù)了大部分分布內(nèi)數(shù)據(jù)的性能,但在零樣本情況下,它們還是無法保持 SAM 的原始性能。其他不使用 SAM 的方法,如 SegGPT,可以通過視覺 prompt 成功解決一些分割問題,但仍需要對第一幀視頻進行掩碼注釋。這個問題在零樣本視頻分割中的關(guān)鍵難題。當研究者試圖開發(fā)能夠容易地推廣到未見過的場景,并在不同的視頻領(lǐng)域持續(xù)提供高質(zhì)量分割的方法時,這個難題就顯得更加「絆腳」。

現(xiàn)在,有研究者提出了 SAM-PT(Segment Anything Meets Point Tracking),這或許能夠?qū)Α附O腳石」的消除提供新的思路。

1f20b260-1ec7-11ee-962d-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2307.01197

GitHub 地址:https://github.com/SysCV/sam-pt

如圖 1 所示,SAM-PT 第一種將稀疏點追蹤與 SAM 相結(jié)合用于視頻分割的方法。與使用以目標為中心的密集特征匹配或掩碼傳播不同,這是一種點驅(qū)動的方法。它利用嵌入在視頻中的豐富局部結(jié)構(gòu)信息來跟蹤點。因此,它只需要在第一幀中用稀疏點注釋目標對象,并在未知對象上有更好的泛化能力,這一優(yōu)勢在 UVO 基準測試中得到了證明。該方法還有助于保持 SAM 的固有靈活性,同時有效地擴展了它在視頻分割方面的能力。

1f403b1c-1ec7-11ee-962d-dac502259ad0.png

SAM-PT 使用最先進的點追蹤器(如 PIPS)預(yù)測稀疏點軌跡,以此提示 SAM,利用其多功能性進行視頻分割。研究人員發(fā)現(xiàn),使用來自掩碼標簽的 K-Medoids 聚類中心來初始化跟蹤點,是與提示 SAM 最兼容的策略。追蹤正反兩方面的點可以將目標物體從其背景中清晰地劃分出來。

為了進一步優(yōu)化輸出的掩碼,研究人員提出了多個掩碼解碼通道,將兩種類型的點進行整合。此外,他們還設(shè)計了一種點重新初始化策略,隨著時間的推移提高了跟蹤的準確性。這種方法包括丟棄變得不可靠或被遮擋的點,并添加在后續(xù)幀 (例如當物體旋轉(zhuǎn)時) 中變得可見的物體部分或部分的點。

值得注意的是,本文的實驗結(jié)果表明,SAM-PT 在幾個視頻分割基準上與現(xiàn)有的零樣本方法不相上下,甚至超過了它們。在訓(xùn)練過程中,SAM-PT 不需要任何視頻分割數(shù)據(jù),這證明了方法的穩(wěn)健性和適應(yīng)性。SAM-PT 具有增強視頻分割任務(wù)進展的潛力,特別是在零樣本場景下。

SAM-PT 方法概覽

盡管 SAM 在圖像分割方面展示出令人印象深刻的能力,但其在處理視頻分割任務(wù)方面存在固有的局限性。我們提出的 "Segment Anything Meets Point Tracking"(SAM-PT)方法有效地將 SAM 擴展到視頻領(lǐng)域,為視頻分割提供了強大的支持,而無需對任何視頻分割數(shù)據(jù)進行訓(xùn)練。

如圖 2 所示,SAM-PT 主要由四個步驟組成:

1) 為第一幀選擇查詢點;

2) 使用點跟蹤器,將這些點傳播到所有視頻幀;

3) 利用 SAM 生成基于傳播點的逐幀分割掩碼;

4) 通過從預(yù)測的掩碼中抽取查詢點來重新初始化這個過程。

1f7efc08-1ec7-11ee-962d-dac502259ad0.png

選擇查詢點。該過程的第一步是定義第一個視頻幀中的查詢點。這些查詢點要么表示目標對象 (正點),要么指定背景和非目標對象 (負點)。用戶可以手動、交互式地提供查詢點,也可以從真實掩碼派生出查詢點。

考慮到它們的幾何位置或特征差異性,用戶可以使用不同的點采樣技術(shù)從真實掩碼中獲得查詢點,如圖 3 所示。這些采樣技術(shù)包括:隨機采樣、K-Medoids 采樣、Shi-Tomasi 采樣和混合采樣。

1fcf9fc8-1ec7-11ee-962d-dac502259ad0.png

點跟蹤。從查詢點開始,采用穩(wěn)健的點跟蹤器在視頻中的所有幀中傳播點,從而得到點的軌跡和遮擋分數(shù)。

采用最先進的點跟蹤器 PIPS 來傳播點,因為 PIPS 對長期跟蹤挑戰(zhàn) (如目標遮擋和再現(xiàn)) 顯示出適當?shù)姆€(wěn)健性。實驗也表明,這比鏈式光流傳播或第一幀對應(yīng)等方法更有效。

分割。在預(yù)測的軌跡中,未遮擋的點作為目標對象在整個視頻中的位置的指示器。這時就可以使用非遮擋點來提示 SAM,并利用其固有的泛化能力來輸出每幀分割掩碼預(yù)測(如圖 4 所示) 。

201e0de8-1ec7-11ee-962d-dac502259ad0.png

點跟蹤重新初始化。一旦達到 h = 8 幀的預(yù)測期,用戶就可以選擇使用預(yù)測掩碼對查詢點進行重新初始化,并將變體表示為 SAM-PT-reinit。在到達這個水平線時,會有 h 個預(yù)測的掩碼,并將使用最后一個預(yù)測的掩模來采樣新的點。在這一階段,之前所有的點都被丟棄,用新采樣點來代替。

根據(jù)上面的方法,就可以將這個視頻進行流暢的分割了,如下圖:

2072885a-1ec7-11ee-962d-dac502259ad0.gif

看看更多的展示效果:

219e813e-1ec7-11ee-962d-dac502259ad0.gif

2233b6f0-1ec7-11ee-962d-dac502259ad0.gif

SAM-PT 與以目標為中心的掩碼傳播的比較

SAM- PT 將稀疏點跟蹤與提示 SAM 相結(jié)合,并區(qū)別于傳統(tǒng)依賴于密集目標掩碼傳播的視頻分割方法,如表 1 所示。

與在訓(xùn)練期間不利用視頻分割數(shù)據(jù)的方法相比,SAM-PT 有著與之相當甚至更好的表現(xiàn)。然而,這些方法與那些利用同一域中的視頻分割訓(xùn)練數(shù)據(jù)的方法, 如 XMem 或 DeAOT 之間還是存在著性能差距。

綜上所述,SAM-PT 是第一個引入稀疏點傳播并結(jié)合提示圖像分割基礎(chǔ)模型,進行零樣本視頻對象分割的方法。它為關(guān)于視頻對象分割的研究提供了一個新的視角,并增加了一個新的維度。

22bf681c-1ec7-11ee-962d-dac502259ad0.png

實驗結(jié)果

對于視頻物體分割,研究團隊在四個 VOS 數(shù)據(jù)集上評估了他們的方法,分別是 DAVIS 2016, DAVIS 2017, YouTube-VOS 2018, 和 MOSE 2023。

對于視頻實例分割,他們在 UVO v1.0 數(shù)據(jù)集的 densevideo 任務(wù)上評估了該方法。

他們還用圖像實例分割中的標準評估指標來評估所提出方法,這也適用于視頻實例分割。這些指標包括平均準確率(AP)和基于 IoU 的平均召回率(AR)。

視頻物體分割的結(jié)果

在 DAVIS 2017 數(shù)據(jù)集上,本文提出的方法優(yōu)于其他沒有經(jīng)過任何視頻物體分割數(shù)據(jù)訓(xùn)練的方法,如表 3 所示。

234101d8-1ec7-11ee-962d-dac502259ad0.png

SAM-PT 在 YouTube-VOS 2018 和 MOSE 2023 數(shù)據(jù)集上的表現(xiàn)也超過了 PerSAM-F,取得了 67.0 和 41.0 的平均分,如表 4、表 5 所示。然而,在不同的掩碼訓(xùn)練數(shù)據(jù)下,與 SegGPT 相比,SAM-PT 在這兩個數(shù)據(jù)集上的表現(xiàn)有所欠缺。

23837c84-1ec7-11ee-962d-dac502259ad0.png

定性分析。在 DAVIS 2017 上對 SAM-PT 和 SAM-PTreinit 成功的視頻分割的可視化結(jié)果分別見圖 7a 和圖 7b。值得注意的是,圖 8 展示了對未知網(wǎng)絡(luò)視頻的成功視頻分割 —— 來自受動畫影響的動畫電視系列《降世神通:最后的氣宗》的片段,這表明了所提出方法的零樣本能力。

23a88a24-1ec7-11ee-962d-dac502259ad0.png

局限和挑戰(zhàn)。SAM-TP 的零樣本性能很有競爭力,但仍然存在著一些局限。這些局限主要集中在點跟蹤器在處理遮擋、小物體、運動模糊和重新識別方面。在這些方面,點跟蹤器的錯誤會傳播到未來的視頻幀中。

圖 7c 展示了 DAVIS 2017 中的這些問題實例,圖 9 展示了《降世神通:最后的氣宗》片段中的其他實例。

24815408-1ec7-11ee-962d-dac502259ad0.png

視頻實例分割的結(jié)果

在相同的遮罩建議下,SAM-PT 明顯優(yōu)于 TAM,盡管 SAM-PT 沒有在任何視頻分割數(shù)據(jù)上訓(xùn)練。TAM 是一個結(jié)合了 SAM 和 XMem 的并行方法,其中 XMem 在 BL30K 上進行了預(yù)訓(xùn)練,并在 DAVIS 和 YouTube-VOS 上進行了訓(xùn)練,但沒有在 UVO 上訓(xùn)練。

另一方面,SAM-PT 結(jié)合了 SAM 和 PIPS 點跟蹤方法,這兩種方法都沒有經(jīng)過視頻分割任務(wù)的訓(xùn)練。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像分割
    +關(guān)注

    關(guān)注

    4

    文章

    182

    瀏覽量

    18776
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52109
  • SAM
    SAM
    +關(guān)注

    關(guān)注

    0

    文章

    118

    瀏覽量

    34396

原文標題:分割一切視頻版來了!SAM-PT:點幾下鼠標,視頻目標就分割出來了!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    用matlab編程實現(xiàn)圖像的字符分割

    請問,怎么用matlab編程實現(xiàn)將鎖個圖像進行字符分割,可將圖像中的七段數(shù)碼管單獨分割出來并保存?求程序代碼。。。。
    發(fā)表于 01-02 19:09

    matlab圖像分割

    `請問怎么用matlab怎么把圖中的荔枝分割出來??求代碼或者大概過程!!`
    發(fā)表于 05-27 23:44

    除了視頻分割,這款軟件還能進行視頻合并、壓縮、去水印

    喝醉般的表情管理的多段視頻片段分割出來并做成合集,你想不想也操作一波?下面小編來教你工具準備一臺電腦相關(guān)視頻片段迅捷視頻轉(zhuǎn)換器PC版軟件詳細步驟1.下載并安裝迅捷
    發(fā)表于 05-14 15:41

    基于筆畫提取和顏色模型的視頻文字分割算法

    提出綜合利用視頻文字時空、筆畫、顏色和幾何特征的文字分割算法,快速準確地從復(fù)雜背景的視頻圖像中分割出文字。利用多幀融合進行圖像增強,基于筆畫寬度特征,使用筆畫
    發(fā)表于 03-25 08:48 ?8次下載

    基于多層采樣多閾值的目標分割算法

    文中提出了一種新的閾值化方法用來在自適應(yīng)背景的應(yīng)用中把運動物體從景物中分割出來。傳統(tǒng)的方法是用一個簡單的閾值來分割物體,但是其中存在一個問題就是難以取得一
    發(fā)表于 12-18 16:12 ?9次下載

    3D視頻目標分割與快速跟蹤

    3D視頻目標分割與快速跟蹤_朱仲杰
    發(fā)表于 01-07 16:00 ?0次下載

    視覺顯著性目標分割提取

    圖像分割在許多圖像處理和機器視覺問題中是一個非常重要的過程,是將一幅圖分割成幾個顯著的區(qū)域,然而不能將其中最顯著的目標直接分割出來,需要進一步處理。為此本文采用顯著性檢測的算法實現(xiàn)了對
    發(fā)表于 12-06 14:27 ?0次下載

    使用OpenCv進行運動目標的檢測的課程論文免費下載

    運動目標檢測是智能視頻監(jiān)控系統(tǒng)的重要組成部分它是指從視頻圖像序列中將變化的目標從背景中分割出來。一旦檢測出
    發(fā)表于 11-07 17:52 ?6次下載
    使用OpenCv進行運動<b class='flag-5'>目標</b>的檢測的課程論文免費下載

    動態(tài)外觀模型和高階能量的雙邊視頻目標分割方法

    針對復(fù)雜場景下視頻日標分割質(zhì)量不佳和時間效率低下的問題,提岀了一種動態(tài)外觀模型和高階能量的雙邊視頻目標分割方法,將
    發(fā)表于 04-07 15:44 ?8次下載
    動態(tài)外觀模型和高階能量的雙邊<b class='flag-5'>視頻</b><b class='flag-5'>目標</b><b class='flag-5'>分割</b>方法

    分割相較圖像分割的優(yōu)勢是啥?

    自動駕駛領(lǐng)域的下游任務(wù),我認為主要包括目標檢測、語義分割、實例分割和全景分割。其中目標檢測是指在區(qū)域中提取
    的頭像 發(fā)表于 12-14 14:25 ?3817次閱讀

    SAM分割模型是什么?

    SAM是一類處理圖像分割任務(wù)的通用模型。與以往只能處理某種特定類型圖片的圖像分割模型不同,SAM可以處理所有類型的圖像。
    的頭像 發(fā)表于 05-20 09:30 ?3736次閱讀

    基于SAM設(shè)計的自動化遙感圖像實例分割方法

    RSPrompter的目標是學(xué)習(xí)如何為SAM生成prompt輸入,使其能夠自動獲取語義實例級掩碼。相比之下,原始的SAM需要額外手動制作prompt,并且是一種類別無關(guān)的分割方法。
    發(fā)表于 07-04 10:45 ?2391次閱讀
    基于<b class='flag-5'>SAM</b>設(shè)計的自動化遙感圖像實例<b class='flag-5'>分割</b>方法

    復(fù)旦開源LVOS:面向真實場景的長時視頻目標分割數(shù)據(jù)集

    現(xiàn)有的視頻目標分割(VOS)數(shù)據(jù)集主要關(guān)注于短時視頻,平均時長在3-5秒左右,并且視頻中的物體大部分時間都是可見的。然而在實際應(yīng)用過程中,用
    的頭像 發(fā)表于 09-04 16:33 ?2073次閱讀
    復(fù)旦開源LVOS:面向真實場景的長時<b class='flag-5'>視頻</b><b class='flag-5'>目標</b><b class='flag-5'>分割</b>數(shù)據(jù)集

    圖像分割目標檢測的區(qū)別是什么

    的區(qū)別。 定義 圖像分割是將圖像劃分為若干個區(qū)域或?qū)ο蟮倪^程,這些區(qū)域或?qū)ο缶哂邢嗨频膶傩?,如顏色、紋理或形狀。圖像分割的目的是將圖像中的不同對象或區(qū)域分離出來,以便進行進一步的分析和處理。
    的頭像 發(fā)表于 07-17 09:53 ?3276次閱讀

    傳音TEX AI團隊斬獲ICCV 2025大型視頻目標分割挑戰(zhàn)賽雙料亞軍

    近日,國際計算機視覺大會(ICCV 2025)舉辦了第七屆大型視頻目標分割挑戰(zhàn)賽(LSVOS Challenge),傳音TEX AI團隊憑借自主研發(fā)的創(chuàng)新技術(shù)方案,在復(fù)雜視頻
    的頭像 發(fā)表于 10-31 09:42 ?558次閱讀
    傳音TEX AI團隊斬獲ICCV 2025大型<b class='flag-5'>視頻</b><b class='flag-5'>目標</b><b class='flag-5'>分割</b>挑戰(zhàn)賽雙料亞軍