91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

多倫多大學(xué)&NVIDIA最新成果 圖像標(biāo)注速度提升10倍

ml8z_IV_Technol ? 來源:fqj ? 2019-05-05 09:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

圖像標(biāo)注速度提升10倍!

這是多倫多大學(xué)與英偉達(dá)聯(lián)合公布的一項(xiàng)最新研究:Curve-GCN的應(yīng)用結(jié)果。

Curve-GCN是一種高效交互式圖像標(biāo)注方法,其性能優(yōu)于Polygon-RNN++。在自動(dòng)模式下運(yùn)行時(shí)間為29.3ms,在交互模式下運(yùn)行時(shí)間為2.6ms,比Polygon-RNN ++分別快10倍和100倍。

數(shù)據(jù)標(biāo)注是人工智能產(chǎn)業(yè)的基礎(chǔ),在機(jī)器的世界里,圖像與語音、視頻等一樣,是數(shù)據(jù)的一個(gè)種類。

對(duì)象實(shí)例分割是在圖像中概括給定類的所有對(duì)象的問題,這一任務(wù)在過去幾年受到了越來越多的關(guān)注,傳統(tǒng)標(biāo)記工具通常需要人工先在圖片上點(diǎn)擊光標(biāo)描記物體邊緣來進(jìn)行標(biāo)記。

然而,手動(dòng)跟蹤對(duì)象邊界是一個(gè)費(fèi)力的過程,每個(gè)對(duì)象大概需要30-60秒的時(shí)間。

為了緩解這個(gè)問題,已經(jīng)提出了許多交互式圖像分割技術(shù),其通過重要因素加速注釋。但是交互式分割方法大多是逐像素的(比如DEXTR),在顏色均勻的區(qū)域很難控制,所以最壞的情況下仍然需要很多點(diǎn)擊。

Polygon-RNN將humans-in-the-loop(人機(jī)回圈)過程進(jìn)行構(gòu)架,在此過程中模型按順序預(yù)測(cè)多邊形的頂點(diǎn)。通過糾正錯(cuò)誤的頂點(diǎn),注釋器可以在發(fā)生錯(cuò)誤時(shí)進(jìn)行干預(yù)。該模型通過調(diào)整校正來繼續(xù)其預(yù)測(cè)。 Polygon-RNN顯示在人類協(xié)議水平上產(chǎn)生注釋,每個(gè)對(duì)象實(shí)例只需點(diǎn)擊幾下。這里最糟糕的情況是多邊形頂點(diǎn)的數(shù)量,大多數(shù)對(duì)象的范圍最多為30-40個(gè)點(diǎn)。

然而,模型的重復(fù)性將可擴(kuò)展性限制為更復(fù)雜的形狀,導(dǎo)致更難的訓(xùn)練和更長(zhǎng)的推理。此外,期望注釋器按順序糾正錯(cuò)誤,這在實(shí)踐中通常是具有挑戰(zhàn)性的。

最新研究成果中,研究人員將對(duì)象注釋框架化為回歸問題,其中所有頂點(diǎn)的位置被同時(shí)預(yù)測(cè)。

在Curve-GCN中,注釋器會(huì)選擇一個(gè)對(duì)象,然后選擇多邊形或樣條輪廓。

Curve-GCN自動(dòng)地勾勒出對(duì)象的輪廓

Curve-GCN允許交互式更正,并且可以自動(dòng)重新預(yù)測(cè)多邊形/樣條

與Polygon-RNN + +相比:

Curve-GCN具有多邊形或樣條曲線參數(shù)

Curve-GCN可同時(shí)預(yù)測(cè)控制點(diǎn)(更快)

初始化預(yù)測(cè)

人工校正

模型校正

模型是在CityScapes數(shù)據(jù)集上訓(xùn)練的

自動(dòng)模式下的比較。從左到右:ground-truth, Polygon-GCN, Spline-GCN, ps - deeplab

跨域自動(dòng)模式。(上)cityscaps訓(xùn)練模型的開箱即用輸出,(下)使用來自新領(lǐng)域的10%的數(shù)據(jù)進(jìn)行微調(diào)。

多倫多大學(xué)&NVIDIA最新成果 圖像標(biāo)注速度提升10倍

多倫多大學(xué)&NVIDIA最新成果 圖像標(biāo)注速度提升10倍

將Polygon和Spline-GCN與Polygon-RNN ++和PSP-DeepLab進(jìn)行比較

模型在最先進(jìn)的基礎(chǔ)上進(jìn)行了改進(jìn),速度顯著加快,允許只具有局部效果的交互式更正,從而為注釋器提供了更多的控制。這將導(dǎo)致更好的整體注釋策略。

論文摘要

通過邊界跟蹤來手動(dòng)標(biāo)記對(duì)象是一個(gè)繁重的過程。在Polygon-RNN ++中,作者提出了Polygon-RNN,它使用CNN-RNN架構(gòu)以循環(huán)方式產(chǎn)生多邊形注釋,允許通過humans-in-the-loop(人機(jī)回圈)的方式進(jìn)行交互式校正。

我們提出了一個(gè)新的框架,通過使用圖形卷積網(wǎng)絡(luò)(GCN)同時(shí)預(yù)測(cè)所有頂點(diǎn),減輕了Polygon-RNN的時(shí)序性。我們的模型是端到端訓(xùn)練的。它支持多邊形或樣條對(duì)對(duì)象進(jìn)行標(biāo)注,從而提高了基于線和曲線對(duì)象的標(biāo)注效率。結(jié)果表明,在自動(dòng)模式下,Curve-GCN的性能優(yōu)于現(xiàn)有的所有方法,包括功能強(qiáng)大的PSP-DeepLab,并且在交互模式下,Curve-GCN的效率明顯高于Polygon-RNN++。我們的模型在自動(dòng)模式下運(yùn)行29.3ms,在交互模式下運(yùn)行2.6ms,比Polygon-RNN ++分別快10倍和100倍。

多倫多大學(xué)&NVIDIA最新成果 圖像標(biāo)注速度提升10倍

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7335

    瀏覽量

    94797
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50100

    瀏覽量

    265497
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4087

    瀏覽量

    99217

原文標(biāo)題:多倫多大學(xué)&NVIDIA最新成果:圖像標(biāo)注速度提升10倍!

文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    北大團(tuán)隊(duì)最新研究:AI芯片算力提升數(shù)倍,能效提升超90

    首次實(shí)現(xiàn)后摩爾新器件異質(zhì)集成的多物理域融合傅里葉變換系統(tǒng)。 ? 這一全新計(jì)算架構(gòu)將傅里葉變換計(jì)算速度從當(dāng)前每秒約1300億次提升至每秒約5000億次,算力提升近4,能效
    的頭像 發(fā)表于 01-15 09:31 ?1071次閱讀

    算法工程師不愿做標(biāo)注工作,怎么辦?

    對(duì)于算法而言,圖像標(biāo)注是一項(xiàng)關(guān)鍵性工作,越是大量的新數(shù)據(jù)集標(biāo)注,對(duì)于算法的性能提升越有幫助。但是圖像標(biāo)注
    的頭像 發(fā)表于 12-02 17:56 ?545次閱讀
    算法工程師不愿做<b class='flag-5'>標(biāo)注</b>工作,怎么辦?

    NVIDIA Jetson AGX Thor Developer Kit開發(fā)環(huán)境配置指南

    NVIDIA Jetson AGX Thor 專為物理 AI 打造,與上一代產(chǎn)品 NVIDIA Jetson AGX Orin 相比,生成式 AI 性能最高提升至 5 。通過發(fā)布后的
    的頭像 發(fā)表于 11-08 09:55 ?7271次閱讀
    <b class='flag-5'>NVIDIA</b> Jetson AGX Thor Developer Kit開發(fā)環(huán)境配置指南

    小語種OCR標(biāo)注效率提升10+:PaddleOCR+ERNIE 4.5自動(dòng)標(biāo)注實(shí)戰(zhàn)解析

    摘要 :小語種OCR研發(fā)的核心瓶頸在于高質(zhì)量標(biāo)注數(shù)據(jù)的稀缺與高昂成本。本文介紹一種創(chuàng)新的自動(dòng)化標(biāo)注方案,利用 PaddleOCR 進(jìn)行文本檢測(cè)與裁剪,并調(diào)用 ERNIE 4.5 大模型進(jìn)行雙重預(yù)測(cè)
    的頭像 發(fā)表于 08-29 11:26 ?3645次閱讀
    小語種OCR<b class='flag-5'>標(biāo)注</b>效率<b class='flag-5'>提升</b><b class='flag-5'>10</b>+<b class='flag-5'>倍</b>:PaddleOCR+ERNIE 4.5自動(dòng)<b class='flag-5'>標(biāo)注</b>實(shí)戰(zhàn)解析

    自動(dòng)駕駛數(shù)據(jù)標(biāo)注主要是標(biāo)注什么?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在自動(dòng)駕駛系統(tǒng)的研發(fā)過程中,數(shù)據(jù)標(biāo)注是實(shí)現(xiàn)高性能感知模型的基礎(chǔ)環(huán)節(jié),其核心目標(biāo)是將車輛從環(huán)境中采集到的原始感知數(shù)據(jù)(主要包括圖像、點(diǎn)云、視頻序列等)轉(zhuǎn)化為具有語義信息
    的頭像 發(fā)表于 07-30 11:54 ?1352次閱讀
    自動(dòng)駕駛數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>主要是<b class='flag-5'>標(biāo)注</b>什么?

    什么是自動(dòng)駕駛數(shù)據(jù)標(biāo)注?如何好做數(shù)據(jù)標(biāo)注?

    、精準(zhǔn)且高效的數(shù)據(jù)標(biāo)注流程顯得尤為關(guān)鍵。那什么是數(shù)據(jù)標(biāo)注?如何做數(shù)據(jù)標(biāo)注? 自動(dòng)駕駛數(shù)據(jù)標(biāo)注是指在自動(dòng)駕駛系統(tǒng)所采集的感知數(shù)據(jù)(如攝像頭圖像
    的頭像 發(fā)表于 07-09 09:19 ?1380次閱讀
    什么是自動(dòng)駕駛數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>?如何好做數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>?

    NVIDIA Blackwell GPU優(yōu)化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場(chǎng)景中的性能紀(jì)錄

    前將 67 token / 秒 (TPS) 的速度提升至 253 TPS(提速 3.7 ),而目前這一速度已達(dá) 368 TPS(提速 5.5
    的頭像 發(fā)表于 07-02 19:31 ?3299次閱讀
    <b class='flag-5'>NVIDIA</b> Blackwell GPU優(yōu)化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場(chǎng)景中的性能紀(jì)錄

    NVIDIA在ICRA 2025展示多項(xiàng)最新研究成果

    在亞特蘭大舉行的國(guó)際機(jī)器人與自動(dòng)化大會(huì) (ICRA) 上,NVIDIA 展示了其在生成式 AI、仿真和自主操控領(lǐng)域的多項(xiàng)研究成果。
    的頭像 發(fā)表于 06-06 14:56 ?1418次閱讀

    AI時(shí)代 圖像標(biāo)注不要沒苦硬吃

    識(shí)別算法的性能提升依靠大量的圖像標(biāo)注,傳統(tǒng)模式下,需要人工對(duì)同類型數(shù)據(jù)集進(jìn)行一步步手動(dòng)拉框,這個(gè)過程的痛苦只有做過的人才知道。越多素材的數(shù)據(jù)集對(duì)于算法的提升越有幫助,常規(guī)情況下,一個(gè)2
    的頭像 發(fā)表于 05-20 17:54 ?557次閱讀
    AI時(shí)代   <b class='flag-5'>圖像</b><b class='flag-5'>標(biāo)注</b>不要沒苦硬吃

    意法半導(dǎo)體收購多倫多初創(chuàng)公司Deeplite,助力邊緣AI技術(shù)發(fā)展!

    近日,意法半導(dǎo)體(STMicroelectronics,簡(jiǎn)稱ST)宣布已成功收購加拿大多倫多的初創(chuàng)公司Deeplite。這一戰(zhàn)略性收購旨在加強(qiáng)意法半導(dǎo)體在邊緣人工智能(AI)技術(shù)領(lǐng)域的布局,并將
    的頭像 發(fā)表于 04-28 11:28 ?1115次閱讀
    意法半導(dǎo)體收購<b class='flag-5'>多倫多</b>初創(chuàng)公司Deeplite,助力邊緣AI技術(shù)發(fā)展!

    大模型預(yù)標(biāo)注和自動(dòng)化標(biāo)注在OCR標(biāo)注場(chǎng)景的應(yīng)用

    OCR,即光學(xué)字符識(shí)別,簡(jiǎn)單來說就是利用光學(xué)設(shè)備去捕獲圖像并識(shí)別文字,最終將圖片中的文字轉(zhuǎn)換為可編輯和可搜索的文本。在數(shù)字化時(shí)代,OCR(光學(xué)字符識(shí)別)技術(shù)作為處理圖像中文字信息的關(guān)鍵手段,其標(biāo)注
    的頭像 發(fā)表于 04-15 15:18 ?947次閱讀

    使用NVIDIA CUDA-X庫加速科學(xué)和工程發(fā)展

    NVIDIA GTC 全球 AI 大會(huì)上宣布,開發(fā)者現(xiàn)在可以通過 CUDA-X 與新一代超級(jí)芯片架構(gòu)的協(xié)同,實(shí)現(xiàn) CPU 和 GPU 資源間深度自動(dòng)化整合與調(diào)度,相較于傳統(tǒng)加速計(jì)算架構(gòu),該技術(shù)可使計(jì)算工程工具運(yùn)行速度提升至原來的
    的頭像 發(fā)表于 03-25 15:11 ?1542次閱讀

    開源軟件的價(jià)值解讀 哈佛商學(xué)院和多倫多大學(xué)聯(lián)合撰寫

    “ ?周末分享一篇關(guān)于開源軟件價(jià)值的論文,由哈佛商學(xué)院和多倫多大學(xué)聯(lián)合撰寫,量化地闡述了開源軟件對(duì)經(jīng)濟(jì)及企業(yè)的影響。? ” 原文在這里,大家有時(shí)間可以仔細(xì)閱讀: https
    的頭像 發(fā)表于 03-24 11:11 ?1018次閱讀

    自動(dòng)化標(biāo)注技術(shù)推動(dòng)AI數(shù)據(jù)訓(xùn)練革新

    標(biāo)貝自動(dòng)化數(shù)據(jù)標(biāo)注平臺(tái)在全棧數(shù)據(jù)標(biāo)注場(chǎng)景式中搭載了大模型預(yù)標(biāo)注和自動(dòng)化標(biāo)注能力,并應(yīng)用于3D點(diǎn)云、2D圖像、音頻、文本等數(shù)據(jù)場(chǎng)景的大規(guī)模、復(fù)
    的頭像 發(fā)表于 03-14 16:46 ?1366次閱讀

    標(biāo)貝自動(dòng)化數(shù)據(jù)標(biāo)注平臺(tái)推動(dòng)AI數(shù)據(jù)訓(xùn)練革新

    標(biāo)貝自動(dòng)化數(shù)據(jù)標(biāo)注平臺(tái)在全棧數(shù)據(jù)標(biāo)注場(chǎng)景式中搭載了大模型預(yù)標(biāo)注和自動(dòng)化標(biāo)注能力,并應(yīng)用于3D點(diǎn)云、2D圖像、音頻、文本等數(shù)據(jù)場(chǎng)景的大規(guī)模、復(fù)
    的頭像 發(fā)表于 03-14 16:42 ?1661次閱讀
    標(biāo)貝自動(dòng)化數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>平臺(tái)推動(dòng)AI數(shù)據(jù)訓(xùn)練革新