91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)中圖像分割的方法和應(yīng)用

新機(jī)器視覺 ? 來源:新機(jī)器視覺 ? 作者:missinglink.ai ? 2020-11-27 10:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

介紹使圖像分割的方法,包括傳統(tǒng)方法和深度學(xué)習(xí)方法,以及應(yīng)用場(chǎng)景。

基于人工智能和深度學(xué)習(xí)方法的現(xiàn)代計(jì)算機(jī)視覺技術(shù)在過去10年里取得了顯著進(jìn)展。如今,它被用于圖像分類、人臉識(shí)別、圖像中物體的識(shí)別、視頻分析和分類以及機(jī)器人自動(dòng)駕駛車輛的圖像處理等應(yīng)用上。

許多計(jì)算機(jī)視覺任務(wù)需要對(duì)圖像進(jìn)行智能分割,以理解圖像中的內(nèi)容,并使每個(gè)部分的分析更加容易。今天的圖像分割技術(shù)使用計(jì)算機(jī)視覺深度學(xué)習(xí)模型來理解圖像的每個(gè)像素所代表的真實(shí)物體,這在十年前是無法想象的。

深度學(xué)習(xí)可以學(xué)習(xí)視覺輸入的模式,以預(yù)測(cè)組成圖像的對(duì)象類。用于圖像處理的主要深度學(xué)習(xí)架構(gòu)是卷積神經(jīng)網(wǎng)絡(luò)(CNN),或者是特定的CNN框架,如AlexNet、VGG、Inception和ResNet。計(jì)算機(jī)視覺的深度學(xué)習(xí)模型通常在專門的圖形處理單元(GPU)上訓(xùn)練和執(zhí)行,以減少計(jì)算時(shí)間。

什么是圖像分割?

圖像分割是計(jì)算機(jī)視覺中的一個(gè)關(guān)鍵過程。它包括將視覺輸入分割成片段以簡(jiǎn)化圖像分析。片段表示目標(biāo)或目標(biāo)的一部分,并由像素集或“超像素”組成。圖像分割將像素組織成更大的部分,消除了將單個(gè)像素作為觀察單位的需要。圖像分析有三個(gè)層次:

分類- 將整幅圖片分成“人”、“動(dòng)物”、“戶外”等類別

目標(biāo)檢測(cè)- 檢測(cè)圖像中的目標(biāo)并在其周圍畫一個(gè)矩形,例如一個(gè)人或一只羊。

分割- 識(shí)別圖像的部分,并理解它們屬于什么對(duì)象。分割是進(jìn)行目標(biāo)檢測(cè)和分類的基礎(chǔ)。

語義分割 vs. 實(shí)例分割

在分割過程本身,有兩個(gè)粒度級(jí)別:

語義分割- 將圖像中的所有像素劃分為有意義的對(duì)象類。這些類是“語義上可解釋的”,并對(duì)應(yīng)于現(xiàn)實(shí)世界的類別。例如,你可以將與貓相關(guān)的所有像素分離出來,并將它們涂成綠色。這也被稱為dense預(yù)測(cè),因?yàn)樗A(yù)測(cè)了每個(gè)像素的含義。

實(shí)例分割- 標(biāo)識(shí)圖像中每個(gè)對(duì)象的每個(gè)實(shí)例。它與語義分割的不同之處在于它不是對(duì)每個(gè)像素進(jìn)行分類。如果一幅圖像中有三輛車,語義分割將所有的車分類為一個(gè)實(shí)例,而實(shí)例分割則識(shí)別每一輛車。

傳統(tǒng)的圖像分割方法

還有一些過去常用的圖像分割技術(shù),但效率不如深度學(xué)習(xí)技術(shù),因?yàn)樗鼈兪褂脟?yán)格的算法,需要人工干預(yù)和專業(yè)知識(shí)。這些包括:

閾值- 將圖像分割為前景和背景。指定的閾值將像素分為兩個(gè)級(jí)別之一,以隔離對(duì)象。閾值化將灰度圖像轉(zhuǎn)換為二值圖像或?qū)⒉噬珗D像的較亮和較暗像素進(jìn)行區(qū)分。

K-means聚類- 算法識(shí)別數(shù)據(jù)中的組,變量K表示組的數(shù)量。該算法根據(jù)特征相似性將每個(gè)數(shù)據(jù)點(diǎn)(或像素)分配到其中一組。聚類不是分析預(yù)定義的組,而是迭代地工作,從而有機(jī)地形成組。

基于直方圖的圖像分割- 使用直方圖根據(jù)“灰度”對(duì)像素進(jìn)行分組。簡(jiǎn)單的圖像由一個(gè)對(duì)象和一個(gè)背景組成。背景通常是一個(gè)灰度級(jí),是較大的實(shí)體。因此,一個(gè)較大的峰值代表了直方圖中的背景灰度。一個(gè)較小的峰值代表這個(gè)物體,這是另一個(gè)灰色級(jí)別。

邊緣檢測(cè)- 識(shí)別亮度的急劇變化或不連續(xù)的地方。邊緣檢測(cè)通常包括將不連續(xù)點(diǎn)排列成曲線線段或邊緣。例如,一塊紅色和一塊藍(lán)色之間的邊界。

深度學(xué)習(xí)如何助力圖像分割方法

現(xiàn)代圖像分割技術(shù)以深度學(xué)習(xí)技術(shù)為動(dòng)力。下面是幾種用于分割的深度學(xué)習(xí)架構(gòu):

使用CNN進(jìn)行圖像分割,是將圖像的patch作為輸入輸入給卷積神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)對(duì)像素進(jìn)行標(biāo)記。CNN不能一次處理整個(gè)圖像。它掃描圖像,每次看一個(gè)由幾個(gè)像素組成的小“濾鏡”,直到它映射出整個(gè)圖像。

傳統(tǒng)的cnn網(wǎng)絡(luò)具有全連接的層,不能處理不同的輸入大小。FCNs使用卷積層來處理不同大小的輸入,可以工作得更快。最終的輸出層具有較大的感受野,對(duì)應(yīng)于圖像的高度和寬度,而通道的數(shù)量對(duì)應(yīng)于類的數(shù)量。卷積層對(duì)每個(gè)像素進(jìn)行分類,以確定圖像的上下文,包括目標(biāo)的位置。

集成學(xué)習(xí)將兩個(gè)或兩個(gè)以上相關(guān)分析模型的結(jié)果合成為單個(gè)。集成學(xué)習(xí)可以提高預(yù)測(cè)精度,減少泛化誤差。這樣就可以對(duì)圖像進(jìn)行精確的分類和分割。通過集成學(xué)習(xí)嘗試生成一組弱的基礎(chǔ)學(xué)習(xí)器,對(duì)圖像的部分進(jìn)行分類,并組合它們的輸出,而不是試圖創(chuàng)建一個(gè)單一的最優(yōu)學(xué)習(xí)者。

DeepLab使用DeepLab的一個(gè)主要?jiǎng)訖C(jī)是在幫助控制信號(hào)抽取的同時(shí)執(zhí)行圖像分割 —— 減少樣本的數(shù)量和網(wǎng)絡(luò)必須處理的數(shù)據(jù)量。另一個(gè)動(dòng)機(jī)是啟用多尺度上下文特征學(xué)習(xí) —— 從不同尺度的圖像中聚合特征。DeepLab使用ImageNet預(yù)訓(xùn)練的ResNet進(jìn)行特征提取。DeepLab使用空洞卷積而不是規(guī)則的卷積。每個(gè)卷積的不同擴(kuò)張率使ResNet塊能夠捕獲多尺度的上下文信息。DeepLab由三個(gè)部分組成:

Atrous convolutions— 使用一個(gè)因子,可以擴(kuò)展或收縮卷積濾波器的視場(chǎng)。

ResNet— 微軟的深度卷積網(wǎng)絡(luò)(DCNN)。它提供了一個(gè)框架,可以在保持性能的同時(shí)訓(xùn)練數(shù)千個(gè)層。ResNet強(qiáng)大的表征能力促進(jìn)了計(jì)算機(jī)視覺應(yīng)用的發(fā)展,如物體檢測(cè)和人臉識(shí)別。

Atrous spatial pyramid pooling (ASPP)— 提供多尺度信息。它使用一組具有不同擴(kuò)展率的復(fù)雜函數(shù)來捕獲大范圍的上下文。ASPP還使用全局平均池(GAP)來合并圖像級(jí)特征并添加全局上下文信息。

SegNet neural network一種基于深度編碼器和解碼器的架構(gòu),也稱為語義像素分割。它包括對(duì)輸入圖像進(jìn)行低維編碼,然后在解碼器中利用方向不變性能力恢復(fù)圖像。然后在解碼器端生成一個(gè)分割圖像。

圖像分割的應(yīng)用

圖像分割有助于確定目標(biāo)之間的關(guān)系,以及目標(biāo)在圖像中的上下文。應(yīng)用包括人臉識(shí)別、車牌識(shí)別和衛(wèi)星圖像分析。例如,零售和時(shí)尚等行業(yè)在基于圖像的搜索中使用了圖像分割。自動(dòng)駕駛汽車用它來了解周圍的環(huán)境。

目標(biāo)檢測(cè)和人臉檢測(cè)

這些應(yīng)用包括識(shí)別數(shù)字圖像中特定類的目標(biāo)實(shí)例。語義對(duì)象可以分類成類,如人臉、汽車、建筑物或貓。

人臉檢測(cè)- 一種用于許多應(yīng)用的目標(biāo)檢測(cè),包括數(shù)字相機(jī)的生物識(shí)別和自動(dòng)對(duì)焦功能。算法檢測(cè)和驗(yàn)證面部特征的存在。例如,眼睛在灰度圖像中顯示為谷地。

醫(yī)學(xué)影像- 從醫(yī)學(xué)影像中提取臨床相關(guān)信息。例如,放射學(xué)家可以使用機(jī)器學(xué)習(xí)來增強(qiáng)分析,通過將圖像分割成不同的器官、組織類型或疾病癥狀。這可以減少運(yùn)行診斷測(cè)試所需的時(shí)間。

機(jī)器視覺- 捕捉和處理圖像,為設(shè)備提供操作指導(dǎo)的應(yīng)用。這包括工業(yè)和非工業(yè)的應(yīng)用。機(jī)器視覺系統(tǒng)使用專用攝像機(jī)中的數(shù)字傳感器,使計(jì)算機(jī)硬件和軟件能夠測(cè)量、處理和分析圖像。例如,檢測(cè)系統(tǒng)為汽水瓶拍照,然后根據(jù)合格 - 不合格標(biāo)準(zhǔn)分析圖像,以確定瓶子是否被正確地填充。

視頻監(jiān)控 — 視頻跟蹤和運(yùn)動(dòng)目標(biāo)跟蹤

這涉及到在視頻中定位移動(dòng)物體。其用途包括安全和監(jiān)視、交通控制、人機(jī)交互和視頻編輯。

自動(dòng)駕駛自動(dòng)駕駛汽車必須能夠感知和理解他們的環(huán)境,以便安全駕駛。相關(guān)類別的對(duì)象包括其他車輛、建筑物和行人。語義分割使自動(dòng)駕駛汽車能夠識(shí)別圖像中的哪些區(qū)域可以安全駕駛。

虹膜識(shí)別一種能識(shí)別復(fù)雜虹膜圖案的生物特征識(shí)別技術(shù)。它使用自動(dòng)模式識(shí)別來分析人眼的視頻圖像。

人臉識(shí)別從視頻中識(shí)別個(gè)體。這項(xiàng)技術(shù)將從輸入圖像中選擇的面部特征與數(shù)據(jù)庫(kù)中的人臉進(jìn)行比較。

零售圖像識(shí)別

這個(gè)應(yīng)用讓零售商了解貨架上商品的布局。算法實(shí)時(shí)處理產(chǎn)品數(shù)據(jù),檢測(cè)貨架上是否有商品。如果有產(chǎn)品缺貨,他們可以找出原因,通知跟單員,并為供應(yīng)鏈的相應(yīng)部分推薦解決方案。

原文標(biāo)題:深度學(xué)習(xí)中的圖像分割:方法和應(yīng)用

文章出處:【微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器視覺
    +關(guān)注

    關(guān)注

    165

    文章

    4799

    瀏覽量

    126095
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50102

    瀏覽量

    265517
  • 人臉識(shí)別
    +關(guān)注

    關(guān)注

    77

    文章

    4127

    瀏覽量

    88499

原文標(biāo)題:深度學(xué)習(xí)中的圖像分割:方法和應(yīng)用

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    SAM(通用圖像分割基礎(chǔ)模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出的一個(gè)分割一切的提示型模型,其在1100萬張圖像上訓(xùn)練了超過10億個(gè)掩碼,實(shí)現(xiàn)了強(qiáng)大的零樣本泛化,突破了分割界限。本例程對(duì)SAM官方開源倉(cāng)庫(kù)的模型和算法進(jìn)行移植,使之能
    的頭像 發(fā)表于 01-12 16:17 ?313次閱讀
    SAM(通用<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>基礎(chǔ)模型)丨基于BM1684X模型部署指南

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?203次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>需避免的 7 個(gè)常見錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺深度學(xué)習(xí)

    ,能適用惡劣工況,在粉塵、高溫、氧化皮等惡劣環(huán)境均可正常工作。 測(cè)量原理 利用頂頭與周圍的物質(zhì)(水、空氣、導(dǎo)盤等)紅外輻射能量的差異,用熱成像相機(jī)拍攝出清晰的圖片,再通過深度學(xué)習(xí)短時(shí)間內(nèi)深度
    發(fā)表于 12-22 14:33

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?225次閱讀

    手機(jī)板 layout 走線跨分割問題

    學(xué)習(xí)layout時(shí),都在說信號(hào)線不可跨分割,但是在工作為了成本不能跨分割似乎也非絕對(duì)。 在后續(xù)工作,跨
    發(fā)表于 09-16 14:56

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實(shí)施路徑三個(gè)維度展開分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價(jià)值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振動(dòng)波形、紅外
    的頭像 發(fā)表于 08-20 14:56 ?1034次閱讀

    自動(dòng)駕駛Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4189次閱讀
    自動(dòng)駕駛<b class='flag-5'>中</b>Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語音識(shí)別、圖像識(shí)別、自然語言處理等領(lǐng)域,深度
    發(fā)表于 07-14 14:50 ?1251次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    迅為RK3576開發(fā)板攝像頭實(shí)時(shí)推理測(cè)試-ppseg?圖像分割

    迅為RK3576開發(fā)板攝像頭實(shí)時(shí)推理測(cè)試-ppseg 圖像分割
    的頭像 發(fā)表于 07-11 14:31 ?880次閱讀
    迅為RK3576開發(fā)板攝像頭實(shí)時(shí)推理測(cè)試-ppseg?<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>

    大模型推理顯存和計(jì)算量估計(jì)方法研究

    方法。 一、引言 大模型推理是指在已知輸入數(shù)據(jù)的情況下,通過深度學(xué)習(xí)模型進(jìn)行預(yù)測(cè)或分類的過程。然而,大模型的推理過程對(duì)顯存和計(jì)算資源的需求較高,這給實(shí)際應(yīng)用帶來了以下挑戰(zhàn): 顯存不足:大模型在推理過程
    發(fā)表于 07-03 19:43

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    是谷歌團(tuán)隊(duì)提出的一種用于語義分割深度學(xué)習(xí)模型,屬于 DeepLab 系列模型的第三代版本。它在圖像語義分割任務(wù)中表現(xiàn)優(yōu)異,能夠高效地捕獲
    發(fā)表于 06-21 21:11

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1523次閱讀

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    【AIBOX 應(yīng)用案例】單目深度估計(jì)

    ?Firefly所推出的NVIDIA系列的AIBOX可實(shí)現(xiàn)深度估計(jì),該技術(shù)是一種從單張或者多張圖像預(yù)測(cè)場(chǎng)景深度信息的技術(shù),廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域,尤其是在三維重建、場(chǎng)景理解和環(huán)境感知等任務(wù)
    的頭像 發(fā)表于 03-19 16:33 ?1113次閱讀
    【AIBOX 應(yīng)用案例】單目<b class='flag-5'>深度</b>估計(jì)