91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于深度學(xué)習(xí)網(wǎng)絡(luò)識(shí)別的詳細(xì)介紹

MATLAB ? 來源:djl ? 2019-09-11 17:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

你有沒有想過,你經(jīng)常使用的深度學(xué)習(xí)網(wǎng)絡(luò)在看圖像的什么部分進(jìn)行分類?

例如下圖:

如果深度學(xué)習(xí)網(wǎng)絡(luò)將此圖像分類為“圓號(hào)”,你認(rèn)為圖片的哪個(gè)部分對(duì)分類最重要?

MathWorks Computer Vision System Toolbox 開發(fā)工程師Birju Patel專注于深度學(xué)習(xí),設(shè)計(jì)了如下案例進(jìn)行解答這一問題:

我們使用預(yù)訓(xùn)練好的 ResNet-50 網(wǎng)絡(luò)進(jìn)行此實(shí)驗(yàn)。

* He, Kaiming, Zhang, Xiangyu, Ren, Shaoqing, Sun, Jian. "Deep Residual Learning for Image Recognition." In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770-778. 2016.

獲取 MATLAB 中 ResNet-50 網(wǎng)絡(luò)的方法是啟動(dòng) Add-On Explorer(MATLAB 的 HOME 選項(xiàng)卡)并搜索 resnet。

net = resnet50;

我們需要注意 ResNet-50 需要輸入特定尺寸的圖像。網(wǎng)絡(luò)的初始層提供了這一信息:

sz = net.Layers(1).InputSize(1:2)sz = 224 224

所需的圖像尺寸可以直接傳遞給 imresize 函數(shù)。)

在網(wǎng)絡(luò)中調(diào)用 classify ,查看圖片可能的分類:

classify(net,rgb)ans = categorical French horn

ResNet-50 認(rèn)為這是圓號(hào)。

Birju 在一篇關(guān)于卷積神經(jīng)網(wǎng)絡(luò)可視化技術(shù)的論文中,了解到遮擋敏感性的概念。如果阻擋或遮擋圖像的一部分,將如何影響網(wǎng)絡(luò)的預(yù)測(cè)得分?遮擋不同的部分又將如何影響結(jié)果?

Birju 做了如下嘗試:

rgb2 = rgb; rgb2((1:71)+77,(1:71)+108,:) = 128; imshow(rgb2)

classify(net,rgb2)ans = categorical notebook

Hmm...估計(jì)網(wǎng)絡(luò)“認(rèn)為”灰色方塊看起來像筆記本。被遮擋的區(qū)域?qū)τ趫D像分類來說應(yīng)該很重要。再試試不同的遮擋位置:

rgb3 = rgb;rgb3((1:71)+15,(1:71)+80,:) = 128;imshow(rgb3)

classify(net,rgb3)ans = categorical French horn

好吧,腦袋并不重要。

Birju 編寫了一些 MATLAB 代碼來系統(tǒng)地量化不同圖像區(qū)域?qū)Ψ诸惤Y(jié)果的相對(duì)重要性。他使用 MATLAB 構(gòu)建了大量圖像,并對(duì)遮擋不同區(qū)域的圖像進(jìn)行批處理。對(duì)于遮擋的不同位置,記錄預(yù)期類(本例為“法國(guó)號(hào)”)的概率得分。

我們制作一批帶有 71x71 遮擋區(qū)域的圖像。首先計(jì)算所有遮擋模塊的頂點(diǎn),用 (X1,Y1) 和 (X2,Y2) 表示。

mask_size = [71 71]; [H,W,~] = size(rgb); X = 1:W; Y = 1:H; [X1, Y1] = meshgrid(X, Y); X1 = X1(:) - (mask_size(2)-1)/2; Y1 = Y1(:) - (mask_size(1)-1)/2; X2 = X1 + mask_size(2) - 1; Y2 = Y1 + mask_size(1) - 1;

注意不要讓遮擋區(qū)域的頂點(diǎn)偏離圖像邊界。

X1 = max(1, X1); Y1 = max(1, Y1); X2 = min(W, X2); Y2 = min(H, Y2);

批處理:

batch = repmat(rgb,[1 1 1 size(X1,1)]); for i = 1:size(X1,1) c = X1(i):X2(i); r = Y1(i):Y2(i); batch(r,c,:,i) = 128; % gray mask. end

注意:這一批包含 50,000 多張圖像。你需要大量的 RAM 才能同時(shí)創(chuàng)建和處理如此大量的圖像。

這里有一些遮擋的圖像:

現(xiàn)在,我們將使用 predict(而不是 classify)來獲取每個(gè)圖像在每個(gè)類別中的預(yù)測(cè)分?jǐn)?shù)。MiniBatchSize 參數(shù)是用來限制 GPU 內(nèi)存的使用,意味著 predict 函數(shù)將一次發(fā)送 64 個(gè)圖像到 GPU 進(jìn)行處理。

s = predict(net, batch, 'MiniBatchSize',64);size(s)ans = 50176 1000

我們獲得了很多的概率得分!其中 51,529 個(gè)圖像,共有 1,000 個(gè)類別。矩陣 s 具有每個(gè)類別和每個(gè)圖像的預(yù)測(cè)分?jǐn)?shù)。

我們重點(diǎn)關(guān)注預(yù)測(cè)原始圖像類別的預(yù)測(cè)分?jǐn)?shù):

scores = predict(net,rgb); [~,horn_idx] = max(scores);

這里是每一個(gè)圓號(hào)類別中的圖像預(yù)測(cè)分?jǐn)?shù):

s_horn = s(:,horn_idx);

將圓號(hào)類別的分?jǐn)?shù)轉(zhuǎn)換為圖像顯示:

S_horn = reshape(s_horn,H,W); imshow(-S_horn,[]) colormap(gca,'parula')

最亮的區(qū)域表示遮擋對(duì)概率得分影響最大的遮擋區(qū)間。

下面我們找到了最影響圓號(hào)概率得分的遮擋位置:

[min_score,min_idx] = min(s_horn); rgb_min_score = batch(:,:,:,min_idx); imshow(rgb_min_score)

結(jié)果可見,識(shí)別圓號(hào)的關(guān)鍵在于螺旋形管身和閥鍵,而不是號(hào)嘴。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5203

    瀏覽量

    135543
  • 圖像分類
    +關(guān)注

    關(guān)注

    0

    文章

    97

    瀏覽量

    12503
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124434
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    華秋輸出的GERBER別的軟件無法正確識(shí)別

    ,卡住了。 這個(gè)是華秋識(shí)別的,可以看到是正確的。 下面是AD,KICAD、工廠錫膏機(jī)識(shí)別的,都一樣的,統(tǒng)一少了太多東東。
    發(fā)表于 12-17 10:46

    基于AIK-RA8D1的人臉識(shí)別的應(yīng)用演示

    隨著科技的進(jìn)步,人臉識(shí)別技術(shù)已逐漸成為一種主流的安全驗(yàn)證手段。它不依賴傳統(tǒng)的密碼,而是通過面部特征識(shí)別來驗(yàn)證身份,從而提升了安全性并帶來了更大的便利性。本文將介紹如何通過瑞薩RA8D1微控制器
    的頭像 發(fā)表于 12-02 14:29 ?5534次閱讀
    基于AIK-RA8D1的人臉<b class='flag-5'>識(shí)別的</b>應(yīng)用演示

    電壓放大器在全導(dǎo)波場(chǎng)圖像目標(biāo)識(shí)別的損傷檢測(cè)實(shí)驗(yàn)的應(yīng)用

    圖像目標(biāo)識(shí)別的智能損傷檢測(cè)方法,通過結(jié)合超聲導(dǎo)波檢測(cè)技術(shù)與深度學(xué)習(xí)算法,系統(tǒng)探究了損傷引起的波場(chǎng)畸變特性及其識(shí)別機(jī)制。 測(cè)試設(shè)備:掃描激光多普勒測(cè)振儀、函數(shù)發(fā)生器、功率放大器ATA-2
    的頭像 發(fā)表于 12-02 11:37 ?295次閱讀
    電壓放大器在全導(dǎo)波場(chǎng)圖像目標(biāo)<b class='flag-5'>識(shí)別的</b>損傷檢測(cè)實(shí)驗(yàn)的應(yīng)用

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場(chǎng)景

    檢測(cè)應(yīng)用 微細(xì)缺陷識(shí)別:檢測(cè)肉眼難以發(fā)現(xiàn)的微小缺陷和異常 紋理分析:對(duì)材料表面紋理進(jìn)行智能分析和缺陷識(shí)別 3D表面重建:通過深度學(xué)習(xí)進(jìn)行高精度3D建模和檢測(cè) 電子行業(yè)應(yīng)用 PCB板復(fù)雜
    的頭像 發(fā)表于 11-27 10:19 ?232次閱讀

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 17:38 ?920次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1050次閱讀

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域,
    發(fā)表于 07-14 14:50 ?1255次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    深度學(xué)習(xí)賦能:正面吊車載箱號(hào)識(shí)別系統(tǒng)的核心技術(shù)

    支撐。 深度學(xué)習(xí)驅(qū)動(dòng)的智能識(shí)別 傳統(tǒng)OCR技術(shù)易受光線、污損或箱體圖案干擾,而新一代識(shí)別系統(tǒng)通過深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)和注意力機(jī)制,實(shí)現(xiàn)
    的頭像 發(fā)表于 05-07 10:10 ?585次閱讀

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】視覺實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    : 一、機(jī)器人視覺:從理論到實(shí)踐 第7章詳細(xì)介紹了ROS2在機(jī)器視覺領(lǐng)域的應(yīng)用,涵蓋了相機(jī)標(biāo)定、OpenCV集成、視覺巡線、二維碼識(shí)別以及深度學(xué)習(xí)
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】+ROS2應(yīng)用案例

    的應(yīng)用。書中詳細(xì)介紹了如何在ROS 2中實(shí)現(xiàn)二維碼識(shí)別,包括二維碼掃描庫(kù)Zbar的使用,以及如何通過相機(jī)識(shí)別二維碼。 通過學(xué)習(xí)這一部分,我了
    發(fā)表于 04-27 11:42

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度
    的頭像 發(fā)表于 04-02 18:21 ?1530次閱讀

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】人臉識(shí)別

    進(jìn)的 ArcFace 能夠改善其面部驗(yàn)證結(jié)果; 通過采用輕量級(jí)骨干網(wǎng)絡(luò),RetinaFace 可以在單個(gè) CPU 核心上實(shí)時(shí)運(yùn)行 VGA 分辨率的圖像。 環(huán)境部署 這里簡(jiǎn)要介紹環(huán)境部署流程,詳細(xì)方案參考前面
    發(fā)表于 04-01 21:46

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】車牌識(shí)別

    和停車場(chǎng)管理中,車牌識(shí)別是一項(xiàng)重要且極具挑戰(zhàn)性的任務(wù)。 車牌識(shí)別網(wǎng)絡(luò) (License Plate Recognition Network, LPRNet) 是一種專門設(shè)計(jì)用于車牌識(shí)別的
    發(fā)表于 04-01 02:45