91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

目標(biāo)檢測(cè)和模型介紹

新機(jī)器視覺(jué) ? 來(lái)源:Coggle數(shù)據(jù)科學(xué) ? 作者:Coggle數(shù)據(jù)科學(xué) ? 2022-07-21 15:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

目標(biāo)檢測(cè)介紹

目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域中最基礎(chǔ)且最具挑戰(zhàn)性的任務(wù)之一,其包含物體分類(lèi)和定位。它為實(shí)例分割、圖像捕獲、視頻跟蹤等任務(wù)提供了強(qiáng)有力的特 征分類(lèi)基礎(chǔ)。

傳統(tǒng)的目標(biāo)檢測(cè)方法包括預(yù)處理、區(qū)域提案、特征提取、特征選擇、特征分類(lèi)和后處理六個(gè)階段,大多數(shù)檢測(cè)模型關(guān)注于物體特征的提取和區(qū)域分類(lèi)算法的選擇。

Deformable Part?based Model(DPM)算法三次在PASCAL VOC目標(biāo)檢測(cè)競(jìng)賽上獲得冠軍,是傳統(tǒng)目標(biāo)檢測(cè)方法的巔峰之作. 然而在2008年至2012年期間,目標(biāo)檢測(cè)模型在PASCAL VOC數(shù)據(jù)集上的檢測(cè)準(zhǔn)確率逐漸達(dá)到瓶頸. 傳統(tǒng)方法的弊端也展現(xiàn)出來(lái),主要包括:

算法在區(qū)域提案生成階段產(chǎn)生大量冗余的候選框且正負(fù)樣本失衡;

特征提取器如HOG、SIFT等未能充分捕捉圖像的高級(jí)語(yǔ)義特征和上下文內(nèi)容;

傳統(tǒng)檢測(cè)算法分階段進(jìn)行,整體缺乏一種全局優(yōu)化策略

目標(biāo)檢測(cè)數(shù)據(jù)集

目前主流的通用目標(biāo)檢測(cè)數(shù)據(jù)集有PASCAL VOC、ImageNet、MS COCO、Open Images和Objects365。

目標(biāo)檢測(cè)評(píng)價(jià)指標(biāo)

當(dāng)前用于評(píng)估檢測(cè)模型的性能指標(biāo)主要有幀率每秒(Frames Per Second,F(xiàn)PS)、準(zhǔn)確率(accuracy)、精確率(precision)、召回率(recall)、平均精度(Average Precision,AP)、平均 精度均值(mean Average Precision,mAP)等。

FPS即每秒識(shí)別圖像的數(shù)量,用于評(píng)估目標(biāo)檢測(cè)模型的檢測(cè)速度;

accuracy是正確預(yù)測(cè)類(lèi)別的樣本數(shù)占樣本總數(shù)的比例;

precision是預(yù)測(cè)正確的正樣本數(shù)占所有預(yù)測(cè)為正樣本個(gè)數(shù)的比例;

recall是預(yù)測(cè)正確的正樣本數(shù)占所有真實(shí)值為正樣本個(gè)數(shù)的比例;

PR曲線是對(duì)應(yīng)precision和recall構(gòu)成的曲線;

AP是對(duì)不同召回率點(diǎn)上的精確率進(jìn)行平均,在PR曲線圖上表現(xiàn)為 PR 曲線下的面積;

mAP是所有類(lèi)別AP的平均;

目標(biāo)檢測(cè)模型

基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法根據(jù)有無(wú)區(qū)域提案階段劃分為雙階段模型和單階段檢測(cè)模型。

a4770d36-07e1-11ed-ba43-dac502259ad0.png

雙階段模型

區(qū)域檢測(cè)模型將目標(biāo)檢測(cè)任務(wù)分為區(qū)域提案生成、特征提取和分類(lèi)預(yù)測(cè)三個(gè)階段。在區(qū)域提案生成階段,檢測(cè)模型利用搜索算法如選擇性搜索(SelectiveSearch,SS)、EdgeBoxes、區(qū) 域 提 案 網(wǎng) 絡(luò)(Region Proposal Network,RPN) 等在圖像中搜尋可能包含物體的區(qū)域。在特征提取階段,模型利用深度卷積網(wǎng)絡(luò)提取區(qū)域提案中的目標(biāo)特征。在分類(lèi)預(yù)測(cè)階段,模型從預(yù)定義的類(lèi)別標(biāo)簽對(duì)區(qū)域提案進(jìn)行分類(lèi)和邊框信息預(yù)測(cè)。

單階段模型

單階段檢測(cè)模型聯(lián)合區(qū)域提案和分類(lèi)預(yù)測(cè),輸入整張圖像到卷積神經(jīng)網(wǎng)絡(luò)中提取特征,最后直接輸出目標(biāo)類(lèi)別和邊框位置信息。這類(lèi)代表性的方法有:YOLO、SSD和CenterNet等。

目標(biāo)檢測(cè)研究方向

目標(biāo)檢測(cè)方法可分為檢測(cè)部件、數(shù)據(jù)增強(qiáng)、優(yōu)化方法和學(xué)習(xí)策略四個(gè)方面 。其中檢測(cè)部件包含基準(zhǔn)模型和基準(zhǔn)網(wǎng)絡(luò);數(shù)據(jù)增強(qiáng)包含幾何變換、光學(xué)變換等;優(yōu)化方法包含特征圖、上下文模型、邊框優(yōu)化、區(qū)域提案方法、類(lèi)別不平衡和訓(xùn)練策略六個(gè)方面,學(xué)習(xí)策略涵蓋監(jiān)督學(xué)習(xí)、弱監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)。

a496b686-07e1-11ed-ba43-dac502259ad0.png

特征圖融合

特征圖是圖像經(jīng)過(guò)卷積池化層輸出的結(jié)果,大多數(shù)基準(zhǔn)檢測(cè)模型只在頂層特征圖做預(yù)測(cè),這在很大程度上限制了模型的性能。

多層特征圖單層預(yù)測(cè)模型

分層預(yù)測(cè)模型

結(jié)合多層特征圖多層預(yù)測(cè)模型

上下文信息融合

在物體遮擋、背景信息雜亂或圖像質(zhì)量不佳的情況下,根據(jù)圖像的上下文信息能更有效更精確地檢測(cè)。

全局上下文信息

局部上下文信息

邊框優(yōu)化

當(dāng)前檢測(cè)模型在小目標(biāo)檢測(cè)表現(xiàn)不佳的主要原因是定位錯(cuò)誤偏多,包含定位偏差大和重復(fù)預(yù)測(cè)。

優(yōu)化邊框定位

NMS優(yōu)化

類(lèi)別不均衡優(yōu)化

類(lèi)別不平衡的主要矛盾是負(fù)樣本數(shù)遠(yuǎn)多于正樣本數(shù),導(dǎo)致訓(xùn)練的深度模型效率低。

Online Hard Example Mining,OHEM

Focal Loss損失函數(shù)

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4785

    瀏覽量

    98116
  • 目標(biāo)檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    233

    瀏覽量

    16500
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26211

原文標(biāo)題:小白學(xué)CV:目標(biāo)檢測(cè)任務(wù)和模型介紹

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    YOLO5目標(biāo)檢測(cè)方案-基于米爾RK3576開(kāi)發(fā)板

    本文基于米爾MYD-LR3576開(kāi)發(fā)板,詳細(xì)記錄了如何利用500萬(wàn)像素USB攝像頭實(shí)現(xiàn)640×640分辨率的YOLO5s目標(biāo)檢測(cè),并將結(jié)果實(shí)時(shí)輸出至1080P屏幕的全流程。通過(guò)系統(tǒng)級(jí)的軟硬件協(xié)同優(yōu)化
    發(fā)表于 01-22 19:21

    廣和通發(fā)布端側(cè)目標(biāo)檢測(cè)模型FiboDet

    為提升端側(cè)設(shè)備視覺(jué)感知與決策能力,廣和通全自研端側(cè)目標(biāo)檢測(cè)模型FiboDet應(yīng)運(yùn)而生。該模型基于廣和通在邊緣計(jì)算與人工智能領(lǐng)域的深度積累,面向工業(yè)、交通、零售等多個(gè)行業(yè)提供高性能、低功
    的頭像 發(fā)表于 09-26 13:39 ?1618次閱讀

    AIcube1.4目標(biāo)檢測(cè)模型導(dǎo)入yolotxt格式數(shù)據(jù)集后一直顯示數(shù)據(jù)正在解析,為什么?

    AIcube1.4目標(biāo)檢測(cè)模型導(dǎo)入yolotxt格式數(shù)據(jù)集后一直顯示數(shù)據(jù)正在解析 數(shù)據(jù)有問(wèn)題,把數(shù)據(jù)情況說(shuō)的詳細(xì)點(diǎn)
    發(fā)表于 08-13 07:16

    使用aicube進(jìn)行目標(biāo)檢測(cè)識(shí)別數(shù)字項(xiàng)目的時(shí)候,在評(píng)估環(huán)節(jié)卡住了,怎么解決?

    使用aicube進(jìn)行目標(biāo)檢測(cè)識(shí)別數(shù)字項(xiàng)目的時(shí)候,前面一切正常 但是在評(píng)估環(huán)節(jié)卡住了,一直顯示正在測(cè)試,但是完全沒(méi)有測(cè)試結(jié)果, 在部署完模型后在k230上運(yùn)行也沒(méi)有任何識(shí)別結(jié)果 期待結(jié)果和實(shí)際結(jié)果
    發(fā)表于 08-13 06:45

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】在 VisionFive 2 上為目標(biāo)檢測(cè)準(zhǔn)備軟件環(huán)境并運(yùn)行 MobileNet-SSD 模型

    目標(biāo): 本教程將實(shí)現(xiàn)在 StarFive VisionFive 2 開(kāi)發(fā)板上為目標(biāo)檢測(cè)應(yīng)用準(zhǔn)備所需軟件環(huán)境,并最終運(yùn)行一個(gè)基于 MobileNet-SSD 的目標(biāo)
    發(fā)表于 07-10 19:51

    基于FPGA的SSD目標(biāo)檢測(cè)算法設(shè)計(jì)

    隨著人工智能的發(fā)展,神經(jīng)網(wǎng)絡(luò)正被逐步應(yīng)用于智能安防、自動(dòng)駕駛、醫(yī)療等各行各業(yè)。目標(biāo)識(shí)別作為人工智能的一項(xiàng)重要應(yīng)用也擁有著巨大的前景,隨著深度學(xué)習(xí)的普及和框架的成熟,卷積神經(jīng)網(wǎng)絡(luò)模型的識(shí)別精度越來(lái)越高
    的頭像 發(fā)表于 07-10 11:12 ?2591次閱讀
    基于FPGA的SSD<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>算法設(shè)計(jì)

    氣密性檢測(cè)儀的核心應(yīng)用范疇及其所針對(duì)的檢測(cè)目標(biāo)

    在工業(yè)生產(chǎn)與質(zhì)量控制領(lǐng)域,氣密性檢測(cè)儀是保障產(chǎn)品品質(zhì)與性能的關(guān)鍵設(shè)備。以下將圍繞氣密性檢測(cè)儀的核心應(yīng)用范疇及其所針對(duì)的檢測(cè)目標(biāo)展開(kāi)介紹,以下
    的頭像 發(fā)表于 06-27 15:03 ?649次閱讀
    氣密性<b class='flag-5'>檢測(cè)</b>儀的核心應(yīng)用范疇及其所針對(duì)的<b class='flag-5'>檢測(cè)</b><b class='flag-5'>目標(biāo)</b>

    基于LockAI視覺(jué)識(shí)別模塊:C++目標(biāo)檢測(cè)

    /LockzhinerAI/LockzhinerVisionModule/tree/master/Cpp_example/D01_test_detection 1. 基礎(chǔ)知識(shí)講解 1.1 目標(biāo)檢測(cè)的基本介紹
    發(fā)表于 06-06 14:43

    基于LockAI視覺(jué)識(shí)別模塊:C++目標(biāo)檢測(cè)

    本文檔基于瑞芯微RV1106的LockAI凌智視覺(jué)識(shí)別模塊,通過(guò)C++語(yǔ)言做的目標(biāo)檢測(cè)實(shí)驗(yàn)。本文檔展示了如何使用lockzhiner_vision_module::PaddleDet類(lèi)進(jìn)行目標(biāo)
    的頭像 發(fā)表于 06-06 13:56 ?858次閱讀
    基于LockAI視覺(jué)識(shí)別模塊:C++<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>

    FA模型的DataAbility的切換介紹

    ,Stage模型下的DataShareExtensionAbility為系統(tǒng)API,只有系統(tǒng)應(yīng)用才可以創(chuàng)建。因此,F(xiàn)A模型的DataAbility的切換,對(duì)于系統(tǒng)應(yīng)用和三方應(yīng)用策略有所不同。下面分別介紹
    發(fā)表于 06-06 08:10

    FA模型的ServiceAbility的切換介紹

    的ServiceExtensionAbility為系統(tǒng)API,只有系統(tǒng)應(yīng)用才可以創(chuàng)建。因此,F(xiàn)A模型的ServiceAbility的切換,對(duì)于系統(tǒng)應(yīng)用和三方應(yīng)用策略有所不同。下面分別介紹這兩種場(chǎng)景。 系統(tǒng)
    發(fā)表于 06-05 07:24

    FA模型綁定Stage模型ServiceExtensionAbility介紹

    FA模型綁定Stage模型ServiceExtensionAbility 本文介紹FA模型的三種應(yīng)用組件如何綁定Stage模型的Servi
    發(fā)表于 06-04 07:55

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    FA模型與Stage模型介紹 KaihongOS操作系統(tǒng)中,F(xiàn)A模型(Feature Ability)和Stage模型是兩種不同的應(yīng)用
    發(fā)表于 04-24 07:27

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類(lèi)、obb

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類(lèi)、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    軒轅智駕紅外目標(biāo)檢測(cè)算法在汽車(chē)領(lǐng)域的應(yīng)用

    在 AI 技術(shù)蓬勃發(fā)展的當(dāng)下,目標(biāo)檢測(cè)算法取得了重大突破,其中紅外目標(biāo)檢測(cè)算法更是在汽車(chē)行業(yè)掀起了波瀾壯闊的變革,從根本上重塑著汽車(chē)的安全性能、駕駛體驗(yàn)與產(chǎn)業(yè)生態(tài)。
    的頭像 發(fā)表于 03-27 15:55 ?980次閱讀