91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型的閉集準(zhǔn)確率與開(kāi)集識(shí)別能力正相關(guān)的觀點(diǎn)

倩倩 ? 來(lái)源:GiantPandaCV ? 作者:GiantPandaCV ? 2022-09-09 09:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

參考一篇綜述,首先介紹兩個(gè)概念:

Close Set Recognition,閉集識(shí)別:指 訓(xùn)練集中的類別和測(cè)試集中的類別是一致的,例如最常用最經(jīng)典的ImageNet-1k。所有在測(cè)試集中的圖像的類別都在訓(xùn)練集中出現(xiàn)過(guò),沒(méi)有未知種類的圖像。從AlexNet到VGG,再到ResNet,以及最近大火的Visual Transformer,都能夠比較好的處理這一類別的任務(wù)。

Open Set Recognition,開(kāi)集識(shí)別:指對(duì)一個(gè)在訓(xùn)練集上訓(xùn)練好的模型,當(dāng)利用一個(gè)測(cè)試集(該測(cè)試集的中包含訓(xùn)練集中沒(méi)有的類別)進(jìn)行測(cè)試時(shí),如果輸入已知類別數(shù)據(jù),輸出具體的類別,如果輸入的是未知類別的數(shù)據(jù),則進(jìn)行合適的處理(識(shí)別為unknown或者out-of-distribution)。例如在利用一個(gè)數(shù)據(jù)集訓(xùn)練好了一個(gè)模型可以對(duì)狗和人進(jìn)行分類,而輸入一張狗的圖像,由于softmax這種方式的設(shè)定,模型可能會(huì)告訴你80%的概率為人,但顯然這是不合理的,限制了模型泛化性能提升。而我們想要的結(jié)果,是當(dāng)輸入不為貓和人的圖像(比如狗)時(shí),模型輸出為未知類別,輸入人或貓圖像,模型輸出對(duì)應(yīng)具體的類別。

3ab9d0de-2fde-11ed-ba43-dac502259ad0.png

由于現(xiàn)實(shí)場(chǎng)景中更多的是開(kāi)放和非靜態(tài)的環(huán)境,所以在模型部署中,經(jīng)常會(huì)出現(xiàn)一些沒(méi)有見(jiàn)過(guò)的情況,所以這種考慮開(kāi)集檢測(cè)的因素,對(duì)模型的部署十分有必要。那么模型在Close set和在Open set的表現(xiàn)是否存在一定的相關(guān)性呢?下面我們來(lái)了解一份ICLR 2021的工作來(lái)嘗試?yán)斫夂吞剿鲀烧咧g的關(guān)系。

在本文中,作者重新評(píng)估一些open set識(shí)別的方法,通過(guò)探索是否訓(xùn)練良好的閉集的分類器通過(guò)分析baseline的數(shù)據(jù)集,可以像最近的算法一樣執(zhí)行。要做到這一點(diǎn),我們首先研究了分類器的閉集和開(kāi)集性能之間的關(guān)系。

雖然人們可能期望更強(qiáng)的close set分類器過(guò)度擬合到train set出現(xiàn)的類別,因此在OSR中表現(xiàn)較差。其實(shí)最簡(jiǎn)單的方法也非常直觀,就是‘maximum softmax probability (MSP) baseline,即經(jīng)過(guò)softmax輸出的最大的概率值。而該論文展示了在close set和open set上開(kāi)放集的表現(xiàn)是高度相關(guān)的,這一點(diǎn)是非常關(guān)鍵的。而且展這種趨勢(shì)在不同的數(shù)據(jù)集、目標(biāo)以及模型架構(gòu)中都是成立的。并在ImageNet-1k這個(gè)量級(jí)上的數(shù)據(jù)集進(jìn)行評(píng)估,更能說(shuō)明該方法的有效性。

但僅僅觀察到這種現(xiàn)象,這種contribution雖然有意義,但可能也不足以支撐一篇頂會(huì)oral,所以自然要基于這一現(xiàn)象展開(kāi)一些方法上的設(shè)計(jì),來(lái)提升開(kāi)集檢測(cè)的表現(xiàn)。根據(jù)這一觀察,論文提出一種通過(guò)改善close set性能的方式來(lái)進(jìn)一步提升open set上的表現(xiàn)。

具體來(lái)說(shuō),我們引入了更多的增強(qiáng)、更好的學(xué)習(xí)率調(diào)度和標(biāo)簽平滑等策略,這些策略顯著提高了MSP基線的close set和open set性能。我們還建議使用maximum logit score(MLS),而不是MSP來(lái)作為開(kāi)放集指標(biāo)。通過(guò)這些調(diào)整,可以在不改變模型結(jié)構(gòu)的情況下,非常有效的提升模型open set狀態(tài)下的識(shí)別性能。

3. 方法

3c2742e4-2fde-11ed-ba43-dac502259ad0.png

首先就是一張非常直觀的圖,在不用的數(shù)據(jù)集上,對(duì)OSR和CSR兩個(gè)任務(wù)的表現(xiàn)進(jìn)行比較。論文首先利用標(biāo)準(zhǔn)基準(zhǔn)數(shù)據(jù)集上,選取三種有代表性的開(kāi)放集識(shí)別方法,包括MSP,ARPL以及ARPL+CS。然后利用一個(gè)類似于VGG形態(tài)的的輕量級(jí)模型,在不同的分類數(shù)據(jù)集上進(jìn)行檢測(cè)??梢钥吹絆SR和CSR兩個(gè)任務(wù)的表現(xiàn)是呈現(xiàn)出高度的正相關(guān)的。

對(duì)于理論上的證明,論文選取了模型校準(zhǔn)的角度來(lái)解讀。直觀地說(shuō),模型校準(zhǔn)的目的是量化模型是否具有感知對(duì)象類別的能力,即是否可以把低置信度的預(yù)測(cè)與高錯(cuò)誤率相關(guān)聯(lián)。也就是說(shuō)如果給了很低的置信度,而錯(cuò)誤率又是很高的,那么就可以定義為模型沒(méi)有被很好地校準(zhǔn)。反之,則說(shuō)明模型被很好地校準(zhǔn)了。

3c5c5092-2fde-11ed-ba43-dac502259ad0.png

3c811c10-2fde-11ed-ba43-dac502259ad0.png

到目前為止,論文已經(jīng)證明了在單一、輕量級(jí)架構(gòu)和小規(guī)模數(shù)據(jù)集上封閉集和開(kāi)放集性能之間的相關(guān)性——盡管我們強(qiáng)調(diào)它們是OSR文獻(xiàn)中現(xiàn)有的標(biāo)準(zhǔn)基準(zhǔn)。如上圖,論文又在在大規(guī)模數(shù)據(jù)集(ImageNet-1k)上試驗(yàn)了一系列架構(gòu)。和在CIFAR-10等小數(shù)據(jù)集一致,該數(shù)據(jù)集也存在上述的現(xiàn)象。

至于,獲得更好的open set recognition上的表現(xiàn),也就非常直接了。就是通過(guò)各種優(yōu)化方式、訓(xùn)練策略的設(shè)計(jì),讓模型可以能夠在close set上具有更好的性能。完整的細(xì)節(jié)和用于提高封閉集性能的方法的表格明細(xì)可以在論文,以及附錄中更好地了解。

論文還提出一種新的評(píng)估close set性能的方式。以前的工作指出,開(kāi)放集的例子往往比封閉集的例子具有更低的norm。因此,我們建議在開(kāi)放集評(píng)分規(guī)則中使用最大對(duì)數(shù),而不是softmax概率。Logits是深度分類器中最后一個(gè)線性層的原始輸出,而softmax操作涉及到一個(gè)歸一化,從而使輸出可以被解釋為一個(gè)概率向量的和為1。由于softmax操作將logits中存在的大部分特征幅度信息歸一化,作者發(fā)現(xiàn)logits能帶來(lái)更好的開(kāi)放集檢測(cè)結(jié)果。

3cae29b2-2fde-11ed-ba43-dac502259ad0.png

這種新的方式,改善了在所有數(shù)據(jù)集上的性能,并大大縮小了與最先進(jìn)方法的差距,各數(shù)據(jù)集的AUROC平均絕對(duì)值增加了13.9%。如果以報(bào)告的baseline和當(dāng)前最先進(jìn)的方法之間的差異比例來(lái)計(jì)算,這意味著平均差異減少了87.2%。MLS方法還在TinyImageNet上取得了新的領(lǐng)先優(yōu)勢(shì),比OpenHybrid高出3.3%。

另外,作者指出,目前的標(biāo)準(zhǔn)OSRbaseline評(píng)價(jià)方式有兩個(gè)缺點(diǎn):

它們都只涉及小規(guī)模的數(shù)據(jù)集;

它們?nèi)狈?duì)構(gòu)成 "語(yǔ)義類 "的明確定義。

后者對(duì)于將開(kāi)放集領(lǐng)域與其他研究問(wèn)題,如out-of-distribution以及outlier的檢測(cè),進(jìn)行區(qū)分非常重要。OSR旨在識(shí)別測(cè)試圖像是否與訓(xùn)練類有語(yǔ)義上的不同,而不是諸如模型對(duì)其預(yù)測(cè)不確定或是否出現(xiàn)了低層次的distribution shift。所以作者基于這兩個(gè)缺點(diǎn),提出來(lái)了新的baseline用于評(píng)估open set的性能。具體關(guān)于數(shù)據(jù)集的細(xì)節(jié),可以參考原文

4. 結(jié)論

在這篇文章中,作者給出了模型的閉集準(zhǔn)確率與開(kāi)集識(shí)別能力正相關(guān)的觀點(diǎn),同時(shí)通過(guò)實(shí)驗(yàn)驗(yàn)證了加強(qiáng)模型的閉集性能能夠幫助我們獲得更強(qiáng)的開(kāi)集能力。對(duì)于 Open-Set Recognition 具有啟發(fā)意義。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7340

    瀏覽量

    94880
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3772

    瀏覽量

    52161
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13805

原文標(biāo)題:開(kāi)集識(shí)別: A Good Closed-Set Classifier is All You Need

文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【瑞薩AI挑戰(zhàn)賽】手寫(xiě)數(shù)字識(shí)別模型在RA8P1 Titan Board上的部署

    (my_model, \"./mnist_model/my_model.pth\") 訓(xùn)練完成后,在測(cè)試上的準(zhǔn)確率可達(dá)98%以上,滿足手寫(xiě)數(shù)字識(shí)別的實(shí)際需求。 訓(xùn)練過(guò)程: 將訓(xùn)練好的模型
    發(fā)表于 03-15 20:42

    靠聽(tīng)診器查故障?這套系統(tǒng)靠 “聽(tīng)聲紋”,準(zhǔn)確率 96%

    老技工的聽(tīng)診器承載經(jīng)驗(yàn)傳承,但工業(yè)智能化時(shí)代,更需精準(zhǔn)前置的科技手段。聲振溫協(xié)同監(jiān)測(cè)系統(tǒng)的價(jià)值,不僅是96%的診斷準(zhǔn)確率,更在于將故障預(yù)警從“事后”推向“事前”,實(shí)現(xiàn)運(yùn)維模式從被動(dòng)搶修到主動(dòng)預(yù)防的轉(zhuǎn)變。
    的頭像 發(fā)表于 01-21 16:38 ?630次閱讀
    靠聽(tīng)診器查故障?這套系統(tǒng)靠 “聽(tīng)聲紋”,<b class='flag-5'>準(zhǔn)確率</b> 96%

    自動(dòng)駕駛大模型中常提的泛化能力是指啥?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在討論自動(dòng)駕駛大模型時(shí),常會(huì)有幾個(gè)評(píng)價(jià)維度,如感知是否準(zhǔn)確、決策是否穩(wěn)定、系統(tǒng)是否足夠魯棒,以及模型有沒(méi)有“泛化能力”。相比
    的頭像 發(fā)表于 12-10 09:15 ?672次閱讀
    自動(dòng)駕駛大<b class='flag-5'>模型</b>中常提的泛化<b class='flag-5'>能力</b>是指啥?

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    ,從而得到對(duì)我們有價(jià)值的識(shí)別信息。但這種迭代性并不是十分必要的,因?yàn)閺膶?shí)踐來(lái)看,即使只有單層網(wǎng)絡(luò)的模型,只要擁有充分?jǐn)?shù)量的神經(jīng)元,也可以獲得較高的準(zhǔn)確率。不過(guò)該種方式的一個(gè)重要缺點(diǎn)就是參數(shù)重多,導(dǎo)致
    發(fā)表于 10-28 08:02

    除了準(zhǔn)確率,電能質(zhì)量在線監(jiān)測(cè)裝置在諧波源識(shí)別方面還有哪些重要指標(biāo)?

    除了識(shí)別準(zhǔn)確率,電能質(zhì)量在線監(jiān)測(cè)裝置在諧波源識(shí)別方面的核心價(jià)值還依賴于 識(shí)別效率、定位精度、抗干擾能力、場(chǎng)景適配性 等關(guān)鍵指標(biāo),這些指標(biāo)直接
    的頭像 發(fā)表于 10-22 16:22 ?996次閱讀

    電能質(zhì)量在線監(jiān)測(cè)裝置識(shí)別諧波源的準(zhǔn)確率有多高?

    電能質(zhì)量在線監(jiān)測(cè)裝置識(shí)別諧波源的準(zhǔn)確率受電網(wǎng)結(jié)構(gòu)、監(jiān)測(cè)方案、設(shè)備性能等多重因素影響,呈現(xiàn)顯著的 場(chǎng)景化差異 。根據(jù)行業(yè)研究與工程實(shí)踐,其準(zhǔn)確率通常在 **65%~95%** 之間波動(dòng),具體可分為以下
    的頭像 發(fā)表于 10-22 16:18 ?908次閱讀

    NVIDIA推出多語(yǔ)種語(yǔ)音AI開(kāi)放數(shù)據(jù)模型

    新發(fā)布的 Granary 數(shù)據(jù)包含約 100 萬(wàn)小時(shí)音頻,可用于訓(xùn)練高精度、高吞吐量的 AI 音頻轉(zhuǎn)錄與翻譯模型。
    的頭像 發(fā)表于 09-23 15:34 ?1004次閱讀

    模型時(shí)代,如何推進(jìn)高質(zhì)量數(shù)據(jù)建設(shè)?

    高質(zhì)量數(shù)據(jù),即具備高價(jià)值、高密度、標(biāo)準(zhǔn)化特征的數(shù)據(jù)集合。 在AI領(lǐng)域,高質(zhì)量數(shù)據(jù)地位舉足輕重,如同原油經(jīng)煉化成為汽油驅(qū)動(dòng)汽車,海量原始數(shù)據(jù)需轉(zhuǎn)化為高質(zhì)量數(shù)據(jù),才能助力大模型精準(zhǔn)掌
    的頭像 發(fā)表于 08-21 13:58 ?885次閱讀

    Text2SQL準(zhǔn)確率暴漲22.6%!3大維度全拆

    基于 BIRD 數(shù)據(jù)展開(kāi)。 方法:提出 J-Schema 呈現(xiàn)數(shù)據(jù)庫(kù)結(jié)構(gòu)并合理提供示例值,結(jié)合思維鏈引導(dǎo)模型推理。采用 Iterative DPO 迭代訓(xùn)練,多輪迭代提升性能。用自洽性方法,通過(guò)硬 / 軟投票從多個(gè)候選答案中選最優(yōu),軟投票更優(yōu)。 結(jié)果:解決 Text2S
    的頭像 發(fā)表于 08-14 11:17 ?743次閱讀
    Text2SQL<b class='flag-5'>準(zhǔn)確率</b>暴漲22.6%!3大維度全拆

    AIcube1.4目標(biāo)檢測(cè)模型導(dǎo)入yolotxt格式數(shù)據(jù)后一直顯示數(shù)據(jù)正在解析,為什么?

    AIcube1.4目標(biāo)檢測(cè)模型導(dǎo)入yolotxt格式數(shù)據(jù)后一直顯示數(shù)據(jù)正在解析 數(shù)據(jù)有問(wèn)題,把數(shù)據(jù)情況說(shuō)的詳細(xì)點(diǎn)
    發(fā)表于 08-13 07:16

    ocr識(shí)別時(shí)數(shù)據(jù)上傳壓縮包,上傳成功,但不顯示圖片,圖片數(shù)量仍顯示0,為什么?

    ocr識(shí)別時(shí)數(shù)據(jù)上傳壓縮包,上傳成功,但不顯示圖片,圖片數(shù)量仍顯示0
    發(fā)表于 07-23 08:11

    【Sipeed MaixCAM Pro開(kāi)發(fā)板試用體驗(yàn)】+ 02 + 基礎(chǔ)功能測(cè)試

    、基礎(chǔ)功能測(cè)試 1.人臉表情情緒檢測(cè) 通過(guò)開(kāi)發(fā)板自帶的應(yīng)用程序?qū)崪y(cè)發(fā)現(xiàn)識(shí)別準(zhǔn)確率非常的高(但需在離人臉較近的地方進(jìn)行識(shí)別,如果識(shí)別距離過(guò)遠(yuǎn)會(huì)導(dǎo)致
    發(fā)表于 07-19 22:50

    數(shù)據(jù)下載失敗的原因?

    數(shù)據(jù)下載失敗什么原因太大了嗎,小的可以下載,想把大的下載去本地訓(xùn)練報(bào)錯(cuò)網(wǎng)絡(luò)錯(cuò)誤 大的數(shù)據(jù)多大?數(shù)據(jù)量有多少?
    發(fā)表于 06-18 07:04

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型模型升級(jí)AI攝像機(jī),進(jìn)行AI識(shí)別應(yīng)用。 AI訓(xùn)練模型是不斷迭
    發(fā)表于 04-28 11:11

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】人臉識(shí)別

    標(biāo)定位置準(zhǔn)確。 多張人臉同時(shí)識(shí)別 在單張人臉識(shí)別的基礎(chǔ)上,嘗試多張人臉同時(shí)識(shí)別的情況。 將目標(biāo)圖片上傳至板端并運(yùn)行程序,終端輸出推理識(shí)別結(jié)果
    發(fā)表于 04-01 21:46