91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自步對比學(xué)習(xí)框架及混合記憶模型

新機(jī)器視覺 ? 來源:新機(jī)器視覺 ? 作者:新機(jī)器視覺 ? 2020-11-03 09:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文介紹一篇我們發(fā)表于NeurIPS-2020的論文《Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive Object Re-ID》,該工作提出自步對比學(xué)習(xí)框架及混合記憶模型,旨在解決無監(jiān)督及領(lǐng)域自適應(yīng)表征學(xué)習(xí)中數(shù)據(jù)無法被充分挖掘的問題。

這項(xiàng)工作在無監(jiān)督的目標(biāo)重識別任務(wù)上顯著地超越最先進(jìn)技術(shù)高達(dá)16.7%;領(lǐng)域自適應(yīng)的目標(biāo)重識別任務(wù)中,在無監(jiān)督的目標(biāo)域上超越最先進(jìn)技術(shù)高達(dá)5.0%,同時可以提升有監(jiān)督的源域性能高達(dá)6.6%。實(shí)驗(yàn)結(jié)果充分證明其廣泛的應(yīng)用場景及有效性:可被應(yīng)用于解決無監(jiān)督學(xué)習(xí)任務(wù),也可被應(yīng)用于利用額外無監(jiān)督數(shù)據(jù)提升有監(jiān)督學(xué)習(xí)的任務(wù)。代碼和模型均已公開,方法也被收錄于OpenUnReID代碼庫。

背景簡介

近年來,在無監(jiān)督學(xué)習(xí)的浪潮下,無監(jiān)督及領(lǐng)域自適應(yīng)的目標(biāo)重識別任務(wù)也逐漸受到大家的關(guān)注,在剛剛過去的ECCV2020中這個方向所發(fā)表的論文就有十余篇。

目標(biāo)重識別(Object Re-ID),包括行人重識別、車輛重識別等,旨在跨攝像機(jī)檢索和追蹤目標(biāo)人物或車輛。重識別任務(wù)的關(guān)鍵之一是學(xué)習(xí)具有辨識性的特征,并在多樣的條件變化下保持魯棒性。在如今深度學(xué)習(xí)盛行的時代,大規(guī)模數(shù)據(jù)集推動了目標(biāo)重識別任務(wù)的快速發(fā)展,然而,領(lǐng)域差異及標(biāo)注數(shù)據(jù)的高消耗等都成為了部署重識別算法中無法忽視的問題。

領(lǐng)域自適應(yīng)的目標(biāo)重識別(Domain Adaptive Object Re-ID)旨在通過源域有標(biāo)注的數(shù)據(jù)和目標(biāo)域無標(biāo)注的數(shù)據(jù)進(jìn)行訓(xùn)練,從而在目標(biāo)域上取得較好的性能。這里區(qū)分一下一般分類任務(wù)上的領(lǐng)域自適應(yīng),分類任務(wù)上的兩個領(lǐng)域的類別往往有部分或者全部的重疊,而重識別任務(wù)上的兩個領(lǐng)域,我們一般認(rèn)為類別完全沒有重復(fù)。

這是由于領(lǐng)域自適應(yīng)的重識別任務(wù)一般應(yīng)用在:將城市A訓(xùn)練的重識別模型應(yīng)用于城市B、將虛擬合成數(shù)據(jù)訓(xùn)練的重識別模型應(yīng)用于真實(shí)世界的場景等。在這些場景中,兩個領(lǐng)域間的類別一般很難存在重復(fù)。

無監(jiān)督的目標(biāo)重識別(Unsupervised Object Re-ID)與上述領(lǐng)域自適應(yīng)重識別非常相似,問題設(shè)置上的唯一區(qū)別在于沒有有標(biāo)簽的源域數(shù)據(jù)。這里著重區(qū)分一下目前很受關(guān)注的無監(jiān)督預(yù)訓(xùn)練(Unsupervised Pre-training)任務(wù),存在兩點(diǎn)主要區(qū)別: 1)無監(jiān)督預(yù)訓(xùn)練任務(wù)從網(wǎng)絡(luò)隨機(jī)初始化開始,無監(jiān)督重識別任務(wù)從預(yù)訓(xùn)練好的網(wǎng)絡(luò)開始; 2)無監(jiān)督預(yù)訓(xùn)練的網(wǎng)絡(luò)需要經(jīng)過fine-tune才可以應(yīng)用在下游任務(wù)上,而無監(jiān)督重識別任務(wù)本身可以看作一個無監(jiān)督的下游任務(wù),經(jīng)過訓(xùn)練的網(wǎng)絡(luò)可直接部署。 領(lǐng)域自適應(yīng)重識別任務(wù)的研究歷史較無監(jiān)督重識別任務(wù)而言較長一些,但本質(zhì)上這兩項(xiàng)任務(wù)是非常相似的。正如上文所述,領(lǐng)域自適應(yīng)重識別任務(wù)相較于無監(jiān)督重識別任務(wù)而言,只是在問題設(shè)置上多出了有標(biāo)簽的源域數(shù)據(jù)。 所以,大部分的算法也都可以通用,因?yàn)楹芏囝I(lǐng)域自適應(yīng)重識別算法只需要去除源域預(yù)訓(xùn)練的步驟,即可應(yīng)用于無監(jiān)督重識別任務(wù)上。該論文所介紹的方法在這兩項(xiàng)任務(wù)上也都取得了很不錯的結(jié)果。 下面,將先以領(lǐng)域自適應(yīng)重識別任務(wù)為例介紹方法,再講解如何應(yīng)用于無監(jiān)督重識別任務(wù)。

問題與動機(jī)

解決領(lǐng)域自適應(yīng)重識別任務(wù)的算法可以分為兩類,偽標(biāo)簽類和域轉(zhuǎn)換類,目前偽標(biāo)簽類可以獲得更好的性能,而偽標(biāo)簽類中的基于聚類的偽標(biāo)簽法較為有效,所以本文所基于的baseline是基于聚類的偽標(biāo)簽算法。

目前大部分基于聚類的偽標(biāo)簽算法(如SSG、MMT等)在訓(xùn)練上分為兩步:

第一步,在源域上利用有標(biāo)簽的源域數(shù)據(jù)進(jìn)行有監(jiān)督的預(yù)訓(xùn)練;

第二步,在預(yù)訓(xùn)練的模型基礎(chǔ)上,利用目標(biāo)域無標(biāo)簽的數(shù)據(jù)及其聚類產(chǎn)生的偽標(biāo)簽進(jìn)行fine-tune。

這樣的算法流程目前已經(jīng)可以獲得相對令人滿意的結(jié)果,但他們?nèi)匀淮嬖趦牲c(diǎn)缺陷:

1)在第二步的目標(biāo)域訓(xùn)練中忽略了源域數(shù)據(jù)(僅用于預(yù)訓(xùn)練),但我們認(rèn)為源域的數(shù)據(jù)由于具有真實(shí)準(zhǔn)確的標(biāo)簽,所以應(yīng)當(dāng)被充分利用;

2)在基于聚類的偽標(biāo)簽法中,往往沒有用到全部的目標(biāo)域無標(biāo)簽數(shù)據(jù),因?yàn)榛诿芏鹊木垲悾ㄈ鏒BSCAN等)本身會產(chǎn)生聚類離群值(outlier),這些聚類離群值由于無法分配偽標(biāo)簽,所以被丟棄,不用于訓(xùn)練。

但我們認(rèn)為,這樣的聚類離群值往往正是那些值得挖掘的困難訓(xùn)練樣本。尤其在訓(xùn)練的早期,往往存在大量的聚類離群值,若簡單丟棄它們,訓(xùn)練樣本將大幅減少。

所以如何合理地挖掘所有可用的信息是提升性能的關(guān)鍵。如上圖所示,我們提出在訓(xùn)練中使用全部的源域數(shù)據(jù)和目標(biāo)域數(shù)據(jù),并利用一個混合記憶模型(Hybrid Memory)來提供監(jiān)督: 對于源域數(shù)據(jù)而言,監(jiān)督是他們真實(shí)的標(biāo)簽; 對于目標(biāo)域聚類內(nèi)的數(shù)據(jù)而言,監(jiān)督是他們的聚類標(biāo)簽; 對于目標(biāo)域的聚類離群值而言,他們每張圖本身被看作一個單獨(dú)的類,所以監(jiān)督是實(shí)例級的標(biāo)簽。 我們將所有的源域類、目標(biāo)域聚類、目標(biāo)域每個聚類離群值實(shí)例看成平等的類別。

自步對比學(xué)習(xí)框架

以下是我們所提出自步對比學(xué)習(xí)(Self-paced Contrastive Learning)框架,包括一個圖像特征編碼器(Encoder)和一個混合記憶模型(Hybrid Memory)。 核心是混合記憶模型在動態(tài)變化的類別下所提供的連續(xù)有效的監(jiān)督,以統(tǒng)一對比損失函數(shù)(Unified Contrastive Loss)的形式監(jiān)督網(wǎng)絡(luò)更新,實(shí)現(xiàn)起來非常容易,且即插即用。下文將具體介紹。

統(tǒng)一對比損失函數(shù)

類別原型(Class Prototype)可以理解為該類別中較為有標(biāo)志的特征,例如無偏分類器中的權(quán)重(Weights)。在這里,我們 使用源域真實(shí)類別的類質(zhì)心(Class Centroids)作為源域數(shù)據(jù)的類別原型{w}, 使用目標(biāo)域聚類的質(zhì)心(Cluster Centroids)作為聚類內(nèi)的目標(biāo)域數(shù)據(jù)的類別原型{c}, 使用目標(biāo)域聚類離群值的實(shí)例特征(Outlier Instance Features)作為無聚類的目標(biāo)域數(shù)據(jù)的類別原型{v}。 我們所提出的混合記憶模型可以實(shí)時提供這三種類別原型以作訓(xùn)練監(jiān)督,后文將具體介紹這三種類別原型的更新過程。

對于每一組輸入的mini-batch,同時包含源域數(shù)據(jù)和目標(biāo)域數(shù)據(jù)(我們在編碼器中使用Domain-specific BNs來消除不同領(lǐng)域數(shù)據(jù)間的域差異),他們需要與上述三種類別原型進(jìn)行比較。所以我們提出統(tǒng)一對比損失函數(shù)(Unified Contrastive Learning):

該損失函數(shù)可以使得每個訓(xùn)練樣本靠近它所屬于的類別(包含源域真實(shí)類、目標(biāo)域聚類、目標(biāo)域無聚類實(shí)例),而遠(yuǎn)離其他類別。

舉例來說,對于一個來自源域的樣本,其對應(yīng)的正面原型(Positive Prototype)則是它真實(shí)類別所對應(yīng)的質(zhì)心(Class Centroids);對于一個來自目標(biāo)域的樣本,若其在聚類內(nèi),則正面原型為其所對應(yīng)的聚類質(zhì)心(Cluster Centroids)。

反之,若其不在聚類內(nèi),為聚類離群值,則正面原型為該離群值所對應(yīng)的實(shí)例特征(Outlier Instance Features)。

其實(shí),我們所設(shè)計(jì)的“混合記憶模型(Hybrid Memory)+統(tǒng)一對比損失函數(shù)(Unified Contrastive Loss)”與大家常用的“分類器(Classifier)+交叉熵?fù)p失函數(shù)(Cross-entropy Loss)”在工作機(jī)理上非常相似,可以簡單的認(rèn)為混合記憶模型是非參數(shù)化(Non-parametric)的分類器。

那么,為什么我們不用普通分類器來完成這一任務(wù)呢?

這是由于目標(biāo)域的聚類及聚類離群值在訓(xùn)練過程中動態(tài)變化(一般每個epoch前更新),無法使用固定的聚類ID及離群值實(shí)例ID訓(xùn)練分類器。如若在每次更新完ID后需要重置分類器,分類器由于無法連續(xù)更新,會導(dǎo)致性能較差。

有同學(xué)會問,以前的算法(如MMT),每個epoch重置分類器依然訓(xùn)練效果很好,這是為什么?

這是因?yàn)檫@些算法不使用聚類離群值進(jìn)行訓(xùn)練。試想,將每個聚類離群值也看做單獨(dú)的類加入分類器,而每個epoch只能遍歷到該類對應(yīng)的樣本一次(因?yàn)橐粋€離群值是一個類),那么,在類樣本數(shù)如此不平均的情況下,分類器幾乎得不到有效的訓(xùn)練,便會被重置。

我們所提出的統(tǒng)一對比損失函數(shù)與自監(jiān)督任務(wù)(如MoCo、SimCLR等)中常用的對比損失函數(shù)最主要的區(qū)別在于,我們同時考慮了三種不同的類別原型,而以前的對比損失函數(shù)只考慮實(shí)例級的類別原型。他們將所有樣本看作獨(dú)立的類,進(jìn)行實(shí)例區(qū)分(Instance Discrimination)訓(xùn)練,這樣的算法很大程度上忽略了類內(nèi)(Intra-class)關(guān)系,也就是同一ID的不同圖像間的聯(lián)系,故以前的對比損失函數(shù)不適用于重識別任務(wù)。

混合記憶模型

上文中,我們提到混合記憶模型(Hybrid Memory)實(shí)時提供三種不同的類別原型,那么,這三種類別原型是如何動態(tài)地在混合記憶模型中連續(xù)更新變化的呢? 我們提出使用動量更新(Momentum Update),想必這個詞對大家來說并不陌生,在MoCo、Mean-teacher等模型中常有見到,簡單來說,就是以“參數(shù)= (1-動量)x新參數(shù)+動量x參數(shù)”的形式更新。在這里,我們針對源域和目標(biāo)域采取不同的動量更新算法,以適應(yīng)其不同的特性。

對于源域的數(shù)據(jù)而言,由于具有真實(shí)的類別,我們提出以類為單位進(jìn)行存儲。這樣的操作一方面節(jié)省空間,一方面在實(shí)驗(yàn)中也取得了較好的結(jié)果。我們將當(dāng)前mini-batch內(nèi)的源域特征根據(jù)類別算均值,然后以動量的方式累計(jì)到混合記憶模型中對應(yīng)的類質(zhì)心上去,詳見下圖。

對于目標(biāo)域的數(shù)據(jù)而言,我們提出全部以實(shí)例為單位進(jìn)行特征存儲,這是為了讓目標(biāo)域樣本即使在聚類和非聚類離群值不斷變化的情況下,仍然能夠在混合記憶模型中持續(xù)更新(Continuously Update)。

具體而言,我們將當(dāng)前mini-batch內(nèi)的目標(biāo)域特征根據(jù)實(shí)例的index累計(jì)到混合記憶模型對應(yīng)的實(shí)例特征上去。

那么,如何獲得目標(biāo)域的聚類質(zhì)心及離群值實(shí)例特征呢?

我們在混合記憶模型中,將同一聚類ID的特征做平均,即可獲得聚類質(zhì)心;而離群值的實(shí)例特征則直接從混合記憶模型中提取剩下的實(shí)例特征即可,如下圖。

由簡入難的自步學(xué)習(xí)

我們發(fā)現(xiàn),由于聚類和聚類離群值都被看作平等且獨(dú)立的類,所以聚類的可靠性對訓(xùn)練的影響至關(guān)重要。由于網(wǎng)絡(luò)在訓(xùn)練的一開始對于圖像的辨別性較差,聚類的噪聲也較大。 所以我們借鑒自步學(xué)習(xí)(Self-paced Learning)的思想,先從最可靠的聚類開始,再逐步增加聚類,由簡入難。我們提出了一個聚類可靠性評價標(biāo)準(zhǔn)(Cluster Reliability Criterion),保留可靠的聚類,而將不可靠的聚類拆解回?zé)o聚類的離群值實(shí)例。我們所提出的聚類可靠性評價標(biāo)準(zhǔn)分為聚類獨(dú)立性(Cluster Independence)和聚類緊湊型(Cluster Compactness)。

聚類獨(dú)立性(Cluster Independence)體現(xiàn)為一個可靠的聚類應(yīng)當(dāng)具有良好的類間距離,通俗點(diǎn)來說,不能和附近的聚類“如膠似漆”。

我們提出,放寬聚類的標(biāo)準(zhǔn),例如DBSCAN中的最小類內(nèi)距離,此時,如果該聚類與周圍的聚類融合成了一個大聚類、或者吸收了附近的離群值,那么我們認(rèn)為,該聚類的獨(dú)立性不太好。

我們使用一個IoU(Intersection over Union)公式來計(jì)算聚類的獨(dú)立性。

聚類緊湊型(Cluster Compactness)體現(xiàn)為一個可靠的聚類內(nèi)的樣本應(yīng)該相互靠近,具有良好的類內(nèi)距離。

類似的,我們提出,縮緊聚類的標(biāo)準(zhǔn),此時,如果該聚類被拆解成了多個小聚類、或者拆出了一些聚類離群值,那么我們認(rèn)為,該聚類的緊湊型不太好。

我們使用另一個IoU公式來計(jì)算聚類的緊湊型,如上圖所示。

直觀地說,該聚類可靠性評價標(biāo)準(zhǔn)的出發(fā)點(diǎn)在于,一個可靠的聚類應(yīng)當(dāng)在多尺度的聚類環(huán)境下保持穩(wěn)定。從下圖訓(xùn)練的統(tǒng)計(jì)中可以看出,使用了聚類可靠性評價標(biāo)準(zhǔn)的模型(紅色線)相比較于未使用的模型(藍(lán)色線),無論是在聚類的數(shù)量還是質(zhì)量上,都離真實(shí)類別更近。

算法流程

以上,我們介紹了核心的模塊,我們梳理一下具體訓(xùn)練流程:

初始化(Initialization):圖像編碼器(Encoder)的初始化一般使用ImageNet Pre-trained Weights,混合記憶模型(Hybrid Memory)的初始化使用初始的編碼器對所有的樣本進(jìn)行一次前向計(jì)算。

聚類和聚類離群值:在每個epoch前進(jìn)行聚類,并根據(jù)聚類可靠性評價標(biāo)準(zhǔn)(Cluster Reliability Criterion)進(jìn)行聚類的篩選,僅保留可靠的聚類,其余樣本均視作聚類離群值。

網(wǎng)絡(luò)和混合記憶模型的更新:在每個iteration中,首先利用編碼器對mini-batch的樣本進(jìn)行特征編碼,然后利用統(tǒng)一對比損失函數(shù)(Unified Contrastive Loss)進(jìn)行網(wǎng)絡(luò)的反向傳播更新,最后利用編碼的特征以動量更新(Momentum Update)的方式更新混合記憶模型(Hybrid Memory)。

無監(jiān)督重識別上的應(yīng)用

在一開始曾提到,該方法也可以被有效利用在無監(jiān)督重識別任務(wù)上,只需要將混合記憶模型和統(tǒng)一對比損失函數(shù)中有關(guān)源域的部分去掉即可。

無監(jiān)督重識別任務(wù)上的自步對比學(xué)習(xí)框架如下:

對應(yīng)的統(tǒng)一對比損失函數(shù)如下:

實(shí)驗(yàn)

由于自步對比學(xué)習(xí)框架中可以同時訓(xùn)練源域和目標(biāo)域的數(shù)據(jù),所以訓(xùn)練是one-stage的,無需單獨(dú)的源域預(yù)訓(xùn)練步驟。實(shí)驗(yàn)中,我們針對多個真實(shí)及虛擬合成數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn),在行人重識別和車輛重識別任務(wù)上都測試了該方法的有效性。

領(lǐng)域自適應(yīng)任務(wù)中,我們在無監(jiān)督的目標(biāo)域上均超越先前算法,在PersonX->MSMT17的任務(wù)上領(lǐng)先高達(dá)5.0%的mAP,這是由于在“虛擬合成->真實(shí)”的遷移任務(wù)中,由于聚類噪聲較大,產(chǎn)生的聚類離群值較多,所以我們所提出的充分挖掘所有樣本的方案所帶來的優(yōu)勢將更為突出。

除此之外,一項(xiàng)有趣的發(fā)現(xiàn),VehicleID->VeRi-776與VehicleX->VeRi-776在目標(biāo)域上獲得幾乎相似的性能,這說明,在未來,隨著領(lǐng)域自適應(yīng)算法的不斷升級,可能我們再也不需要人為標(biāo)注的源域數(shù)據(jù)來作為輔助了,可以使用虛擬合成的數(shù)據(jù)予以代替。

以前的算法由于在目標(biāo)域的訓(xùn)練中忽視了源域數(shù)據(jù),所以會無法避免地忘記源域的信息,而我們提出的方法對源域和目標(biāo)域數(shù)據(jù)進(jìn)行了聯(lián)合訓(xùn)練,在目標(biāo)域性能提升的同時,也提升了有監(jiān)督的源域性能。

可以看到,在MSMT17-Market-1501的遷移訓(xùn)練中,我們利用Market-1501的無標(biāo)簽數(shù)據(jù)大幅提升了MSMT17上的有監(jiān)督訓(xùn)練性能(+6.6%mAP)。這意味著,我們所提出的算法可以被用于利用無標(biāo)簽數(shù)據(jù)提升有監(jiān)督訓(xùn)練的任務(wù)。

同樣,在無監(jiān)督重識別任務(wù)上,我們大幅領(lǐng)先已有的算法,在Market-1501的benchmark上領(lǐng)先高達(dá)16.7%的mAP。

我們也將MoCo在無監(jiān)督重識別任務(wù)上進(jìn)行了復(fù)現(xiàn),正如我們之前所介紹了,這類無監(jiān)督預(yù)訓(xùn)練任務(wù)的算法并不適用于無監(jiān)督的重識別任務(wù),因?yàn)樗麄儗⑺械臉颖疽曌鳘?dú)立的類,忽視了重識別任務(wù)中最重要的類內(nèi)類間關(guān)系。

再強(qiáng)調(diào)一下,MoCo這類算法適用于無監(jiān)督預(yù)訓(xùn)練任務(wù),在應(yīng)用于下游任務(wù)上時需要fine-tune,而無監(jiān)督重識別任務(wù)本身是一個下游任務(wù)。

有細(xì)心的同學(xué)可能會發(fā)現(xiàn),剛剛展示的結(jié)果中沒有涉及DukeMTMC-reID數(shù)據(jù)集的實(shí)驗(yàn),這是因?yàn)镈ukeMTMC-reID已經(jīng)官方下架,在AC的要求下,我們需要在論文的最終版本中刪去所有有關(guān)DukeMTMC-reID的實(shí)驗(yàn)結(jié)果。

但是DukeMTMC-reID是行人重識別相關(guān)任務(wù)中常用的數(shù)據(jù)集,所以為了方便大家未來進(jìn)行算法的調(diào)試和比較,我在這里也簡單展示一下DukeMTMC-reID相關(guān)的結(jié)果,更多的結(jié)果大家可以在我們arXiv的第一個版本(arxiv.org/abs/2006.0271)中找到。

總結(jié)

該文提出了一個簡單有效的自步對比學(xué)習(xí)框架,核心思想是利用多種不同形式的類別原型提供混合監(jiān)督,以實(shí)現(xiàn)對所有訓(xùn)練數(shù)據(jù)的充分挖掘。雖然本文只在目標(biāo)重識別任務(wù)上進(jìn)行了實(shí)驗(yàn),但是提出的混合記憶模型及統(tǒng)一對比損失函數(shù)是即插即用的,有很大潛力在其他任務(wù)上取得較好的結(jié)果,歡迎大家嘗試。

這次NeurIPS的評審過程相當(dāng)刺激,從初審的7663到終審的5553,reviewers的降分起源對DukeMTMC-reID數(shù)據(jù)集的討論,最終這份工作也經(jīng)歷了NeurIPS今年特有的Ethics Review,起起落落,最終被AC撈起,感恩??梢?,目前學(xué)術(shù)界對于數(shù)據(jù)集的隱私保護(hù)規(guī)范要求也越來越嚴(yán)格。

推薦大家在以后領(lǐng)域自適應(yīng)重識別工作中考慮采用合成數(shù)據(jù)集,如PersonX、VehicleX等,不僅可以避免不必要的麻煩,并且由于合成數(shù)據(jù)和真實(shí)數(shù)據(jù)的域差異較大,算法上可以提shua升fen的空間也會較大。分類任務(wù)及分割任務(wù)上的領(lǐng)域自適應(yīng)往往采用合成數(shù)據(jù)作為源域,且這次VisDA-2020的比賽中,源域采用的也是合成數(shù)據(jù)集PersonX,可見合成數(shù)據(jù)到真實(shí)數(shù)據(jù)的自適應(yīng)任務(wù)備受關(guān)注。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7340

    瀏覽量

    94824
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4785

    瀏覽量

    98107
  • 識別
    +關(guān)注

    關(guān)注

    3

    文章

    175

    瀏覽量

    32603

原文標(biāo)題:?自步對比學(xué)習(xí): 充分挖掘無監(jiān)督學(xué)習(xí)樣本

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Evermem 突破大模型記憶瓶頸實(shí)現(xiàn)低耗高效

    測試的“花架子”,實(shí)際部署后效果照樣能打。而且團(tuán)隊(duì)有底氣有信心,技術(shù)代碼全部開源。 為了方便開發(fā)者使用,他們剛剛還專門上線了云服務(wù)——現(xiàn)在只需一個最簡單的API,就能直接將最前沿的大模型記憶能力裝進(jìn)自己的應(yīng)用。 學(xué)習(xí)大腦
    的頭像 發(fā)表于 03-03 13:44 ?156次閱讀
    Evermem 突破大<b class='flag-5'>模型</b><b class='flag-5'>記憶</b>瓶頸實(shí)現(xiàn)低耗高效

    強(qiáng)化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?

    是一種讓機(jī)器通過“試錯”學(xué)會決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強(qiáng)化學(xué)習(xí)不會把每一的“正確答案”都告訴
    的頭像 發(fā)表于 01-31 09:34 ?664次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會讓自動駕駛<b class='flag-5'>模型</b><b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    DeepSeek開源Engram:讓大模型擁有&quot;過目不忘&quot;的類腦記憶

    of Sparsity for Large Language Models》,并同步開源記憶模塊Engram。這一機(jī)制通過可擴(kuò)展查找結(jié)構(gòu),讓大模型實(shí)現(xiàn)O(1)時間復(fù)雜度的"條件反射式"記憶檢索,被業(yè)界視為破解
    的頭像 發(fā)表于 01-14 16:07 ?302次閱讀
    DeepSeek開源Engram:讓大<b class='flag-5'>模型</b>擁有&quot;過目不忘&quot;的類腦<b class='flag-5'>記憶</b>

    摩爾線程新一代大語言模型對齊框架URPO入選AAAI 2026

    近日,摩爾線程在人工智能前沿領(lǐng)域取得重要突破,其提出的新一代大語言模型對齊框架——URPO統(tǒng)一獎勵與策略優(yōu)化,相關(guān)研究論文已被人工智能領(lǐng)域的國際頂級學(xué)術(shù)會議AAAI 2026收錄。這一成果標(biāo)志著摩爾線程在大模型基礎(chǔ)技術(shù)探索上邁出
    的頭像 發(fā)表于 11-17 16:03 ?506次閱讀
    摩爾線程新一代大語言<b class='flag-5'>模型</b>對齊<b class='flag-5'>框架</b>URPO入選AAAI 2026

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文
    發(fā)表于 07-31 11:38

    華為宣布開源盤古7B稠密和72B混合專家模型

    電子發(fā)燒友網(wǎng)綜合報道 2025年6月30日,華為正式宣布開源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型及基于昇騰的模型推理技術(shù),此舉標(biāo)志著華為在AI技術(shù)生
    的頭像 發(fā)表于 07-06 05:51 ?7429次閱讀

    模型推理顯存和計(jì)算量估計(jì)方法研究

    ,如乘法、加法等; (2)根據(jù)各層計(jì)算操作的類型和復(fù)雜度,確定每層所需的計(jì)算量; (3)將各層計(jì)算量相加,得到模型總的計(jì)算量。 基于硬件加速的算力估計(jì) 隨著硬件加速技術(shù)的發(fā)展,許多深度學(xué)習(xí)框架支持
    發(fā)表于 07-03 19:43

    【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    的負(fù)載平衡、多token預(yù)測技術(shù)(MTP) 等,大幅提升了模型的性能。 在模型訓(xùn)練方面,DeepSeek 依托研的輕量級分布式訓(xùn)練框架 HAI-LLM,通過算法、
    發(fā)表于 06-09 14:38

    從FA模型切換到Stage模型時:module的切換說明

    見下列表格。 表1 FA模型module標(biāo)簽與Stage模型module標(biāo)簽差異對比 FA標(biāo)簽標(biāo)簽說明對應(yīng)的Stage標(biāo)簽差異說明mainAbility服務(wù)中心圖標(biāo)露出的ability,常駐進(jìn)程拉起時會啟動
    發(fā)表于 06-05 08:16

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗(yàn)】+ 入門篇學(xué)習(xí)

    的是基礎(chǔ)篇,主要從為什么要學(xué)習(xí)AI Agent和開發(fā)AI Agent的知識儲備入手進(jìn)行介紹。作為入門AI Agent的小白還是很有必要學(xué)習(xí)的。這里將一些重要觀點(diǎn)作個歸納 1.AI Agent=大模型+
    發(fā)表于 05-02 09:26

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的任務(wù),如寫作、翻譯、問答等。https
    的頭像 發(fā)表于 04-30 18:34 ?1323次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) LLM語言<b class='flag-5'>模型</b>

    模型時代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時代 ,AI模型的參數(shù)規(guī)模都在百萬級別,僅需在單張消費(fèi)類顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,模型參數(shù)
    的頭像 發(fā)表于 04-25 11:43 ?858次閱讀
    大<b class='flag-5'>模型</b>時代的深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>框架</b>

    CoT 數(shù)據(jù)集如何讓大模型學(xué)會一思考?

    目前,大模型的回答路徑基本遵循 input-output 的方式,在面對復(fù)雜任務(wù)時表現(xiàn)不佳。反之,人類會遵循一套有條理的思維流程,逐步推理得出正確答案。這種差異促使人們深入思考:如何才能讓大模型“智能涌現(xiàn)”,學(xué)會像人類一樣“一
    的頭像 發(fā)表于 04-24 16:51 ?1400次閱讀
    CoT 數(shù)據(jù)集如何讓大<b class='flag-5'>模型</b>學(xué)會一<b class='flag-5'>步</b>一<b class='flag-5'>步</b>思考?

    百度飛槳框架3.0正式版發(fā)布

    模型訓(xùn)練成本高?推理效率低?硬件適配難? 4月1日,百度發(fā)布 飛槳框架3.0正式版 !五大特性專為大模型設(shè)計(jì)。 作為大模型時代的Infra“基礎(chǔ)設(shè)施”,深度
    的頭像 發(fā)表于 04-02 19:03 ?1209次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    STM32如何移植Audio框架?

    最近在學(xué)習(xí)音頻解碼,想用一下Audio框架。 1、這個該如何移植到自己創(chuàng)建的BSP并對接到device框架中?看了官方移植文檔沒有對沒有對該部分的描述。 2、我只想實(shí)現(xiàn)一個簡單的播放功能,只用一個DAC芯片(比如CS4344)是
    發(fā)表于 04-01 08:08