91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

神經網絡會犯一些人類根本不會犯的錯誤

智能感知與物聯(lián)網技術研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2021-01-05 14:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如今,深度學習已經不僅局限于識別支票與信封上的手寫文字。比如,深度神經網絡已成為許多CV應用的關鍵組成部分,包括照片與視頻編輯器、醫(yī)療軟件與自動駕駛汽車等。神經網絡的結構與人類大腦相似,觀察世界的方式也與人類更相近。但是,神經網絡還是會犯一些人類根本不會犯的錯誤,改進空間仍很大。

ebcb00ac-4e9c-11eb-8b86-12bb97331649.png

對抗樣本:如果在這張熊貓圖片上添加一個不可察覺的噪聲層,會導致卷積神經網絡將熊貓誤識別為長臂猿。這些情況通常被稱為“對抗樣本”(adversarial examples),不經意就改變AI模型的行為。對抗機器學習是當前人工智能體系的最大挑戰(zhàn)之一。對抗樣本可能會導致機器學習模型的意外失敗,或使模型容易受到網絡攻擊。因此,構建可抵御對抗攻擊的AI系統(tǒng),已成為AI研究的熱門話題之一。在CV中,保護深度學習系統(tǒng)免受對抗攻擊的方法之一,是應用神經科學領域的研究發(fā)現(xiàn),來縮小神經網絡與哺乳動物視覺系統(tǒng)之間的差距。使用這一方法,MIT與MIT-IBM Watson AI Lab的研究人員發(fā)現(xiàn),若將哺乳動物視覺皮層的特征直接映射到深度神經網絡上,則能夠創(chuàng)建行為可預測、且面對對抗干擾(adversarial perturbation)時更“魯棒”的AI系統(tǒng)。在論文“Simulating a Primary Visual Cortex at the Front of CNNs Improves Robustness to Image Perturbations”中,研究人員介紹了一種叫做“VOneNet”的架構,將當前的深度學習技術與受神經科學啟發(fā)的神經網絡相結合。

這項工作是由來自慕尼黑大學、路德維?!ゑR克西米利安大學和奧格斯堡大學的科學家的幫助下完成的,已被NeurIPS 2020接收。1

關于卷積神經網絡

目前,計算機視覺所使用的主要架構是卷積神經網絡(CNN)。當多個卷積層堆疊在一起時,卷積層可訓練于從圖像中學習和提取層次特征。疊得較低的層可以發(fā)現(xiàn)角、邊等常規(guī)圖案,疊得較高的層則會越來越擅長發(fā)現(xiàn)圖像上的具體事物,比如物體與人。

ede745e4-4e9c-11eb-8b86-12bb97331649.png

圖注:神經網絡的每一層都會從輸入圖像中提取特定特征。與傳統(tǒng)的全連接網絡相比,ConvNet更“魯棒”、計算效率也更高。但是,CNN和人類視覺系統(tǒng)處理信息的方式之間仍然存在根本差異。“深度神經網絡(尤其是CNN)已經成長為出色的視覺皮層模型,更令人驚訝的是,與專門用于解釋神經科學數(shù)據的計算模型相比,它們更擬合從大腦中收集的實驗數(shù)據 ?!盡IT-IBM Watson AI Lab的IBM總監(jiān)David Cox介紹道?!暗⒉皇敲總€深度神經網絡都能很好地匹配大腦數(shù)據,且大腦與DNN之間一直都存在差距。”自2000年開始,Cox進入MIT師從神經科學教授James DiCarlo以來,他就一直在探索神經科學和人工智能的交叉領域。

“但是,能夠欺騙DNN的圖像卻永遠也不可能欺騙人類的視覺系統(tǒng),” Cox說?!巴瑫r,DNN難以抵抗圖像的自然退化(比如增加噪音),因此,魯棒性通常是DNN的一個開放問題。考慮到這一點,我們認為可以從這個角度去尋找大腦和DNN之間的差異?!薄按竽X是一個功能強大且高效的信息處理機器。那么,我們是否能從大腦中學習可以實際有用的新技巧呢?同時,我們可以利用對人工系統(tǒng)的了解來提供指導理論和假設,幫助我們進行了解人類大腦的實驗。” Cox說。2

類腦神經網絡

這篇論文的主要作者是Joel Dapello和Tiago Marques,Cox和導師DiCarlo加入他們,主要研究當神經網絡的激活與大腦活動相似時,神經網絡是否對對抗攻擊更具有“魯棒性”。AI研究人員測試了在ImageNet數(shù)據集上訓練的幾種流行的CNN架構,包括AlexNet,VGG和ResNet的各種變體。此外,他們還測試了一些已經過“對抗訓練”的深度學習模型,在這個過程中,神經網絡在對抗樣本中進行訓練,以避免分類錯誤。科學家使用“ BrainScore”指標評估了AI模型,該指標比較了深度神經網絡的激活和大腦的神經反應。然后,他們通過白盒對抗攻擊測試來測量每個模型的魯棒性,在測試中,攻擊者對目標神經網絡的結構和參數(shù)有充分了解?!傲钗覀凅@訝的是,模型越像大腦,系統(tǒng)對抗對抗攻擊的魯棒性就越強,” Cox說。“受此啟發(fā),我們好奇,是否有可能通過在網絡輸入階段添加基于神經科學實驗的視覺皮層模擬來提高魯棒性(包括對抗性魯棒性)?!?

f4388278-4e9c-11eb-8b86-12bb97331649.png

圖注:研究表明,BrainScores更高的神經網絡,對白盒對抗攻擊也具有更強的魯棒性。3

VOneNet與VOneBlock

為了進一步驗證他們的發(fā)現(xiàn),研究人員開發(fā)了一個叫做“VOneNet”的混合深度學習架構,將標準的CNN與一層以神經科學為靈感的神經網絡相結合。VOneNet用VOneBlock代替了CNN的前幾層。VOneBlock是一種根據靈長類動物的初級視覺皮層(也稱為V1區(qū)域)所形成的神經網絡架構。也就是說,圖像數(shù)據首先由VOneBlock處理,然后再傳遞到網絡的其余部分。VOneBlock本身由Gabor filter bank(GFB)、簡單和復雜的細胞非線性、神經元隨機性(neuronal stochasticity)組成。GFB與其他神經網絡中的卷積層相似。但是,盡管經典的神經網絡具有隨機參數(shù)值,在訓練期間也會對參數(shù)進行調整,但GFB參數(shù)的值是根據初級視覺皮層的激活來確定和調整的。

f4623b7c-4e9c-11eb-8b86-12bb97331649.png

圖注:VOneBlock是一種模仿初級視覺皮層功能的神經網絡架構。“ GFB的權重與VOneBlock的架構選擇是根據生物學來設計的。這意味著,我們?yōu)閂OneBlock所做的所有選擇都受到了神經生理學的限制。換句話說,我們設計了VOneBlock來盡可能地模仿靈長類動物的初級視覺皮層(V1 區(qū)域)。我們考慮了過去四十年中從幾項研究中收集到的可用數(shù)據,以確定VOneBlock參數(shù)?!闭撐牡墓餐髡咧籘iago Marques介紹道。

盡管不同靈長類動物的視覺皮層存在一定差異,但也有許多共同特征,尤其是在V1區(qū)域?!按罅垦芯勘砻?,猴子的物體識別能力接近人類。我們的模型使用了已發(fā)布的可用數(shù)據來表征猴子的V1神經元的反應。盡管我們的模型仍只是靈長類動物V1的近似值(它不包括所有已知數(shù)據,這些數(shù)據甚至在某種程度上受到了限制——我們對V1處理信息的過程了解還不夠),但這是一個很好的近似值?!盡arques解釋。除了GFB層之外,VOneBlock的簡單和復雜細胞還為神經網絡提供了在不同條件下檢測特征的靈活性?!白罱K,物體識別的目標是不依賴物體的確切形狀、大小、位置和其他低層特征來識別物體的存在,”Marques說?!霸赩OneBlock中,簡單和復雜的單元在不同圖像擾動下的支持性能方面似乎起到互補的作用。簡單單元對于處理常見的損壞特別重要,而復雜單元則擅長處理白盒對抗性攻擊?!?

VOneNet的運作

VOneBlock的優(yōu)勢之一是與當前CNN架構的兼容性。VOneBlock在設計時專門設置了即插即用功能,這意味著它可以直接替代標準CNN結構的輸入層。緊隨VOneBlock核心的過渡層則可以確保其輸出與CNN架構的其余部分兼容。研究人員將VOneBlock插入幾個在ImageNet數(shù)據集上表現(xiàn)良好的CNN架構。有趣的是,添加了簡單的塊后,白盒對抗攻擊的魯棒性得到了顯著提高,且性能優(yōu)于基于訓練的防御方法。研究人員在論文中寫道:“在標準CNN架構的前端模擬靈長類初級視覺皮層的圖像處理,可以顯著提高其對圖像擾動的魯棒性,甚至使它們的性能優(yōu)于最新的防御方法?!?/p>

f51f6314-4e9c-11eb-8b86-12bb97331649.png

圖注:實驗表明,包括VOneBlock的卷積神經網絡在抵抗白盒對抗攻擊時更具有靈活性?!疤砑恿薞1的模型實際上非常簡單。我們只是更改系統(tǒng)的第一階段,同時保持網絡的其余部分不變,且此V1模型的生物保真度也仍然非常簡單。”Cox 說,并提到可以將更多細節(jié)和細微差別添加到這個模型中,使其與人類大腦更接近。Cox認為:“在某些方面,簡單是一種優(yōu)勢,因為它隔離了可能重要的較小原則集,但有趣的是,它探索了生物保真度的其他方面是否重要。”該論文挑戰(zhàn)了過去幾年中在AI研究領域越來越普遍的一種趨勢。許多AI科學家在研究中沒有應用關于腦機制的最新發(fā)現(xiàn),而是專注于利用可用的龐大計算資源和大數(shù)據集來訓練越來越大規(guī)模的神經網絡,來推動AI領域的進步。但這種方法給人工智能研究帶來了許多挑戰(zhàn)。VOneNet證明,生物智能仍然有很大的發(fā)展?jié)摿Γ梢越鉀QAI研究正面臨的一些基本問題。論文所介紹的模型直接采自靈長類動物神經生物學,只需要較少的訓練便能實現(xiàn)更類人的行為。這是良性循環(huán)的新轉折:神經科學和人工智能相互促進并增強了對方的理解和能力。在未來,本文的研究人員將進一步探索VOneNet的特性,以及神經科學和AI研究發(fā)現(xiàn)的進一步融合。據Cox介紹,這項工作目前只有一個局限性,即雖然已經證明了添加V1塊可以帶來改進,但他們卻無法很好地理解為什么會有這樣的改進。發(fā)展理論,以找到改善的原因,能夠幫助AI研究人員最終了解真正重要的步驟,并建立更高效的系統(tǒng)。原文鏈接:https://bdtechtalks.com/2020/12/07/vonenet-neurscience-inspired-deep-learning/

原文標題:即插即用:把仿生模塊和CNN拼接,對抗攻擊魯棒性顯著提高!

文章出處:【微信公眾號:通信信號處理研究所】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107833
  • 人工智能
    +關注

    關注

    1817

    文章

    50102

    瀏覽量

    265514
  • 自動駕駛
    +關注

    關注

    793

    文章

    14887

    瀏覽量

    179979

原文標題:即插即用:把仿生模塊和CNN拼接,對抗攻擊魯棒性顯著提高!

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經網絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經網絡的實現(xiàn)。什么是神經網絡?神經網絡的核心思想是模仿生物神經系統(tǒng)的結構,特別是大腦中神經
    的頭像 發(fā)表于 12-17 15:05 ?336次閱讀
    <b class='flag-5'>神經網絡</b>的初步認識

    NMSIS神經網絡庫使用介紹

    NMSIS NN 軟件庫是組高效的神經網絡內核,旨在最大限度地提高 Nuclei N 處理器內核上的神經網絡的性能并最??大限度地減少其內存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓練框架,目標是訓練個手寫數(shù)字識別的神經
    發(fā)表于 10-22 07:03

    CICC2033神經網絡部署相關操作

    在完成神經網絡量化后,需要將神經網絡部署到硬件加速器上。首先需要將所有權重數(shù)據以及輸入數(shù)據導入到存儲器內。 在仿真環(huán)境下,可將其存于個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    人工智能工程師高頻面試題匯總:循環(huán)神經網絡篇(題目+答案)

    ,提前準備一些面試常問的問題,比如概率論與統(tǒng)計知識、機器學習的那些算法,或者深度學習的框架,還有怎么優(yōu)化模型,循環(huán)神經網絡等,這些都是加分項,能有效提高面試通過率
    的頭像 發(fā)表于 10-17 16:36 ?712次閱讀
    人工智能工程師高頻面試題匯總:循環(huán)<b class='flag-5'>神經網絡</b>篇(題目+答案)

    液態(tài)神經網絡(LNN):時間連續(xù)性與動態(tài)適應性的神經網絡

    1.算法簡介液態(tài)神經網絡(LiquidNeuralNetworks,LNN)是種新型的神經網絡架構,其設計理念借鑒自生物神經系統(tǒng),特別是秀麗隱桿線蟲的
    的頭像 發(fā)表于 09-28 10:03 ?1240次閱讀
    液態(tài)<b class='flag-5'>神經網絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經網絡</b>

    神經網絡的并行計算與加速技術

    隨著人工智能技術的飛速發(fā)展,神經網絡在眾多領域展現(xiàn)出了巨大的潛力和廣泛的應用前景。然而,神經網絡模型的復雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1136次閱讀
    <b class='flag-5'>神經網絡</b>的并行計算與加速技術

    步進電機EMC整改:不過關?常見誤區(qū)你可能正在

    深圳南柯電子|步進電機EMC整改:不過關?常見誤區(qū)你可能正在
    的頭像 發(fā)表于 09-08 09:58 ?639次閱讀

    基于神經網絡的數(shù)字預失真模型解決方案

    在基于神經網絡的數(shù)字預失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3478次閱讀

    避雷!樹莓派初學者常犯的5個錯誤

    卡、安裝錯誤的操作系統(tǒng)版本、同時使用兩個網絡適配器、使用不合適的電源以及創(chuàng)建無法恢復的備份。但是,只指出問題而不提供解決方案又有什么用呢?繼續(xù)閱讀,我還將推薦一些
    的頭像 發(fā)表于 07-22 17:16 ?1342次閱讀
    避雷!樹莓派初學者常犯的5個<b class='flag-5'>錯誤</b>!

    無刷電機小波神經網絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了個以三相相電壓為輸人,轉角為輸出的小波神經網絡來實現(xiàn)轉角預測,并采用改進遺傳算法來訓練網絡結構與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經網絡專家系統(tǒng)在電機故障診斷中的應用

    的診斷誤差。仿真結果驗證了該算法的有效性。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:神經網絡專家系統(tǒng)在電機故障診斷中的應用.pdf【免責聲明】本文系網絡轉載,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問題,請第
    發(fā)表于 06-16 22:09

    神經網絡RAS在異步電機轉速估計中的仿真研究

    ,在定程度上擴展了轉速估計范圍。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:神經網絡RAS在異步電機轉速估計中的仿真研究.pdf【免責聲明】本文系網絡轉載,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經網絡的步驟解析

    本文的目的是在神經網絡已經通過python或者MATLAB訓練好的神經網絡模型,將訓練好的模型的權重和偏置文件以TXT文件格式導出,然后通過python程序將txt文件轉化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1232次閱讀
    基于FPGA搭建<b class='flag-5'>神經網絡</b>的步驟解析

    NVIDIA實現(xiàn)神經網絡渲染技術的突破性增強功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經網絡渲染技術的突破性增強功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預覽版中增加神經網絡著色技術,讓開
    的頭像 發(fā)表于 04-07 11:33 ?1197次閱讀