91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

研究人員提出一種基于哈希的二值網(wǎng)絡(luò)訓練方法 比當前方法的精度提高了3%

DPVg_AI_era ? 2018-02-08 15:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

程健研究員團隊最近提出了一種基于哈希的二值網(wǎng)絡(luò)訓練方法,揭示了保持內(nèi)積哈希和二值權(quán)重網(wǎng)絡(luò)之間的緊密關(guān)系,表明了網(wǎng)絡(luò)參數(shù)二值化本質(zhì)上可以轉(zhuǎn)化為哈希問題,在ResNet-18上,該方法比當前最好方法的精度提高了3%。

近年來,深度卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)深入了計算機視覺的各個任務(wù)中,并在圖像識別、目標跟蹤、語義分割等領(lǐng)域中取得了重大突破。在一些場景下,當前深度卷積網(wǎng)絡(luò)性能已經(jīng)足以部署到實際應(yīng)用中,這也鼓舞著人們將深度學習落地到更多的應(yīng)用中。

然而,深度卷積網(wǎng)絡(luò)在實際部署時面臨著參數(shù)量和時間復雜度等兩方面的問題,一方面是深度網(wǎng)絡(luò)巨大的參數(shù)量會占用大量的硬盤存儲和運行內(nèi)存,這些硬件資源在一些移動和嵌入式設(shè)備中往往是很有限的;另外一方面就是深度網(wǎng)絡(luò)的計算復雜度較高,這會使得網(wǎng)絡(luò)推理速度很慢,同時會增加移動設(shè)備的電量消耗。

為了解決此類問題,人們提出了很多網(wǎng)絡(luò)加速和壓縮方法,其中網(wǎng)絡(luò)參數(shù)二值化是一種將網(wǎng)絡(luò)參數(shù)表示為二值參數(shù)的方法。由于二值網(wǎng)絡(luò)中參數(shù)只有+1和-1兩種值,乘法運算就可以被加法運算替代。由于乘法運算比加法運算需要更多的硬件資源和計算周期,使用加法運算替代乘法運算能夠?qū)崿F(xiàn)網(wǎng)絡(luò)加速的目的。

另一方面,原始網(wǎng)絡(luò)參數(shù)的存儲格式是32位浮點數(shù),二值參數(shù)網(wǎng)絡(luò)只使用1位來表示+1或者-1,達到了32倍的壓縮目的。但是將參數(shù)從32位量化到1位會導致較大的量化損失,當前的二值網(wǎng)絡(luò)訓練方法往往會導致較大的網(wǎng)絡(luò)精度下降,如何學習二值的網(wǎng)絡(luò)參數(shù)同時又不帶來較大的精度下降是一個問題。

圖自網(wǎng)絡(luò)

自動化所程健研究員團隊的胡慶浩等人最近提出了一種基于哈希的二值網(wǎng)絡(luò)訓練方法,揭示了保持內(nèi)積哈希(Innerproduct Preserving Hashing)和二值權(quán)重網(wǎng)絡(luò)之間的緊密關(guān)系,表明了網(wǎng)絡(luò)參數(shù)二值化本質(zhì)上可以轉(zhuǎn)化為哈希問題。

給定訓練好的全精度浮點32位網(wǎng)絡(luò)參數(shù),二值權(quán)重網(wǎng)絡(luò)(BWN)的目的是學習二值網(wǎng)絡(luò)參數(shù)并維持原始網(wǎng)絡(luò)精度。學習二值參數(shù)的最樸素的方式就是最小化與二值參數(shù)之間的量化誤差,但是這種量化誤差和網(wǎng)絡(luò)精度之間存在著一定的差距,最小化量化誤差并不會直接提高網(wǎng)絡(luò)精度,因為每一層的量化誤差會逐層積累,而且量化誤差會受到輸入數(shù)據(jù)的增幅。

一種更好的學習二值參數(shù)的方式是最小化內(nèi)積相似性之差。假設(shè)網(wǎng)絡(luò)某一層輸入為是原始的內(nèi)積相似性,則是量化之后的內(nèi)積相似性,最小化之間的誤差可以學習到更好的二值參數(shù)。從哈希的角度來講,代表著數(shù)據(jù)在原始空間中的相似性或者近鄰關(guān)系,則代表著數(shù)據(jù)投影到漢明空間之后的內(nèi)積相似性。而哈希的作用就是將數(shù)據(jù)投影到漢明空間,且在漢明空間中保持數(shù)據(jù)在原始空間中的近鄰關(guān)系。至此,學習二值參數(shù)的問題就轉(zhuǎn)化成了一個在內(nèi)積相似性下的哈希問題,該哈希主要是將數(shù)據(jù)投影到漢明空間并保持其在原始空間中的內(nèi)積相似性。

團隊首先在VGG9小網(wǎng)絡(luò)上對方法進行驗證,并且在AlexNet和ResNet-18上超過當前的二值權(quán)重網(wǎng)絡(luò)。特別的,在ResNet-18上,該方法比當前最好方法的精度提高了3個百分點。獲得了較好的實驗結(jié)果。

表1:不同方法在VGG9上的分類錯誤率

表2:不同方法在AlexNet的分類精度

表3:不同方法在ResNet-18的分類精度

Dasgupta等人[2]在2017年11月份的《Science》上撰文揭示了果蠅嗅覺神經(jīng)回路其實是一種特殊的哈希,其哈希投影是稀疏的二值連接。對比二值權(quán)重網(wǎng)絡(luò)(BWN),我們可以發(fā)現(xiàn)二者之間有著密切的關(guān)系,首先,二者的網(wǎng)絡(luò)都是二值連接,這意味著二值權(quán)重在生物神經(jīng)回路中有存在的生物基礎(chǔ),這也為二值權(quán)重網(wǎng)絡(luò)的潛在機理提供了啟發(fā);其次,二者都是為了保持近鄰關(guān)系,并且可以描述為哈希問題,這種現(xiàn)象表明神經(jīng)網(wǎng)絡(luò)的某些連接是為了保持近鄰關(guān)系。最后,果蠅嗅覺回路中的稀疏連接和卷積層的參數(shù)共享機制有著異曲同工之處,都是對輸入的部分區(qū)域進行連接。

相關(guān)工作已經(jīng)被AAAI2018接收[1],并將在大會上作口頭報告。

參考資料:

[1] Qinghao Hu, Peisong Wang, Jian Cheng. From Hashing to CNNs: Training Binary Weight Networks via Hashing. AAAI 2018

[2]Dasgupta S, Stevens C F, Navlakha S. A neural algorithm for a fundamental computing problem. Science, 2017, 358(6364): 793-796.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107753
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5598

    瀏覽量

    124396
  • 二值化
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    4430

原文標題:【中科院自動化所AAAI Oral】從哈希到卷積神經(jīng)網(wǎng)絡(luò):高精度 & 低功耗

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    dc模塊電源的控制方法

    。在各種數(shù)字控制的方法中,PID控制是一種比較成熟/應(yīng)用廣泛的控制方法。PID控制優(yōu)點:1.比例環(huán)節(jié)可以減少系統(tǒng)的穩(wěn)態(tài)誤差,提高控制精度。2
    發(fā)表于 07-28 14:15

    新型諧波分析方法提高了精度減少了智能儀表的計算開銷

    新型諧波分析方法提高了精度,減少了智能儀表的計算開銷
    發(fā)表于 07-15 14:06

    求大佬分享一種基于毫米波雷達和機器視覺的前方車輛檢測方法

    研究夜間追尾事故中本車智能防撞預警方法,本文提出一種基于毫米波雷達和機器視覺的前方車輛檢測方法
    發(fā)表于 06-10 10:23

    隱藏技術(shù): 一種基于前沿神經(jīng)網(wǎng)絡(luò)理論的新型人工智能處理器

    隱藏技術(shù): 一種基于前沿神經(jīng)網(wǎng)絡(luò)理論的新型人工智能處理器 Copy東京理工大學的研究人員開發(fā)了一種名為“ Hiddenite”的新型加速器芯片,該芯片可以在計算稀疏“隱藏神經(jīng)
    發(fā)表于 03-17 19:15

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓練方法有哪些?

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓練方法有哪些?
    發(fā)表于 09-06 09:52

    探索一種降低ViT模型訓練成本的方法

    無法獲得此類資源的研究人員排除在這研究領(lǐng)域之外。通過僅使用1個GPU作為基準,顯著降低了ViT的訓練成本,這使得更多的研究人員能夠推動這
    發(fā)表于 11-24 14:56

    基于粒子群優(yōu)化的條件概率神經(jīng)網(wǎng)絡(luò)訓練方法

    條件概率神經(jīng)網(wǎng)絡(luò)在進行模式分類時具有獨特的優(yōu)勢,然而如何對其進行有效的訓練,從而找到最優(yōu)參數(shù)卻是個困難的問題。在考慮條件概率神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)特點之后,本文
    發(fā)表于 01-08 16:35 ?0次下載

    微軟在ICML 2019上提出個全新的通用預訓練方法MASS

    專門針對序列到序列的自然語言生成任務(wù),微軟亞洲研究提出了新的預訓練方法:屏蔽序列到序列預訓練(MASS: Masked Sequence to Sequence Pre-traini
    的頭像 發(fā)表于 05-11 09:19 ?4087次閱讀
    微軟在ICML 2019上<b class='flag-5'>提出</b>了<b class='flag-5'>一</b>個全新的通用預<b class='flag-5'>訓練方法</b>MASS

    新的預訓練方法——MASS!MASS預訓練幾大優(yōu)勢!

    專門針對序列到序列的自然語言生成任務(wù),微軟亞洲研究提出了新的預訓練方法:屏蔽序列到序列預訓練(MASS: Masked Sequence to Sequence Pre-traini
    的頭像 發(fā)表于 05-11 09:34 ?8074次閱讀
    新的預<b class='flag-5'>訓練方法</b>——MASS!MASS預<b class='flag-5'>訓練</b>幾大優(yōu)勢!

    普渡大學的研究人員正在開發(fā)一種綜合醫(yī)療傳感平臺

    普渡大學的研究人員正在開發(fā)一種綜合生物傳感平臺,旨在現(xiàn)有方法更快,更便宜地檢測和監(jiān)測蚊媒疾病,以幫助預防病毒爆發(fā)及其破壞性影響。
    發(fā)表于 10-25 09:19 ?1230次閱讀

    研究人員發(fā)現(xiàn)一種可在水中產(chǎn)生納米氣泡的新方法

    都柏林大學(UCD)的研究人員發(fā)現(xiàn)了一種新的節(jié)能方法,該方法可以在水中產(chǎn)生和釋放大量亞穩(wěn)的納米級氣泡,超過自然溶解度水平。
    的頭像 發(fā)表于 04-09 17:13 ?7826次閱讀

    基于異構(gòu)哈希網(wǎng)絡(luò)的跨模態(tài)人臉檢索方法探究分析

    該文提出一種基于異構(gòu)哈希網(wǎng)絡(luò)的跨模態(tài)人臉檢索方法。異構(gòu)哈希網(wǎng)
    發(fā)表于 03-31 09:29 ?18次下載
    基于異構(gòu)<b class='flag-5'>哈希</b><b class='flag-5'>網(wǎng)絡(luò)</b>的跨模態(tài)人臉檢索<b class='flag-5'>方法</b>探究分析

    一種基于異構(gòu)哈希網(wǎng)絡(luò)的跨模態(tài)人臉檢索方法

    該文提出一種基于異構(gòu)哈希網(wǎng)絡(luò)的跨模態(tài)人臉檢索方法。異枃哈希網(wǎng)
    發(fā)表于 04-28 16:24 ?5次下載
    <b class='flag-5'>一種</b>基于異構(gòu)<b class='flag-5'>哈希</b><b class='flag-5'>網(wǎng)絡(luò)</b>的跨模態(tài)人臉檢索<b class='flag-5'>方法</b>

    時識科技提出新脈沖神經(jīng)網(wǎng)絡(luò)訓練方法 助推類腦智能產(chǎn)業(yè)落地

    近日,SynSense時識科技技術(shù)團隊發(fā)表題為“EXODUS: Stable and Efficient Training of Spiking Neural Networks”的文章,在文章中提出了新的脈沖神經(jīng)網(wǎng)絡(luò)訓練方法EX
    的頭像 發(fā)表于 06-20 14:21 ?2152次閱讀

    ai大模型訓練方法有哪些?

    AI大模型訓練方法個復雜且不斷發(fā)展的領(lǐng)域。以下是ai大模型訓練方法: 數(shù)據(jù)預處理和增強 數(shù)據(jù)清洗:去除噪聲和不完整的數(shù)據(jù)。 數(shù)據(jù)標準化:將數(shù)據(jù)縮放到統(tǒng)的范圍。 數(shù)據(jù)增強:通過旋轉(zhuǎn)
    的頭像 發(fā)表于 07-16 10:11 ?5161次閱讀