91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)的最大短板原來(lái)是它!

SSDFans ? 來(lái)源:YXQ ? 2019-06-17 09:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上文用簡(jiǎn)單的小學(xué)數(shù)學(xué)算了一下Alexnet的參數(shù)說需要的內(nèi)存空間,但對(duì)于運(yùn)行的神經(jīng)網(wǎng)絡(luò),還有一個(gè)運(yùn)行時(shí)的資源的問題。在github上的convnet-burden上有一個(gè)feature memory[1]的概念,這個(gè)和輸入的圖片的大小和運(yùn)算的batch的size 都有關(guān)。

因此,Nvida的GPU上的HBM和GDDR對(duì)于大部分神經(jīng)網(wǎng)絡(luò)的煉丹師都是非常重要,能夠在一個(gè)GPU的內(nèi)存里完成模型的運(yùn)算而不用考慮換進(jìn)換出是大有裨益的。

總體來(lái)說,這個(gè)統(tǒng)計(jì)還是很直觀的[2],就是網(wǎng)絡(luò)模型越復(fù)雜,參數(shù)的規(guī)模越大,資源的占用也就越多,對(duì)GPU的整體內(nèi)存占用也是越多。因此如何在有限的GPU上完成模型的訓(xùn)練也成了一個(gè)非常有用的技巧。

在我們考慮計(jì)算對(duì)于內(nèi)存帶寬的需求之前,我們需要復(fù)習(xí)一下作為一個(gè)神經(jīng)網(wǎng)絡(luò),每一層對(duì)于計(jì)算的需求,這個(gè)還是可以用小學(xué)數(shù)學(xué)搞定的東西。還是用標(biāo)準(zhǔn)的Alexnet為例。

對(duì)于計(jì)算來(lái)講,卷積層應(yīng)該是主要,對(duì)于Pooling來(lái)講,應(yīng)該是沒有的,對(duì)于FC來(lái)講,也是比較簡(jiǎn)單的?;旧鲜浅朔?

Conv Layer的計(jì)算復(fù)雜度:

1. 當(dāng)前的層的圖片的width

2. 當(dāng)前的層的圖片的height

3.上一層的深度

4。當(dāng)前層的深度

5. 當(dāng)前kernel的大小

的乘積就是這一層卷積的計(jì)算復(fù)雜度。以Alexnet的conv1為例:

Conv-1:第一層的卷積有96個(gè)kernel。kernel的大小是11X11,卷積的stride是4,padding是0

當(dāng)前的輸出的是55X55,上一層的input的深度是3, 當(dāng)前的kernel是11X11,當(dāng)前的深度是96.因此

55X55X3X11X11X96=105,415,200次MAC的計(jì)算。

對(duì)于Alexnet來(lái)講,需要注意的是conv2,4 ,5三個(gè)層的計(jì)算沒有和上一層直接跨GPU,因此需要的計(jì)算規(guī)模上/2.

對(duì)于FC來(lái)講,比較粗略的計(jì)算就是 輸入和當(dāng)前層的規(guī)模的乘積。

MaxPool-3:第五層卷積的最大值,Pooling是3X3, stride是2,

FC-1:第一個(gè)全連接層,有4096個(gè)神經(jīng)元

因此FC-1 的計(jì)算就是:

6X6X256X4096=37,748,736

因此,總結(jié)一下之前的參數(shù)信息和計(jì)算量, Alexnet的圖如下:

這個(gè)通過統(tǒng)計(jì)每一層的計(jì)算的復(fù)雜度,就可以得到整個(gè)網(wǎng)絡(luò)的計(jì)算復(fù)雜度,也就是訓(xùn)練一次網(wǎng)絡(luò)需要多少的MACC資源。對(duì)于alexnet 來(lái)講就是:724,406,816 次操作。

這個(gè)時(shí)候,有一個(gè)關(guān)鍵的信息就出來(lái)了。就是芯片的能力,大家都是用TFLOPs來(lái)表示芯片的浮點(diǎn)處理能力。對(duì)于Nvida的芯片,有了TFLOPS,有個(gè)一個(gè)網(wǎng)絡(luò)需要的計(jì)算量,我們就可以很快計(jì)算出每一層計(jì)算需要的時(shí)間了。

對(duì)于Alexnet 的conv1 來(lái)講,在Nivida 最新的V100的120TFLOPs的GPU上,進(jìn)行訓(xùn)練的執(zhí)行時(shí)間差不多是105,415,200X2/(120X1,000,000,000,000), 約等于1.75us (微秒)。

對(duì)于Pooling這一層來(lái)講,因?yàn)闆]有MACC的計(jì)算量,但是因?yàn)橐狹ax Pooling,也需要大小比較的計(jì)算。因此,它的計(jì)算基本就是算是數(shù)據(jù)讀取。因此它的數(shù)據(jù)讀取是 conv-1 的55X55X96=290,440. 因此在同樣的GPU下,它的執(zhí)行時(shí)間就是 2.42ns.

好了,有了計(jì)算時(shí)間,現(xiàn)在需要來(lái)計(jì)算數(shù)據(jù)量了。對(duì)于Conv1來(lái)講,它包含了對(duì)一下數(shù)據(jù)的讀寫:

對(duì)于輸入數(shù)據(jù)的讀取 227X227X3 =154,587

對(duì)于輸出數(shù)據(jù)的寫入55x55x96=290,400

對(duì)于參數(shù)的讀取34848+96=34944

因此,就可以算出對(duì)于120TFLOP的GPU的要求:因?yàn)樵诤芏?a target="_blank">ASIC芯片中,輸入輸出可能在DDR中,但是參數(shù)可能放在SRAM中,因此我們就分開計(jì)算了。

對(duì)于輸入數(shù)據(jù)的讀取 (154,587/1.75)X1000,000X4=351.95GB/s

對(duì)于輸出數(shù)據(jù)的寫入 (290,400/1.75)X1000,000X4=661.16GB/s

對(duì)于參數(shù)的讀取 (34944 /1.75)X1,000,000X4=79.34GB/s

提個(gè)醒,我們現(xiàn)在的PC服務(wù)器上性能最高的DDR4的帶寬基本上在19GB/s左右??吹綁毫α税伞,F(xiàn)在的memory連很慢的CPU都跟不上。更何況老黃家的核彈。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5640

    瀏覽量

    109887
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5600

    瀏覽量

    124461

原文標(biāo)題:芯片架構(gòu)師終于證明:深度學(xué)習(xí)的最大短板原來(lái)是它!

文章出處:【微信號(hào):SSDFans,微信公眾號(hào):SSDFans】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問世以來(lái),多個(gè)在線領(lǐng)域的數(shù)字化格局迎來(lái)了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競(jìng)爭(zhēng)優(yōu)勢(shì),而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)(ML)的深度應(yīng)用,徹底重塑了整個(gè)行業(yè)的發(fā)展模
    的頭像 發(fā)表于 02-04 14:44 ?552次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?242次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測(cè)儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實(shí)時(shí)檢測(cè),頂頭丟失報(bào)警,頂頭異常狀態(tài)報(bào)警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測(cè)頂頭溫度,配備吹掃清潔系統(tǒng),維護(hù)周期長(zhǎng)
    發(fā)表于 12-22 14:33

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?247次閱讀

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概
    的頭像 發(fā)表于 09-10 17:38 ?938次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1073次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4244次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來(lái),隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域,深度學(xué)習(xí)取得了顯著成果。從原理上看
    發(fā)表于 07-14 14:50 ?1263次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1556次閱讀

    用樹莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    介紹本頁(yè)面將指導(dǎo)您在搭載64位Bullseye操作系統(tǒng)的RaspberryPi4上安裝TensorFlow。TensorFlow是一個(gè)專為深度學(xué)習(xí)開發(fā)的大型軟件庫(kù),消耗大量資源。您可以在
    的頭像 發(fā)表于 03-25 09:33 ?1240次閱讀
    用樹莓派搞<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?TensorFlow啟動(dòng)!