91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Batch大小不一定是2的n次冪?

電子工程師 ? 來源:量子位 ? 作者:量子位 ? 2022-08-08 16:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Batch大小不一定是2的n次冪?

是否選擇2的n次冪在運(yùn)行速度上竟然也相差無幾?

有沒有感覺常識被顛覆?

這是威斯康星大學(xué)麥迪遜分校助理教授Sebastian Raschka(以下簡稱R教授)的最新結(jié)論。

5bc08726-16c2-11ed-ba43-dac502259ad0.png

神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,2的n次冪作為Batch大小已經(jīng)成為一個標(biāo)準(zhǔn)慣例,即64、128、256、512、1024等。

一直有種說法,是這樣有助于提高訓(xùn)練效率。

但R教授做了一番研究之后,發(fā)現(xiàn)并非如此。

在介紹他的試驗方法之前,首先來回顧一下這個慣例究竟是怎么來的?

2的n次冪從何而來?

一個可能的答案是:因為CPUGPU的內(nèi)存架構(gòu)都是由2的n次冪構(gòu)成的。

或者更準(zhǔn)確地說,根據(jù)內(nèi)存對齊規(guī)則,cpu在讀取內(nèi)存時是一塊一塊進(jìn)行讀取的,塊的大小可以是2,4,8,16(總之是2的倍數(shù))。

5bdb5d76-16c2-11ed-ba43-dac502259ad0.png

因此,選取2的n次冪作為batch大小,主要是為了將一個或多個批次整齊地安裝在一個頁面上,以幫助GPU并行處理。

其次,矩陣乘法和GPU計算效率之間也存在一定的聯(lián)系。

5bf09aa6-16c2-11ed-ba43-dac502259ad0.jpg

假設(shè)我們在矩陣之間有以下矩陣乘法A和B:

5c011c32-16c2-11ed-ba43-dac502259ad0.jpg

當(dāng)A的行數(shù)等于B的列數(shù)的時候,兩個矩陣才能相乘。

其實就是矩陣A的第一行每個元素分別與B的第一列相乘再求和,得到C矩陣的第一個數(shù),然后A矩陣的第一行再與B矩陣的第二列相乘,得到第二個數(shù),然后是A矩陣的第二行與B矩陣的第一列……

5c10effe-16c2-11ed-ba43-dac502259ad0.jpg

因此,如上圖所示,我們擁有2×M×N×K個每秒浮點(diǎn)運(yùn)算次數(shù)(FLOPS)。

現(xiàn)在,如果我們使用帶有Tensor Cores的GPU,例如V100時,當(dāng)矩陣尺寸(M,N以及K)與16字節(jié)的倍數(shù)對齊,在FP16混合精度訓(xùn)練中,8的倍數(shù)的運(yùn)算效率最為理想。

因此,假設(shè)在理論上,batch大小為8倍數(shù)時,對于具有Tensor Cores和FP16混合精度訓(xùn)練的GPU最有效,那么讓我們調(diào)查一下這一說法在實踐中是否也成立。

不用2的n次冪也不影響速度

為了了解不同的batch數(shù)值對訓(xùn)練速度的影響,R教授在CIFAR-10上運(yùn)行了一個簡單的基準(zhǔn)測試訓(xùn)練——MobileNetV3(大)——圖像的大小為224×224,以便達(dá)到適當(dāng)?shù)腉PU利用率。

R教授用16位自動混合精度訓(xùn)練在V100卡上運(yùn)行訓(xùn)練,該訓(xùn)練能更高效地使用GPU的Tensor Cores。

如果你想自己運(yùn)行,該代碼可在此GitHub存儲庫中找到(鏈接附在文末)。

該測試共分為以下三部分:

小批量訓(xùn)練

5c2292c2-16c2-11ed-ba43-dac502259ad0.png

從上圖可以看出,以樣本數(shù)量128為參考點(diǎn),將樣本數(shù)量減少1(127)或增加1(129),的確會導(dǎo)致訓(xùn)練速度略慢,但這種差異幾乎可以忽略不計。

而將樣本數(shù)量減少28(100)會導(dǎo)致訓(xùn)練速度明顯放緩,這可能是因為模型現(xiàn)在需要處理的批次比以前更多(50,000/100=500與50,000/128= 390)。

同樣的原理,當(dāng)我們將樣本數(shù)量增加28(156)時,運(yùn)行速度明顯變快了。

最大批量訓(xùn)練

鑒于MobileNetV3架構(gòu)和輸入映像大小,上一輪中樣本數(shù)量相對較小,因此GPU利用率約為70%。

為了調(diào)查GPU滿載時的訓(xùn)練速度,本輪把樣本數(shù)量增加到512,使GPU的計算利用率接近100%。

5c3b8002-16c2-11ed-ba43-dac502259ad0.png

△由于GPU內(nèi)存限制,無法使用大于515的樣本數(shù)量

可以看出,跟上一輪結(jié)果一樣,不管樣本數(shù)量是否是2的n次冪,訓(xùn)練速度的差異幾乎可以忽略不計。

多GPU訓(xùn)練

基于前兩輪測試評估的都是單個GPU的訓(xùn)練性能,而如今多個GPU上的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練更常見。為此,這輪進(jìn)行的是多GPU培訓(xùn)。

5c492c66-16c2-11ed-ba43-dac502259ad0.png

正如我們看到的,2的n次冪(256)的運(yùn)行速度并不比255差太多。

測試注意事項

在上述3個基準(zhǔn)測試中,需要特別聲明的是:

所有基準(zhǔn)測試的每個設(shè)置都只運(yùn)行過一次,理想情況下當(dāng)然是重復(fù)運(yùn)行次數(shù)越多越好,最好還能生成平均和標(biāo)準(zhǔn)偏差,但這并不會影響到上述結(jié)論。

此外,雖然R教授是在同一臺機(jī)器上運(yùn)行的所有基準(zhǔn)測試,但兩次運(yùn)營之間沒有特意相隔很長時間,因此,這可能意味著前后兩次運(yùn)行之間的GPU基本溫度可能不同,并可能稍微影響到運(yùn)算時間。

結(jié)論

可以看出,選擇2的n次冪或8的倍數(shù)作為batch大小在實踐中不會產(chǎn)生明顯差異。

然而,由于在實際使用中已成為約定俗成,選擇2的n次冪作為batch大小,的確可以幫助運(yùn)算更簡單并且易于管理。

此外,如果你有興趣發(fā)表學(xué)術(shù)研究論文,選擇2的n次冪將使你的論文看上去不那么主觀。

盡管如此,R教授仍然認(rèn)為,batch的最佳大小在很大程度上取決于神經(jīng)網(wǎng)絡(luò)架構(gòu)和損失函數(shù)。

例如,在最近使用相同ResNet架構(gòu)的研究項目中,他發(fā)現(xiàn)batch的最佳大小可以在16到256之間,具體取決于損失函數(shù)。

因此,R教授建議始終把調(diào)整batch大小,作為超參數(shù)優(yōu)化的一部分。

但是,如果你由于內(nèi)存限制而無法使用512作為batch大小,那么則不必降到256,首先考慮500即可。

作者Sebastian Raschka

Sebastian Raschka,是一名機(jī)器學(xué)習(xí)AI 研究員。

他在UW-Madison(威斯康星大學(xué)麥迪遜分校)擔(dān)任統(tǒng)計學(xué)助理教授,專注于深度學(xué)習(xí)和機(jī)器學(xué)習(xí)研究,同時也是Lightning AI的首席 AI 教育家。

另外他還寫過一系列用Python和Scikit-learn做機(jī)器學(xué)習(xí)的教材。

5c7af340-16c2-11ed-ba43-dac502259ad0.png

基準(zhǔn)測試代碼鏈接:
https://github.com/rasbt/b3-basic-batchsize-benchmark
參考鏈接:
https://sebastianraschka.com/blog/2022/batch-size-2.html

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 矩陣
    +關(guān)注

    關(guān)注

    1

    文章

    448

    瀏覽量

    36111
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8554

    瀏覽量

    136994

原文標(biāo)題:Batch大小不一定是2的n次冪!ML資深學(xué)者最新結(jié)論

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    3諧波如何讓N線變成“導(dǎo)火索”?

    及三相不平衡問題,有效解決由3N諧波和三相不平衡造成的中性線電流過大。 實際效果如何?來看幾個真實案例 案例:浙江某制造企業(yè) 治理前:N線電流達(dá)480A,線纜發(fā)熱嚴(yán)重 治理后:
    發(fā)表于 03-09 14:11

    面向視覺語言導(dǎo)航的任務(wù)驅(qū)動式地圖學(xué)習(xí)框架MapDream介紹

    在視覺語言導(dǎo)航(VLN)中,地圖長期作為獨(dú)立模塊構(gòu)建,并通過固定接口交由導(dǎo)航策略使用。無論是BEV網(wǎng)格、拓?fù)鋱D還是語義記憶模塊,這些表示大多脫離策略學(xué)習(xí)而設(shè)計。結(jié)果是,機(jī)器人即使掌握場景的信息,也仍可能繞行甚至偏離目標(biāo),因為地圖中編碼的,并不一定是決定導(dǎo)航成功的關(guān)鍵信息。
    的頭像 發(fā)表于 03-02 10:40 ?400次閱讀
    面向視覺語言導(dǎo)航的任務(wù)驅(qū)動式地圖學(xué)習(xí)框架MapDream介紹

    EPLAN分散式端子的畫法和作用

    Eplan的分散式端子是指個端子被畫了N,但是還是同個端子;Eplan的機(jī)制是個端子畫一次
    的頭像 發(fā)表于 01-21 15:50 ?437次閱讀
    EPLAN分散式端子的畫法和作用

    通過2進(jìn)行除法和取余數(shù)快捷方法優(yōu)化

    如果除法中的除數(shù)是2,我們可以更好的優(yōu)化除法。 編譯器使用移位操作來執(zhí)行除法。因此,我們需要盡可能的設(shè)置除數(shù)為2
    發(fā)表于 12-12 06:02

    不一樣的展會,不一樣的精彩 2025灣芯展圓滿收官

    ”。本屆展會人氣火爆,展期三天累計接待總量達(dá)到11.23萬人。參展企業(yè)集中發(fā)布年度新品數(shù)約2500件,新品發(fā)布與商業(yè)合作收獲頗豐。 不一樣的全“芯”布局 聚焦核心+特色雙軌賽道,產(chǎn)業(yè)全鏈展盡覽 2025灣芯展以“芯啟未來 智
    的頭像 發(fā)表于 10-29 16:56 ?1359次閱讀
    <b class='flag-5'>不一</b>樣的展會,<b class='flag-5'>不一</b>樣的精彩 2025灣芯展圓滿收官

    RSA加速實現(xiàn)思路

    N;其中(E , N)組成公鑰。 解密過程為:M = CDmodN;其中(D , N)組成私鑰。 2 關(guān)于加速操作 上述提到N、
    發(fā)表于 10-28 07:28

    不一樣的展會,不一樣的精彩:2025灣芯展順利收官

    內(nèi),打造場"不一樣的展會",呈現(xiàn)出"不一樣的精彩"。本屆展會人氣火爆,展期三天累計接待總量達(dá)到11.23萬人。參展企業(yè)集中發(fā)布年度新品數(shù)約2500件,新品發(fā)布與商業(yè)合作收獲頗豐。
    的頭像 發(fā)表于 10-19 20:27 ?680次閱讀
    <b class='flag-5'>不一</b>樣的展會,<b class='flag-5'>不一</b>樣的精彩:2025灣芯展順利收官

    串口DMA接收方式打開,為什么在開啟IDLE中斷的情況下還需要開啟DMA中斷呢?

    戶接口rx_indicate來讀取數(shù)據(jù),此時,串口收到的數(shù)據(jù)并不一定是完整的幀,破壞了使用IDLE中斷的意義。所以,為什么要開啟DMA中斷呢? 此處,可以看到不論是IDLE中斷還是DMA傳輸中斷,都會導(dǎo)致用戶回調(diào)的調(diào)用。
    發(fā)表于 09-29 08:30

    使用儀表放大器COSINA333MRA放大電壓出現(xiàn)BUG

    趨勢顯示,??輸入電壓越大,放大倍數(shù)會偏小??。并且,??每塊板子的誤差大小不一致??。 有沒有大佬解惑下是核心原理圖
    發(fā)表于 09-21 16:26

    如何秒級實現(xiàn)接口間“等”補(bǔ)償:款輕量級仿等數(shù)據(jù)校正處理輔助工具

    導(dǎo)語 本文分析了在網(wǎng)絡(luò)超時場景下,RPC服務(wù)調(diào)用數(shù)據(jù)致性的問題,對于接口無等、接口等失效情況下,對異常數(shù)據(jù)快速處理做了分析思考和嘗試,開發(fā)了款輕量級仿
    的頭像 發(fā)表于 09-15 16:55 ?905次閱讀
    如何秒級實現(xiàn)接口間“<b class='flag-5'>冪</b>等”補(bǔ)償:<b class='flag-5'>一</b>款輕量級仿<b class='flag-5'>冪</b>等數(shù)據(jù)校正處理輔助工具

    等等黨不一定會贏,但小鵬G7一定會!

    行業(yè)資訊
    腦極體
    發(fā)布于 :2025年07月15日 15:50:41

    可靠性技術(shù)系列教材之PCB EMC設(shè)計技術(shù)

    的通路等差模電流會轉(zhuǎn)換成共模電流。 三、共模電流 大小不一定相等方向相位相同。 設(shè)備對外的干擾多以共模為主差模干擾也存在但是共模干擾強(qiáng)度常常比差模強(qiáng)度的大幾個數(shù)量級。 外來的干擾也多以共模
    發(fā)表于 07-01 16:12

    Denebola RDK上配置的幀大小與實際幀大小不一致是怎么回事?

    字節(jié),與預(yù)期值不一致。 eCamViewer 上的顯示問題: 使用Wireshark檢查數(shù)據(jù)傳輸,數(shù)據(jù)包已成功傳輸?shù)街鳈C(jī)。 但是,視頻沒有在eCamViewer上顯示,我懷疑幀和數(shù)據(jù)包大小差異(在第 1 點(diǎn)和第 2 點(diǎn)中提到)
    發(fā)表于 05-19 08:09

    求助,CY3014中CyU3PDmaChannelSetWrapUp函數(shù)的使用以及其他問題求解

    我在主任務(wù)中的FOR循環(huán)中實現(xiàn)了個功能: UART不定時的接收大小不一的數(shù)據(jù),然后再通過UART傳出。 其中附件是我的代碼. 遇到的問題: 剛開始接收與發(fā)送是正常的,我發(fā)送的數(shù)據(jù)以及數(shù)據(jù)大小,再
    發(fā)表于 05-15 08:09

    cyusb3014 slave fifo模式In和Out緩存大小不一樣時,顯示錯誤怎么解決?

    cyusb3014 slave fifo 模式 In 和 Out 緩存大小設(shè)置不一樣時(比如:U2P DMA緩存16K,P2U DMA緩存1K),可以測出來實際就是設(shè)置值,但在USB
    發(fā)表于 05-13 06:55