91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

9個用Pytorch訓練快速神經(jīng)網(wǎng)絡的技巧

倩倩 ? 來源:讀芯術(shù) ? 2020-04-17 10:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

事實上,你的模型可能還停留在石器時代的水平。估計你還在用32位精度或*GASP(一般活動仿真語言)*訓練,甚至可能只在單GPU上訓練。如果市面上有99個加速指南,但你可能只看過1個?(沒錯,就是這樣)。但這份終極指南,會一步步教你清除模型中所有的(GP模型)。

不要讓你的神經(jīng)網(wǎng)絡變成這樣。

這份指南的介紹從簡單到復雜,一直介紹到你可以完成的大多數(shù)PITA修改,以充分利用你的網(wǎng)絡。例子中會包括一些Pytorch代碼和相關(guān)標記,可以在 Pytorch-Lightning訓練器中用,以防大家不想自己敲碼!

這份指南針對的是誰? 任何用Pytorch研究非瑣碎的深度學習模型的人,比如工業(yè)研究人員、博士生、學者等等……這些模型可能要花費幾天,甚至幾周、幾個月的時間來訓練。

指南(從易到難)

1. 使用DataLoader。

2. DataLoader中的進程數(shù)。

3. 批尺寸。

4. 累積梯度。

5. 保留計算圖。

6. 轉(zhuǎn)至單GPU。

7. 16位混合精度訓練。

8. 轉(zhuǎn)至多GPU(模型復制)。

9. 轉(zhuǎn)至多GPU節(jié)點(8+GPUs)。

10. 有關(guān)模型加速的思考和技巧

Pytorch-Lightning

文中討論的各種優(yōu)化,都可以在名為Pytorch-Lightning 的Pytorch圖書館中找到。

Lightning是基于Pytorch的一個光包裝器,它可以幫助研究人員自動訓練模型,但關(guān)鍵的模型部件還是由研究人員完全控制。

參照此篇教程,獲得更有力的范例。

Lightning采用最新、最尖端的方法,將犯錯的可能性降到最低。

MNIST定義的Lightning模型,可適用于訓練器。

from pytorch-lightning import Trainer

model = LightningModule(…)

trainer = Trainer()

trainer.fit(model)

1. DataLoader

這可能是最容易提速的地方??勘4鎕5py或numpy文件來加速數(shù)據(jù)加載的日子已經(jīng)一去不復返了。用 Pytorch dataloader 加載圖像數(shù)據(jù)非常簡單。

dataset = MNIST(root=self.hparams.data_root, train=train, download=True)

loader = DataLoader(dataset, batch_size=32, shuffle=True)

for batch in loader:

x, y = batch

model.training_step(x, y)

。..

在Lightning中,你無需指定一個訓練循環(huán),只需定義dataLoaders,訓練器便會在 需要時調(diào)用它們。

2. DataLoaders中的進程數(shù)

加快速度的第二個秘訣在于允許批量并行加載。所以,你可以一次加載許多批量,而不是一次加載一個。

# slow

loader = DataLoader(dataset, batch_size=32, shuffle=True)

# fast (use 10 workers)

loader = DataLoader(dataset, batch_size=32, shuffle=True, num_workers=10)

3. 批量大小(Batch size)

在開始下一步優(yōu)化步驟之前,將批量大小調(diào)高到CPU內(nèi)存或GPU內(nèi)存允許的最大值。

接下來的部分將著重于減少內(nèi)存占用,這樣就可以繼續(xù)增加批尺寸。

記住,你很可能需要再次更新學習率。如果將批尺寸增加一倍,最好將學習速度也提高一倍。

4. 累積梯度

假如已經(jīng)最大限度地使用了計算資源,而批尺寸仍然太低(假設(shè)為8),那我們則需為梯度下降模擬更大的批尺寸,以供精準估計。

假設(shè)想讓批尺寸達到128。然后,在執(zhí)行單個優(yōu)化器步驟前,將執(zhí)行16次前向和后向傳播(批量大小為8)。

# clear last step

optimizer.zero_grad()

# 16 accumulated gradient steps

scaled_loss = 0

for accumulated_step_i in range(16):

out = model.forward()

loss = some_loss(out,y)

loss.backward()

scaled_loss += loss.item()

# update weights after 8 steps. effective batch = 8*16

optimizer.step()

# loss is now scaled up by the number of accumulated batches

actual_loss = scaled_loss / 16

而在Lightning中,這些已經(jīng)自動執(zhí)行了。

trainer = Trainer(accumulate_grad_batches=16)

trainer.fit(model)

5. 保留計算圖

撐爆內(nèi)存很簡單,只要不釋放指向計算圖形的指針,比如……為記錄日志保存loss。

losses = []

。..

losses.append(loss)

print(f‘current loss: {torch.mean(losses)’})

上述的問題在于,loss仍然有一個圖形副本。在這種情況中,可用.item()來釋放它。

# bad

losses.append(loss)

# good

losses.append(loss.item())

Lightning會特別注意,讓其無法保留圖形副本

6. 單GPU訓練

一旦完成了前面的步驟,就可以進入GPU訓練了。GPU的訓練將對許多GPU核心上的數(shù)學計算進行并行處理。能加速多少取決于使用的GPU類型。個人使用的話,推薦使用2080Ti,公司使用的話可用V100。

剛開始你可能會覺得壓力很大,但其實只需做兩件事: 1)將你的模型移動到GPU上,2)在用其運行數(shù)據(jù)時,把數(shù)據(jù)導至GPU中。

# put model on GPU

model.cuda(0)

# put data on gpu (cuda on a variable returns a cuda copy)

x = x.cuda(0)

# runs on GPU now

model(x)

如果使用Lightning,則不需要對代碼做任何操作。只需設(shè)置標記:

# ask lightning to use gpu 0 for training

trainer = Trainer(gpus=[0])

trainer.fit(model)

在GPU進行訓練時,要注意限制CPU和GPU之間的傳輸量。

# expensive

x = x.cuda(0)

# very expensive

x = x.cpu()

x = x.cuda(0)

例如,如果耗盡了內(nèi)存,不要為了省內(nèi)存,將數(shù)據(jù)移回CPU。嘗試用其他方式優(yōu)化代碼,或者在用這種方法之前先跨GPUs分配代碼。

此外還要注意進行強制GPUs同步的操作。例如清除內(nèi)存緩存。

# really bad idea.Stops all the GPUs until they all catch up

torch.cuda.empty_cache()

但是如果使用Lightning,那么只有在定義Lightning模塊時可能會出現(xiàn)這種問題。Lightning特別注意避免此類錯誤。

7. 16位精度

16位精度可以有效地削減一半的內(nèi)存占用。大多數(shù)模型都是用32位精度數(shù)進行訓練的。然而最近的研究發(fā)現(xiàn),使用16位精度,模型也可以很好地工作?;旌暇戎傅氖?,用16位訓練一些特定的模型,而權(quán)值類的用32位訓練。

要想在Pytorch中用16位精度,先從NVIDIA中安裝 apex 圖書館 并對你的模型進行這些更改。

# enable 16-bit on the model and the optimizer

model, optimizers = amp.initialize(model, optimizers, opt_level=‘O2’)

# when doing .backward, let amp do it so it can scale the loss

with amp.scale_loss(loss, optimizer) as scaled_loss:

scaled_loss.backward()

amp包會處理大部分事情。如果梯度爆炸或趨于零,它甚至會擴大loss。

在Lightning中, 使用16位很簡單,不需對你的模型做任何修改,也不用完成上述操作。

trainer = Trainer(amp_level=’O2‘, use_amp=False)

trainer.fit(model)

8. 移至多GPU

現(xiàn)在,事情就變得有意思了。有3種(也許更多?)方式訓練多GPU。

分批量訓練

A)在每個GPU上復制模型;B)給每個GPU分配一部分批量。

第一種方法叫做分批量訓練。這一策略將模型復制到每個GPU上,而每個GPU會分到該批量的一部分。

# copy model on each GPU and give a fourth of the batch to each

model = DataParallel(model, devices=[0, 1, 2 ,3])

# out has 4 outputs (one for each gpu)

out = model(x.cuda(0))

在Lightning中,可以直接指示訓練器增加GPU數(shù)量,而無需完成上述任何操作。

# ask lightning to use 4 GPUs for training

trainer = Trainer(gpus=[0, 1, 2, 3])

trainer.fit(model)

分模型訓練

將模型的不同部分分配給不同的GPU,按順序分配批量

有時模型可能太大,內(nèi)存不足以支撐。比如,帶有編碼器和解碼器的Sequence to Sequence模型在生成輸出時可能會占用20gb的內(nèi)存。在這種情況下,我們希望把編碼器和解碼器放在單獨的GPU上。

# each model is sooo big we can’t fit both in memory

encoder_rnn.cuda(0)

decoder_rnn.cuda(1)

# run input through encoder on GPU 0

out = encoder_rnn(x.cuda(0))

# run output through decoder on the next GPU

out = decoder_rnn(x.cuda(1))

# normally we want to bring all outputs back to GPU 0

out = out.cuda(0)

對于這種類型的訓練,無需將Lightning訓練器分到任何GPU上。與之相反,只要把自己的模塊導入正確的GPU的Lightning模塊中:

class MyModule(LightningModule):

def __init__():

self.encoder = RNN(。..)

self.decoder = RNN(。..)

def forward(x):

# models won‘t be moved after the first forward because

# they are already on the correct GPUs

self.encoder.cuda(0)

self.decoder.cuda(1)

out = self.encoder(x)

out = self.decoder(out.cuda(1))

# don’t pass GPUs to trainer

model = MyModule()

trainer = Trainer()

trainer.fit(model)

混合兩種訓練方法

在上面的例子中,編碼器和解碼器仍然可以從并行化每個操作中獲益。我們現(xiàn)在可以更具創(chuàng)造力了。

# change these lines

self.encoder = RNN(。..)

self.decoder = RNN(。..)

# to these

# now each RNN is based on a different gpu set

self.encoder = DataParallel(self.encoder, devices=[0, 1, 2, 3])

self.decoder = DataParallel(self.encoder, devices=[4, 5, 6, 7])

# in forward.。.

out = self.encoder(x.cuda(0))

# notice inputs on first gpu in device

sout = self.decoder(out.cuda(4)) # 《--- the 4 here

使用多GPUs時需注意的事項

· 如果該設(shè)備上已存在model.cuda(),那么它不會完成任何操作。

· 始終輸入到設(shè)備列表中的第一個設(shè)備上。

· 跨設(shè)備傳輸數(shù)據(jù)非常昂貴,不到萬不得已不要這樣做。

· 優(yōu)化器和梯度將存儲在GPU 0上。因此,GPU 0使用的內(nèi)存很可能比其他處理器大得多。

9. 多節(jié)點GPU訓練

每臺機器上的各GPU都可獲取一份模型的副本。每臺機器分得一部分數(shù)據(jù),并僅針對該部分數(shù)據(jù)進行訓練。各機器彼此同步梯度。

做到了這一步,就可以在幾分鐘內(nèi)訓練Imagenet數(shù)據(jù)集了! 這沒有想象中那么難,但需要更多有關(guān)計算集群的知識。這些指令假定你正在集群上使用SLURM。

Pytorch在各個GPU上跨節(jié)點復制模型并同步梯度,從而實現(xiàn)多節(jié)點訓練。因此,每個模型都是在各GPU上獨立初始化的,本質(zhì)上是在數(shù)據(jù)的一個分區(qū)上獨立訓練的,只是它們都接收來自所有模型的梯度更新。

高級階段:

1. 在各GPU上初始化一個模型的副本(確保設(shè)置好種子,使每個模型初始化到相同的權(quán)值,否則操作會失效。)

2. 將數(shù)據(jù)集分成子集。每個GPU只在自己的子集上訓練。

3. On .backward() 所有副本都會接收各模型梯度的副本。只有此時,模型之間才會相互通信。

Pytorch有一個很好的抽象概念,叫做分布式數(shù)據(jù)并行處理,它可以為你完成這一操作。要使用DDP(分布式數(shù)據(jù)并行處理),需要做4件事:

def tng_dataloader():

d = MNIST()

# 4: Add distributed sampler

# sampler sends a portion of tng data to each machine

dist_sampler = DistributedSampler(dataset)

dataloader = DataLoader(d, shuffle=False, sampler=dist_sampler)

def main_process_entrypoint(gpu_nb):

# 2: set up connections between all gpus across all machines

# all gpus connect to a single GPU “root”

# the default uses env://

world = nb_gpus * nb_nodes

dist.init_process_group(“nccl”, rank=gpu_nb, world_size=world)

# 3: wrap model in DPP

torch.cuda.set_device(gpu_nb)

model.cuda(gpu_nb)

model = DistributedDataParallel(model, device_ids=[gpu_nb])

# train your model now.。.

if __name__ == ‘__main__’:

# 1: spawn number of processes

# your cluster will call main for each machine

mp.spawn(main_process_entrypoint, nprocs=8)

Pytorch團隊對此有一份詳細的實用教程。

然而,在Lightning中,這是一個自帶功能。只需設(shè)定節(jié)點數(shù)標志,其余的交給Lightning處理就好。

# train on 1024 gpus across 128 nodes

trainer = Trainer(nb_gpu_nodes=128, gpus=[0, 1, 2, 3, 4, 5, 6, 7])

Lightning還附帶了一個SlurmCluster管理器,可助你簡單地提交SLURM任務的正確細節(jié)

10. 福利!更快的多GPU單節(jié)點訓練

事實證明,分布式數(shù)據(jù)并行處理要比數(shù)據(jù)并行快得多,因為其唯一的通信是梯度同步。因此,最好用分布式數(shù)據(jù)并行處理替換數(shù)據(jù)并行,即使只是在做單機訓練。

在Lightning中,通過將distributed_backend設(shè)置為ddp(分布式數(shù)據(jù)并行處理)并設(shè)置GPU的數(shù)量,這可以很容易實現(xiàn)。

# train on 4 gpus on the same machine MUCH faster than DataParallel

trainer = Trainer(distributed_backend=‘ddp’, gpus=[0, 1, 2, 3])

有關(guān)模型加速的思考和技巧

如何通過尋找瓶頸來思考問題?可以把模型分成幾個部分:

首先,確保數(shù)據(jù)加載中沒有瓶頸。為此,可以使用上述的現(xiàn)有數(shù)據(jù)加載方案,但是如果沒有適合你的方案,你可以把離線處理及超高速緩存作為高性能數(shù)據(jù)儲存,就像h5py一樣。

接下來看看在訓練過程中該怎么做。確??焖俎D(zhuǎn)發(fā),避免多余的計算,并將CPU和GPU之間的數(shù)據(jù)傳輸最小化。最后,避免降低GPU的速度(在本指南中有介紹)。

接下來,最大化批尺寸,通常來說,GPU的內(nèi)存大小會限制批量大小。自此看來,這其實就是跨GPU分布,但要最小化延遲,有效使用大批次(例如在數(shù)據(jù)集中,可能會在多個GPUs上獲得8000+的有效批量大?。?。

但是需要小心處理大批次。根據(jù)具體問題查閱文獻,學習一下別人是如何處理的!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107828
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5196

    瀏覽量

    135505
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    813

    瀏覽量

    14856
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經(jīng)網(wǎng)絡的實現(xiàn)。什么是神經(jīng)網(wǎng)絡?神經(jīng)網(wǎng)絡的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?336次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的初步認識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡技術(shù)。卷積神經(jīng)網(wǎng)絡,簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學習模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2083次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡</b>是<b class='flag-5'>個</b>啥?

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    (q7_t) 和 16 位整數(shù) (q15_t)。 卷積神經(jīng)網(wǎng)絡示例: 本示例中使用的 CNN 基于來自 Caffe 的 CIFAR-10 示例。神經(jīng)網(wǎng)絡由 3 卷積層組成,中間散布著 ReLU
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡模型并優(yōu)化的一般化建議

    :Dropout層隨機跳過神經(jīng)網(wǎng)絡模型中某些神經(jīng)元之間的連接,通過隨機制造缺陷進行訓練提升整個神經(jīng)網(wǎng)絡的魯棒性。 6)指定合理的學習率策略:一旦
    發(fā)表于 10-28 08:02

    如何將訓練好的神經(jīng)網(wǎng)絡模型部署到蜂鳥e203開發(fā)板上

    本帖欲分享如何將訓練好的神經(jīng)網(wǎng)絡模型部署到蜂鳥e203開發(fā)板上。 1. 加載TFLite模型 std::unique_ptr interpreter(new tflite::Interpreter
    發(fā)表于 10-22 08:04

    在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓練框架,目標是訓練
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡量化后,需要將神經(jīng)網(wǎng)絡部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(LNN):時間連續(xù)性與動態(tài)適應性的神經(jīng)網(wǎng)絡

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1236次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    神經(jīng)網(wǎng)絡的并行計算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應用前景。然而,神經(jīng)網(wǎng)絡模型的復雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1135次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的并行計算與加速技術(shù)

    基于神經(jīng)網(wǎng)絡的數(shù)字預失真模型解決方案

    在基于神經(jīng)網(wǎng)絡的數(shù)字預失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3478次閱讀

    無刷電機小波神經(jīng)網(wǎng)絡轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡來實現(xiàn)轉(zhuǎn)角預測,并采用改進遺傳算法來訓練網(wǎng)絡結(jié)
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡專家系統(tǒng)在電機故障診斷中的應用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學習、自適應的問題,本文提出了基于種經(jīng)網(wǎng)絡專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡RAS在異步電機轉(zhuǎn)速估計中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡的步驟解析

    本文的目的是在一神經(jīng)網(wǎng)絡已經(jīng)通過python或者MATLAB訓練好的神經(jīng)網(wǎng)絡模型,將訓練好的模型的權(quán)重和偏置文件以TXT文件格式導出,然后
    的頭像 發(fā)表于 06-03 15:51 ?1232次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的步驟解析

    NVIDIA實現(xiàn)神經(jīng)網(wǎng)絡渲染技術(shù)的突破性增強功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡渲染技術(shù)的突破性增強功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預覽版中增加神經(jīng)網(wǎng)絡著色技術(shù),讓開
    的頭像 發(fā)表于 04-07 11:33 ?1197次閱讀