91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于PyTorch的深度學(xué)習(xí)入門(mén)教程之訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)分類(lèi)器

ss ? 來(lái)源:雁回晴空 ? 作者:雁回晴空 ? 2021-02-15 09:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

本文參考PyTorch官網(wǎng)的教程,分為五個(gè)基本模塊來(lái)介紹PyTorch。為了避免文章過(guò)長(zhǎng),這五個(gè)模塊分別在五篇博文中介紹。

Part1:PyTorch簡(jiǎn)單知識(shí)

Part2:PyTorch的自動(dòng)梯度計(jì)算

Part3:使用PyTorch構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)

Part4:訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)分類(lèi)器

Part5:數(shù)據(jù)并行化

本文是關(guān)于Part4的內(nèi)容。

Part4:訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)分類(lèi)器

前面已經(jīng)介紹了定義神經(jīng)網(wǎng)絡(luò),計(jì)算損失和更新權(quán)重,這里介紹訓(xùn)練神經(jīng)網(wǎng)絡(luò)分類(lèi)器。

1 關(guān)于數(shù)據(jù)

通常,當(dāng)你需要處理圖像、文本、飲品或者視頻數(shù)據(jù),你可以使用標(biāo)準(zhǔn)的python包將數(shù)據(jù)導(dǎo)入到numpy 的array中。之后,你可以將array轉(zhuǎn)換到torch.*Tensor。

(1) 對(duì)于圖像,Pillow、OpenCV等包非常有用。

(2) 對(duì)于音頻,scipy和librosa等包非常好。

(3) 對(duì)于文本,原始Python或基于Cython的加載,或者NLTK和SpaCy都是有用的。

尤其對(duì)于視覺(jué),我們創(chuàng)建了一個(gè)叫做torchvision的包,包含了對(duì)于常用數(shù)據(jù)集(如ImageNet,CIFAR10,MNIST等)的數(shù)據(jù)加載器和對(duì)于images、viz的數(shù)據(jù)轉(zhuǎn)換器,torchvision.datasets和 torch.utils.data.DataLoader。

在該教程中,我們使用CIFAR10數(shù)據(jù)集。它含有這些類(lèi):‘airplane’, ‘a(chǎn)utomobile’, ‘bird’, ‘cat’,‘deer’, ‘dog’, ‘frog’, ‘horse’, ‘ship’, ‘truck’。 這些圖像的尺寸是3*32*32,即3通道的彩色圖像,尺寸為32*32。

2 訓(xùn)練圖像分類(lèi)器

我們按照如下步驟:

(1) 使用torchvision導(dǎo)入并且正規(guī)化CIFAR10的訓(xùn)練集和測(cè)試集

(2) 定義一個(gè)卷積神經(jīng)網(wǎng)絡(luò)

(3) 定義一個(gè)損失函數(shù)

(4) 在測(cè)試數(shù)據(jù)上訓(xùn)練該網(wǎng)絡(luò)

(5) 在測(cè)試數(shù)據(jù)上測(cè)試該網(wǎng)絡(luò)

2.1 導(dǎo)入和正規(guī)化CIFAR10

使用torchvision,加載CIFAR10很容易。

import torch
import torchvision
import torchvision.transforms as transforms

torchvision數(shù)據(jù)集的輸出是[0,1]區(qū)間的PILImage。我們把這些圖像轉(zhuǎn)換到[-1,1]區(qū)間的Tensor。

transform = transforms.Compose(
    [transforms.ToTensor(),
     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])

trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
                                        download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
                                          shuffle=True, num_workers=2)

testset = torchvision.datasets.CIFAR10(root='./data', train=False,
                                       download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
                                         shuffle=False, num_workers=2)

classes = ('plane', 'car', 'bird', 'cat',
           'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

我們來(lái)顯示一些訓(xùn)練圖像。

import matplotlib.pyplot as plt
import numpy as np

# functions to show an image


def imshow(img):
    img = img / 2 + 0.5     # unnormalize
    npimg = img.numpy()
    plt.imshow(np.transpose(npimg, (1, 2, 0)))


# get some random training images
dataiter = iter(trainloader)
images, labels = dataiter.next()

# show images
imshow(torchvision.utils.make_grid(images))
# print labels
print(' '.join('%5s' % classes[labels[j]] for j in range(4)))

2.2 定義卷積神經(jīng)網(wǎng)絡(luò)

定義一個(gè)適用于3通道圖像的卷積神經(jīng)網(wǎng)絡(luò)。

from torch.autograd import Variable
import torch.nn as nn
import torch.nn.functional as F


class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 * 5 * 5)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x


net = Net()

2.3 定義損失函數(shù)和優(yōu)化器

使用分類(lèi)交叉熵?fù)p失和帶有動(dòng)量的隨機(jī)梯度下降。

import torch.optim as optim

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

2.4 訓(xùn)練網(wǎng)絡(luò)

我們只需要在數(shù)據(jù)上迭代,把輸入數(shù)據(jù)交給網(wǎng)絡(luò)并且優(yōu)化即可。

for epoch in range(2):  # loop over the dataset multiple times

    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        # get the inputs
        inputs, labels = data

        # wrap them in Variable
        inputs, labels = Variable(inputs), Variable(labels)

        # zero the parameter gradients
        optimizer.zero_grad()

        # forward + backward + optimize
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        # print statistics
        running_loss += loss.data[0]
        if i % 2000 == 1999:    # print every 2000 mini-batches
            print('[%d, %5d] loss: %.3f' %
                  (epoch + 1, i + 1, running_loss / 2000))
            running_loss = 0.0

print('Finished Training')

預(yù)期輸出:

[1,2000]loss:2.191

[1,4000]loss:1.866

[1,6000]loss:1.696

[1,8000]loss:1.596

[1,10000]loss:1.502

[1,12000]loss:1.496

[2,2000]loss:1.422

[2,4000]loss:1.370

[2,6000]loss:1.359

[2,8000]loss:1.321

[2,10000]loss:1.311

[2,12000]loss:1.275

FinishedTraining

2.5 在測(cè)試數(shù)據(jù)上測(cè)試網(wǎng)絡(luò)

我們已經(jīng)訓(xùn)練了一個(gè)網(wǎng)絡(luò)?,F(xiàn)在對(duì)其在測(cè)試數(shù)據(jù)上測(cè)試。第一步,顯示一個(gè)來(lái)自測(cè)試集的圖像。

dataiter = iter(testloader)
images, labels = dataiter.next()

# print images
imshow(torchvision.utils.make_grid(images))
print('GroundTruth: ', ' '.join('%5s' % classes[labels[j]] for j in range(4)))

預(yù)期輸出:

GroundTruth:catshipshipplane

使用訓(xùn)練好的網(wǎng)絡(luò)來(lái)預(yù)測(cè)這些圖像應(yīng)該屬于哪類(lèi)。

outputs = net(Variable(images))

輸出的是關(guān)于10個(gè)類(lèi)別的能量值。哪個(gè)類(lèi)別能量值高,網(wǎng)絡(luò)就認(rèn)為圖像屬于哪一類(lèi)。因此我們需要獲取最高能量值的索引。

_, predicted = torch.max(outputs.data, 1)

print('Predicted: ', ' '.join('%5s' % classes[predicted[j]]
                              for j in range(4)))

預(yù)期輸出:

Predicted:catshipcar plane

現(xiàn)在看一下網(wǎng)絡(luò)在整個(gè)數(shù)據(jù)集上的表現(xiàn)。

correct = 0
total = 0
for data in testloader:
    images, labels = data
    outputs = net(Variable(images))
    _, predicted = torch.max(outputs.data, 1)
    total += labels.size(0)
    correct += (predicted == labels).sum()

print('Accuracy of the network on the 10000 test images: %d %%' % (
    100 * correct / total))

預(yù)期輸出:

Accuracyofthenetworkonthe10000testimages:54%

這看起來(lái)比偶然準(zhǔn)確率(10%)要好。看起來(lái),訓(xùn)練有一定效果。

看一下哪些類(lèi)別表現(xiàn)好,哪些表現(xiàn)不好。

class_correct = list(0. for i in range(10))
class_total = list(0. for i in range(10))
for data in testloader:
    images, labels = data
    outputs = net(Variable(images))
    _, predicted = torch.max(outputs.data, 1)
    c = (predicted == labels).squeeze()
    for i in range(4):
        label = labels[i]
        class_correct[label] += c[i]
        class_total[label] += 1


for i in range(10):
    print('Accuracy of %5s : %2d %%' % (
        classes[i], 100 * class_correct[i] / class_total[i]))

預(yù)期輸出:

Accuracyofplane:60%

Accuracyofcar:46%

Accuracyofbird:44%

Accuracyofcat:35%

Accuracyofdeer:38%

Accuracyofdog:43%

Accuracyoffrog:57%

Accuracyofhorse:76%

Accuracyofship:71%

Accuracyoftruck:74%

3 在GPU上訓(xùn)練

下面這句話(huà)會(huì)遞歸遍歷全部的模塊并且將它們的參數(shù)和緩沖區(qū)轉(zhuǎn)到CUDA tensors。

net.cuda()

記住,還需要在每一步將輸入和目標(biāo)值發(fā)送到GPU。

inputs, labels = Variable(inputs.cuda()), Variable(labels.cuda())

當(dāng)網(wǎng)絡(luò)非常大而復(fù)雜的時(shí)候,這種加速是非常明顯的。

責(zé)任編輯:xj
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107862
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124420
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    813

    瀏覽量

    14857
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開(kāi)深度學(xué)習(xí),而深度學(xué)習(xí)則依賴(lài)于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?
    的頭像 發(fā)表于 12-17 15:05 ?339次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽(tīng)到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱(chēng)為CNN,是種專(zhuān)門(mén)用來(lái)處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像
    的頭像 發(fā)表于 11-19 18:15 ?2087次閱讀
    自動(dòng)駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是<b class='flag-5'>個(gè)</b>啥?

    激活函數(shù)ReLU的理解與總結(jié)

    《The Organization of Behavior》論文中描述了神經(jīng)學(xué)習(xí)法則。 人工神經(jīng)網(wǎng)絡(luò)更進(jìn)步被美國(guó)神經(jīng)學(xué)家Frank R
    發(fā)表于 10-31 06:16

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的般化建議

    :Dropout層隨機(jī)跳過(guò)神經(jīng)網(wǎng)絡(luò)模型中某些神經(jīng)元之間的連接,通過(guò)隨機(jī)制造缺陷進(jìn)行訓(xùn)練提升整個(gè)神經(jīng)網(wǎng)絡(luò)的魯棒性。 6)指定合理的學(xué)習(xí)率策
    發(fā)表于 10-28 08:02

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的些經(jīng)驗(yàn)。我們采用jupyter notebook作為開(kāi)發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)內(nèi)。 在仿真環(huán)境下,可將其存于
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線(xiàn)蟲(chóng)的
    的頭像 發(fā)表于 09-28 10:03 ?1252次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1143次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    Transformer和視覺(jué)Transformer模型。 ViTA是種高效數(shù)據(jù)流AI加速,用于在邊緣設(shè)備上部署計(jì)算密集型視覺(jué)Transformer模型。 2、射頻神經(jīng)網(wǎng)絡(luò) 2.1線(xiàn)性射頻模擬處理
    發(fā)表于 09-12 17:30

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“
    的頭像 發(fā)表于 09-10 17:38 ?912次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專(zhuān)家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問(wèn)題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專(zhuān)家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    ,在定程度上擴(kuò)展了轉(zhuǎn)速估計(jì)范圍。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模
    的頭像 發(fā)表于 06-03 15:51 ?1240次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析