91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深入卷積神經(jīng)網(wǎng)絡(luò)背后的數(shù)學(xué)原理

8g3K_AI_Thinker ? 來(lái)源:YXQ ? 2019-04-25 14:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在計(jì)算機(jī)神經(jīng)視覺(jué)技術(shù)的發(fā)展過(guò)程中,卷積神經(jīng)網(wǎng)絡(luò)成為了其中的重要組成部分,本文對(duì)卷積神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)原理進(jìn)行了介紹。

文章包括四個(gè)主要內(nèi)容:卷積、卷積層、池化層以及卷積神經(jīng)網(wǎng)絡(luò)中的反向傳播原理。在卷積部分的介紹中,作者介紹了卷積的定義、有效卷積和相同卷積、跨步卷積、3D卷積。

在卷積層部分,作者闡述了連接切割和參數(shù)共享對(duì)降低網(wǎng)絡(luò)參數(shù)學(xué)習(xí)量的作用。在池化層部分,作者介紹了池化的含義以及掩膜的使用。

自動(dòng)駕駛、智能醫(yī)療、智能零售,這些曾被認(rèn)為不可能實(shí)現(xiàn)的事情,在計(jì)算機(jī)視覺(jué)技術(shù)的幫助下,終于在最近成為了現(xiàn)實(shí)。今天,自動(dòng)駕駛和自動(dòng)雜貨店的夢(mèng)想不再像以前那樣遙不可及。

事實(shí)上,每天我們都在使用計(jì)算機(jī)視覺(jué)技術(shù)幫助我們用人臉解鎖手機(jī),或者對(duì)即將發(fā)布到社交媒體上的照片進(jìn)行自動(dòng)修飾。

在計(jì)算機(jī)視覺(jué)技術(shù)應(yīng)用這一巨大成功的背后,卷積神經(jīng)網(wǎng)絡(luò)(CNN)可能是其中最重要的組成部分。

在本文中,我們將逐步理解,神經(jīng)網(wǎng)絡(luò)是如何與 CNN 特有的思想?yún)f(xié)作的。本文章包含了相當(dāng)復(fù)雜的數(shù)學(xué)方程式,但如果您對(duì)線(xiàn)性代數(shù)和微積分不熟悉,請(qǐng)不要?dú)怵H。

我的目標(biāo)不是讓您記住那些公式,而是讓您從直覺(jué)上去理解這些公式背后隱藏的意義。

01

前言

在之前的系列中,我們學(xué)習(xí)了密集連接的神經(jīng)網(wǎng)絡(luò)(densely connected neural networks)。

這些網(wǎng)絡(luò)的神經(jīng)元被分成組,形成連續(xù)的層,相鄰的兩個(gè)層之間的神經(jīng)元相互連接。下圖展示了一個(gè)密集連接的神經(jīng)網(wǎng)絡(luò)的示例。

Figure 1.Densely connected neural network architecture

當(dāng)我們解決分類(lèi)問(wèn)題時(shí),如果我們的特征是一組有限的并有明確定義的特征,這種方法是很有效的——例如,根據(jù)足球運(yùn)動(dòng)員在比賽期間所記錄的統(tǒng)計(jì)數(shù)據(jù),預(yù)測(cè)該運(yùn)動(dòng)員的位置。

但是,當(dāng)使用照片來(lái)進(jìn)行預(yù)測(cè)時(shí),情況會(huì)變得更加復(fù)雜。我們當(dāng)然可以將每個(gè)像素的亮度視為一個(gè)單獨(dú)的特征,并將其作為輸入傳遞給我們的密集網(wǎng)絡(luò)(dense network)。

不幸的是,為了使神經(jīng)網(wǎng)絡(luò)能夠處理典型的智能手機(jī)照片,該網(wǎng)絡(luò)必須包含數(shù)千萬(wàn)甚至數(shù)億個(gè)神經(jīng)元。

我們也可以通過(guò)縮小照片的尺寸來(lái)進(jìn)行處理手機(jī)照片,但是這樣做會(huì)使我們丟失很多有價(jià)值的信息。

可以發(fā)現(xiàn),這種傳統(tǒng)策略的性能很差,因此我們需要一種新的、更加聰明的方法來(lái)盡可能多地使用數(shù)據(jù),并同時(shí)減少必要的計(jì)算和參數(shù)的數(shù)量。CNN 閃亮登場(chǎng)的時(shí)候到了。

02

數(shù)字圖像的數(shù)據(jù)結(jié)構(gòu)

首先花一點(diǎn)時(shí)間來(lái)解釋一下數(shù)字圖像的存儲(chǔ)方式。數(shù)字圖像實(shí)際上是巨大的數(shù)字矩陣。矩陣中的每個(gè)數(shù)字對(duì)應(yīng)于其像素的亮度。

在 RGB 模型中,彩色圖像由三個(gè)矩陣組成,分別對(duì)應(yīng)三個(gè)顏色通道——紅,綠,藍(lán)。而在黑白圖像中,我們只需要一個(gè)矩陣。

矩陣中的每個(gè)數(shù)字的取值區(qū)間都是 0 到 255。該范圍是存儲(chǔ)圖像信息的效率(256個(gè)值剛好適合1個(gè)字節(jié))與人眼的靈敏度(我們區(qū)分同種顏色的灰度級(jí)別的數(shù)量極限)之間的折衷。

Figure 2.Data structure behind digitalimages

03

卷積

核卷積(kernel convolution)不僅僅用于 CNN,它還是許多其他計(jì)算機(jī)視覺(jué)算法的關(guān)鍵要素。

核卷積就是將一個(gè)小數(shù)字矩陣(濾波器,也稱(chēng)作 kernel 或 filter)在圖像上進(jìn)行滑動(dòng),并根據(jù) kernel 的值,對(duì)圖像矩陣的值進(jìn)行轉(zhuǎn)換的過(guò)程。對(duì)圖像經(jīng)過(guò)卷積操作后得到的輸出稱(chēng)為特征映射(feature map)。

特征映射的值的計(jì)算公式如下,其中 f 代表輸入圖像,h 代表濾波器 。結(jié)果矩陣的行數(shù)和列數(shù)分別用 m 和 n 表示。

Figure 3.Kernel convolution example

將 kernel 放在選定的像素上后,我們從 kernel 中依次取出每個(gè)值,并將它們成對(duì)地與圖像中的相應(yīng)值相乘。

最后,我們將每個(gè)核運(yùn)算后的結(jié)果元素相加,并將求和結(jié)果放在輸出特征圖中的正確位置上。

上圖從微觀(guān)角度詳細(xì)地展示了這一運(yùn)算的過(guò)程,但在完整圖像上實(shí)施該運(yùn)算的結(jié)果可能更加有趣。圖4展示了使用幾個(gè)不同 kernel 的卷積結(jié)果。

Figure 4.Finding edges with kernel convolution

04

有效卷積&相同卷積(Valid and Same Convolution)

正如我們?cè)趫D3中看到的,當(dāng)我們使用 3x3 的 kernel 對(duì) 6x6 圖像執(zhí)行卷積時(shí),我們得到 4x4 的特征映射。

這是因?yàn)樵谶@個(gè)圖像中,只有16個(gè)位置可以將 kerenl 完整地放在這張圖像中。由于每次執(zhí)行卷積時(shí)我們的圖像都會(huì)縮小,因此在我們的圖像完全消失之前,我們只能進(jìn)行有限次數(shù)的卷積。

另外,如果對(duì) kernel 在圖像中移動(dòng)的過(guò)程進(jìn)行觀(guān)察,我們就會(huì)發(fā)現(xiàn)圖像外圍像素的影響遠(yuǎn)小于圖像中心像素的影響。

這樣會(huì)導(dǎo)致我們失去圖像中包含的一些信息。下圖展示了像素位置的改變對(duì)特征圖的影響。

Figure 5.Impact of pixelposition

為了解決這兩個(gè)問(wèn)題,我們可以使用額外的邊框來(lái)填充圖像(padding)。例如,如果使用 1像素進(jìn)行填充,我們將圖像的大小增加到 8x8,因此使用 3x3 的 kernel 的卷積,其輸出尺寸將為 6x6 。

在實(shí)踐中,我們通常用零值來(lái)填充額外的邊界。根據(jù)是否使用填充,我們將處理兩種類(lèi)型的卷積—— Valid 和 Same。

Valid —— 使用原始圖像,Same —— 使用原始圖像并使用它周?chē)倪吙?,以便使輸入和輸出的圖像大小相同。

在第二種情況下,填充寬度應(yīng)滿(mǎn)足以下等式,其中 p 是填充尺寸,f 是 kernel 尺寸(通常是奇數(shù))。

05

跨步卷積(Strided Convolution)

Figure 6.Example of strided convolution

在前面的例子中,我們總是每次將 kernel 移動(dòng)一個(gè)像素,即步長(zhǎng)為1。步長(zhǎng)也可以視為卷積層的超參數(shù)之一。

圖 6 展示了使用更大步長(zhǎng)時(shí)的卷積運(yùn)算。在設(shè)計(jì) CNN 架構(gòu)時(shí),如果希望感知域重疊較少,或者希望讓特征圖的空間維度更小,我們可以增加步長(zhǎng)。

輸出矩陣的尺寸(考慮填充和步長(zhǎng)時(shí))可以使用以下公式計(jì)算。

06

過(guò)渡到第三個(gè)維度

體積卷積(Convolution over volume)是一個(gè)非常重要的概念,這不僅使我們能夠處理彩色圖像,而且更為重要的是,我們能夠在單層網(wǎng)絡(luò)中使用多個(gè) kernel 。

第一個(gè)規(guī)則是 kernel 和圖像必須具有相同數(shù)量的通道。一般而言,圖像的處理過(guò)程和圖3的示例非常相似,但是這次我們是將三維空間中的值對(duì)相乘。

如果想在同一個(gè)圖像上使用多個(gè) kernel,首先我們要分別對(duì)每個(gè) kernel 執(zhí)行卷積,然后將結(jié)果從頂層向下進(jìn)行疊加,最后將它們組合成一個(gè)整體。

輸出張量的尺寸(可以稱(chēng)為3D矩陣)滿(mǎn)足以下等式,其中:n?- 圖像大小,f ?- 濾波器大小,nc ?- 圖像中的通道數(shù),p - 填充大小,s - ?步幅大小,nf? - kernel 的數(shù)量。

Figure 7.Convolution overvolume

07

卷積層

接下來(lái)我們將用前面學(xué)到的知識(shí)來(lái)構(gòu)建 CNN 的一個(gè)層。我們將要用到的方法幾乎與構(gòu)建密集神經(jīng)網(wǎng)絡(luò)時(shí)用到的相同,唯一有區(qū)別的地方是,我們不再使用簡(jiǎn)單的矩陣乘法,而是使用卷積。

前向傳播包括兩個(gè)步驟。第一步是計(jì)算中間值 Z:首先將前一層的輸入數(shù)據(jù)與張量 W(包含濾波器)進(jìn)行卷積,然后將運(yùn)算后的結(jié)果加上偏差 b 。

第二步是將中間值 Z 輸入到非線(xiàn)性激活函數(shù)中(使用 g 表示該激活函數(shù))。下面展示了矩陣形式的數(shù)學(xué)公式。

如果您對(duì)公式中的任何部分不太清楚,我強(qiáng)烈推薦您去閱讀一下我之前的文章,文中詳細(xì)討論了密集連接的神經(jīng)網(wǎng)絡(luò)的具體內(nèi)容。

下文的插圖很好地展示了公式中各張量的維數(shù),以助于理解。

Figure 8.Tensors dimensions

連接切割和參數(shù)共享(Connections Cutting and Parameters Sharing)

在本文的開(kāi)頭曾提到,由于需要學(xué)習(xí)大量的參數(shù),密集連接的神經(jīng)網(wǎng)絡(luò)在處理圖像方面的能力很差,而卷積卻為該問(wèn)題提供了一種解決方案,下面我們一起來(lái)看看卷積是如何優(yōu)化圖像處理的計(jì)算的。

在下圖中,我們用一種略微不同的方式對(duì) 2D 卷積進(jìn)行了可視化——用數(shù)字 1-9 標(biāo)記的神經(jīng)元構(gòu)成輸入層,用于接收輸入圖像的像素亮度,單元 A-D 表示經(jīng)過(guò)卷積計(jì)算后得到的特征映射。

最后,I-IV 表示來(lái)自 kernel 的后續(xù)值,這些值是需要網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)的。

Figure 9.Connections cutting and parameters sharing

現(xiàn)在,讓我們關(guān)注卷積層的兩個(gè)非常重要的屬性。第一,從圖中可以看到,并非兩個(gè)相鄰層中的所有神經(jīng)元都相互連接。

例如,神經(jīng)元 1 僅影響 A 的值。第二,我們可以發(fā)現(xiàn)一些神經(jīng)元使用了相同的權(quán)重。這兩個(gè)屬性意味著在 CNN 中我們需要學(xué)習(xí)的參數(shù)要少得多。

值得一提的是,kernel 中的任一單值都會(huì)影響輸出特征映射的每一個(gè)元素——這在反向傳播的過(guò)程中是至關(guān)重要的。

08

卷積層的反向傳播(Convolutional Layer Backpropagation)

任何曾經(jīng)試圖從頭開(kāi)始編寫(xiě)神經(jīng)網(wǎng)絡(luò)的人都知道,前向傳播還不到最終成功的一半。當(dāng)你開(kāi)始向回推算時(shí),真正的樂(lè)趣才剛剛開(kāi)始。

如今,我們不需要為反向傳播而煩惱——因?yàn)?a href="http://www.makelele.cn/tags/深度學(xué)習(xí)/" target="_blank">深度學(xué)習(xí)框架已經(jīng)為我們做好了,但是我覺(jué)得有必要弄明白它背后發(fā)生的事情。

就像在密集連接的神經(jīng)網(wǎng)絡(luò)中一樣,我們的目標(biāo)是計(jì)算導(dǎo)數(shù),然后在梯度下降的過(guò)程中,用這些導(dǎo)數(shù)去更新我們的參數(shù)值。

在下面的計(jì)算中,我們將用到鏈?zhǔn)椒▌t —— 這在我之前的文章中提到過(guò)。我們想要評(píng)估參數(shù)的變化對(duì)結(jié)果特征映射的影響,以及隨之對(duì)最終結(jié)果的影響。

在開(kāi)始詳細(xì)討論之前,我們需要將數(shù)學(xué)符號(hào)統(tǒng)一 —— 為了表示方便,我不會(huì)使用偏導(dǎo)數(shù)的完整符號(hào),而是用下面提到的縮符號(hào)。

但是請(qǐng)記住,當(dāng)我使用這種表示法時(shí),這將始終代表著成本函數(shù)的偏導(dǎo)。

Figure 10.Input and output data for a single convolution layer in forward and backward propagation

我們的任務(wù)是計(jì)算 dW [1] 和 db [l] (它們是與當(dāng)前層參數(shù)相關(guān)的導(dǎo)數(shù)),以及 dA[l-1](它將被傳遞給前一層)。

如圖10所示,dA[l] 作為輸入,張量 dW 和 W,db 和 b 以及 dA 和 A 的維度分別相同。第一步是求激活函數(shù)關(guān)于輸入張量的導(dǎo)數(shù),將其結(jié)果記為 dZ [1] 。根據(jù)鏈?zhǔn)椒▌t,該運(yùn)算的結(jié)果將在后面用到。

現(xiàn)在,我們需要處理卷積自身的反向傳播。為了實(shí)現(xiàn)這個(gè)目標(biāo),我們將利用一個(gè)稱(chēng)為全卷積的矩陣運(yùn)算,該運(yùn)算的可視化解釋如下圖所示。

請(qǐng)注意,在此過(guò)程中我們要使用 kernel,而我們之前用到的 kernel 是該 kernel 旋轉(zhuǎn)了180度所得到的。

該操作可以用以下公式表示,其中 kernel 由 W 表示,dZ[m,n] 是一個(gè)標(biāo)量,該標(biāo)量屬于從前一層所獲得的偏導(dǎo)數(shù)。

Figure 11.Full convolution

09

池化層(Pooling Layers)

除了卷積層之外,CNN 經(jīng)常使用一個(gè)稱(chēng)為池化層的網(wǎng)絡(luò)層,它們主要用于減小張量的大小并加快計(jì)算速度。

這個(gè)層的結(jié)構(gòu)很簡(jiǎn)單,我們只需要將圖像劃分成不同的區(qū)域,然后對(duì)每個(gè)部分執(zhí)行一些操作即可。

例如,對(duì)于最大池化層(Max Pool Layer),我們從每個(gè)區(qū)域中選擇一個(gè)最大值,并將其放在輸出中的相應(yīng)位置即可。

與卷積層的情況一樣,我們有兩個(gè)超參數(shù)——kernel 的尺寸和步長(zhǎng)。

最后值得一提是,如果要為多通道圖像執(zhí)行池化操作,則每個(gè)通道都應(yīng)該分別執(zhí)行池化操作。

Figure 12.Max poolingexample

10

池化層的反向傳播(Pooling Layers Backpropagation)

在本文中,我們僅討論最大池化的反向傳播(max pooling backpropagation),但是通過(guò)將該方法稍作調(diào)整,便可運(yùn)用到其他所有類(lèi)型的池化層。

由于在池化層這種類(lèi)型的層中,我們不用更新任何參數(shù),我們的任務(wù)只是適度地分配梯度值。

前文講到,在最大池化的前向傳播中,我們從每個(gè)區(qū)域中選擇最大值并將它們傳輸?shù)较乱粚印?/p>

因此很明顯,在反向傳播期間,梯度不會(huì)影響未在前向傳播中使用的矩陣元素。

在實(shí)際操作中,該過(guò)程是通過(guò)創(chuàng)建一個(gè)掩膜(mask)來(lái)實(shí)現(xiàn)的,該掩膜會(huì)記住在前向傳播中所使用的元素的位置,隨后我們就可以用該掩膜來(lái)傳遞梯度。

Figure 13.Max pooling backwardpass

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:深入卷積神經(jīng)網(wǎng)絡(luò)背后的數(shù)學(xué)原理

文章出處:【微信號(hào):AI_Thinker,微信公眾號(hào):人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開(kāi)深度學(xué)習(xí),而深度學(xué)習(xí)則依賴(lài)于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?323次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽(tīng)到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱(chēng)為CNN,是一種專(zhuān)門(mén)用來(lái)處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見(jiàn),因?yàn)閳D像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?2072次閱讀
    自動(dòng)駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問(wèn)題。當(dāng)x&gt;0 時(shí),梯度恒為1,無(wú)梯度耗散問(wèn)題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個(gè)模型非常巨大。所以要想實(shí)現(xiàn)輕量級(jí)的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大小:CNN神經(jīng)網(wǎng)絡(luò)是通過(guò)權(quán)值共享的方式,利用
    發(fā)表于 10-28 08:02

    卷積運(yùn)算分析

    的數(shù)據(jù),故設(shè)計(jì)了ConvUnit模塊實(shí)現(xiàn)單個(gè)感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫(xiě)數(shù)字識(shí)別。一旦模型被訓(xùn)練并保存,就可以用于對(duì)新圖像進(jìn)行推理和預(yù)測(cè)。要使用生成的模型進(jìn)行推理,可以按照以下步驟進(jìn)行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來(lái)需要使用擴(kuò)展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對(duì)第一層卷積+池化的部署進(jìn)行說(shuō)明,其余層與之類(lèi)似。 1.使用 Custom_Dtrans 指令,將權(quán)重?cái)?shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對(duì)于權(quán)重
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線(xiàn)蟲(chóng)的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1197次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1124次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測(cè)皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專(zhuān)家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問(wèn)題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專(zhuān)家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    自動(dòng)駕駛感知系統(tǒng)中卷積神經(jīng)網(wǎng)絡(luò)原理的疑點(diǎn)分析

    背景 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的核心技術(shù)主要包括以下幾個(gè)方面:局部連接、權(quán)值共享、多卷積核以及池化。這些技術(shù)共同作用,使得CNN在圖像
    的頭像 發(fā)表于 04-07 09:15 ?845次閱讀
    自動(dòng)駕駛感知系統(tǒng)中<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理的疑點(diǎn)分析

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過(guò)濾器修剪統(tǒng)計(jì)數(shù)據(jù)怎么查看?

    無(wú)法觀(guān)察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過(guò)濾器修剪統(tǒng)計(jì)數(shù)據(jù)
    發(fā)表于 03-06 07:10