91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

強(qiáng)勢的點云處理神經(jīng)網(wǎng)絡(luò)PointNe介紹

3D視覺工坊 ? 來源:3D視覺開發(fā)者社區(qū) ? 2023-01-03 10:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

PointNet是由斯坦福大學(xué)的Charles R. Qi等人在《PointNet:Deep Learning on Point Sets for 3D Classification and Segmentation》一文中提出的模型,它可以直接對點云進(jìn)行處理的,對輸入點云中的每一個點,學(xué)習(xí)其對應(yīng)的空間編碼,之后再利用所有點的特征得到一個全局的點云特征。Pointnet提取的全局特征能夠很好地完成分類任務(wù),但局部特征提取能力較差,這使得它很難對復(fù)雜場景進(jìn)行分析。

PointNet++是Charles R. Qi團(tuán)隊在PointNet論文基礎(chǔ)上改進(jìn)版本,其核心是提出了多層次特征提取結(jié)構(gòu),有效提取局部特征提取,和全局特征。

F-PointNet將PointNet的應(yīng)用拓展到了3D目標(biāo)檢測上,可以使用PointNet或PointNet++進(jìn)行點云處理。它在進(jìn)行點云處理之前,先使用圖像信息得到一些先驗搜索范圍,這樣既能提高效率,又能增加準(zhǔn)確率。

PointNet

1.1 PointNet思路流程

1)輸入為一幀的全部點云數(shù)據(jù)的集合,表示為一個nx3的2d tensor,其中n代表點云數(shù)量,3對應(yīng)xyz坐標(biāo)。

2)輸入數(shù)據(jù)先通過和一個T-Net學(xué)習(xí)到的轉(zhuǎn)換矩陣相乘來對齊,保證了模型的對特定空間轉(zhuǎn)換的不變性。

3)通過多次mlp對各點云數(shù)據(jù)進(jìn)行特征提取后,再用一個T-Net對特征進(jìn)行對齊。

4)在特征的各個維度上執(zhí)行maxpooling操作來得到最終的全局特征。

5)對分類任務(wù),將全局特征通過mlp來預(yù)測最后的分類分?jǐn)?shù);對分割任務(wù),將全局特征和之前學(xué)習(xí)到的各點云的局部特征進(jìn)行串聯(lián),再通過mlp得到每個數(shù)據(jù)點的分類結(jié)果。

1.2 PointNet網(wǎng)絡(luò)結(jié)構(gòu)

它提取的“全局特征”能夠很好地完成分類任務(wù)。下面看一下PointNet的框架結(jié)構(gòu):

66f93aae-8a88-11ed-bfe3-dac502259ad0.jpg

下面解釋一個網(wǎng)絡(luò)中各個部件的作用。

1)transform:第一次,T-Net 3x3,對輸入點云進(jìn)行對齊:位姿改變,使改變后的位姿更適合分類/分割;第二次,T-Net 64x64,對64維特征進(jìn)行對齊。2)mlp:多層感知機(jī),用于提取點云的特征,這里使用共享權(quán)重的卷積。

3)max pooling:匯總所有點云的信息,進(jìn)行最大池化,得到點云的全局信息。

4)分割部分:局部和全局信息組合結(jié)構(gòu)(concate,語義分割)。

5)分類loss:交叉熵:分割loss:分類+分割+L2(transform,原圖的正交變換)。

1.3T-Net網(wǎng)絡(luò)結(jié)構(gòu)

將輸入的點云數(shù)據(jù)作為nx3x1單通道圖像,接三次卷積和一次池化后,再reshape為1024個節(jié)點,然后接兩層全連接,網(wǎng)絡(luò)除最后一層外都使用了ReLU激活函數(shù)和批標(biāo)準(zhǔn)化。

1.4 模型效果

ModelNet40 上的分類結(jié)果:

671f7430-8a88-11ed-bfe3-dac502259ad0.png

ShapeNet部分?jǐn)?shù)據(jù)集上的分割結(jié)果:

67411b30-8a88-11ed-bfe3-dac502259ad0.png67527268-8a88-11ed-bfe3-dac502259ad0.png

不足:缺乏在不同尺度上提取局部信息的能力。

PointNet++

Pointnet提取的全局特征能夠很好地完成分類任務(wù),由于模型基本上都是單點采樣,代碼底層用的是2Dconv,只有maxpooling整合了整體特征,所以局部特征提取能力較差,這使得它很難對復(fù)雜場景進(jìn)行分析。

PointNet++的核心是提出了多層次特征提取結(jié)構(gòu),有效提取局部特征提取,和全局特征。

2.1 思路流程

先在輸入點集中選擇一些點作為中心點,然后圍繞每個中心點選擇周圍的點組成一個區(qū)域,之后每個區(qū)域作為PointNet的一個輸入樣本,得到一組特征,這個特征就是這個區(qū)域的特征。

678a0ed0-8a88-11ed-bfe3-dac502259ad0.jpg

之后中心點不變,擴(kuò)大區(qū)域,把上一步得到的那些特征作為輸入送入PointNet,以此類推,這個過程就是不斷的提取局部特征,然后擴(kuò)大局部范圍,最后得到一組全局的特征,然后進(jìn)行分類。

2.2 整體網(wǎng)絡(luò)結(jié)構(gòu)

PointNet++ 在不同尺度提取局部特征,通過多層網(wǎng)絡(luò)結(jié)構(gòu)得到深層特征。PointNet++按照任務(wù)也分為 classification (分類網(wǎng)絡(luò))和 segmentation (分割網(wǎng)絡(luò))兩種,輸入和輸出分別與PointNet中的兩個網(wǎng)絡(luò)一致。

67b06b52-8a88-11ed-bfe3-dac502259ad0.jpg

PointNet++會先對點云進(jìn)行采樣(sampling)和劃分區(qū)域(grouping),在各個小區(qū)域內(nèi)用基礎(chǔ)的PointNet網(wǎng)絡(luò)進(jìn)行特征提?。∕SG、MRG),不斷迭代。

對于分類問題,直接用PointNet提取全局特征,采用全連接得到每個類別評分。對于分割問題,將高維的點反距離插值得到與低維相同的點數(shù),再特征融合,再使用PointNet提取特征 。

比較PointNet++兩個任務(wù)網(wǎng)絡(luò)的區(qū)別:

在得到最高層的 feature 之后,分類網(wǎng)絡(luò)使用了一個小型的 PointNet + FCN 網(wǎng)絡(luò)提取得到最后的分類 score;

分割網(wǎng)絡(luò)通過“跳躍連接” 操作不斷與底層 “低層特征圖”信息融合,最終得到逐點分分類語義分割結(jié)果。(“跳躍連接”對應(yīng)上圖的 skip link connection;低層特征圖 具有分辨率較大,保留較豐富的信息,雖然整體語義信息較弱。)

2.3網(wǎng)絡(luò)結(jié)構(gòu)組件

1)采樣層(sampling)

激光雷達(dá)單幀的數(shù)據(jù)點可以多達(dá)100k個,如果對每一個點都提取局部特征,計算量是非常巨大的。因此,作者提出了先對數(shù)據(jù)點進(jìn)行采樣。作者使用的采樣算法是最遠(yuǎn)點采樣(farthest point sampling, FPS),相對于隨機(jī)采樣,這種采樣算法能夠更好地覆蓋整個采樣空間。

2)組合層(grouping)

為了提取一個點的局部特征,首先需要定義這個點的“局部”是什么。一個圖片像素點的局部是其周圍一定曼哈頓距離下的像素點,通常由卷積層的卷積核大小確定。同理,點云數(shù)據(jù)中的一個點的局部由其周圍給定半徑劃出的球形空間內(nèi)的其他點構(gòu)成。組合層的作用就是找出通過采樣層后的每一個點的所有構(gòu)成其局部的點,以方便后續(xù)對每個局部提取特征。

3)特征提取層(feature learning)

因為PointNet給出了一個基于點云數(shù)據(jù)的特征提取網(wǎng)絡(luò),因此可以用PointNet對組合層給出的各個局部進(jìn)行特征提取來得到局部特征。值得注意的是,雖然組合層給出的各個局部可能由不同數(shù)量的點構(gòu)成,但是通過PointNet后都能得到維度一致的特征(由上述K值決定)。

2.4 不均勻點云組合grouping方法

不同于圖片數(shù)據(jù)分布在規(guī)則的像素網(wǎng)格上且有均勻的數(shù)據(jù)密度,點云數(shù)據(jù)在空間中的分布是不規(guī)則且不均勻的。當(dāng)點云不均勻時,每個子區(qū)域中如果在分區(qū)的時候使用相同的球半徑,會導(dǎo)致部分稀疏區(qū)域采樣點過小。作者提出多尺度成組 (MSG)和多分辨率成組 (MRG)兩種解決辦法。

1)多尺度組合MSG:對于選取的一個中心點設(shè)置多個半徑進(jìn)行成組,并將經(jīng)過PointNet對每個區(qū)域抽取后的特征進(jìn)行拼接(concat)來當(dāng)做該中心點的特征,這種做法會產(chǎn)生很多特征重疊,結(jié)果會可以保留和突出(邊際疊加)更多局部關(guān)鍵的特征,但是這種方式不同范圍內(nèi)計算的權(quán)值卻很難共享,計算量會變大很多。

67d13698-8a88-11ed-bfe3-dac502259ad0.png

2)多分辨率組合MRG:MRG避免了大量的計算,但仍然保留了根據(jù)點的分布特性自適應(yīng)地聚合信息的能力。對不同特征層上(分辨率)提取的特征再進(jìn)行concat,以b圖為例,最后的concat包含左右兩個部分特征,分別來自底層和高層的特征抽取,對于low level點云成組后經(jīng)過一個pointnet和high level的進(jìn)行concat,思想是特征的抽取中的跳層連接。

當(dāng)局部點云區(qū)域較稀疏時,上層提取到的特征可靠性可能比底層更差,因此考慮對底層特征提升權(quán)重。當(dāng)然,點云密度較高時能夠提取到的特征也會更多。這種方法優(yōu)化了直接在稀疏點云上進(jìn)行特征抽取產(chǎn)生的問題,且相對于MSG的效率也較高。

選擇哪一種?

當(dāng)局部區(qū)域的密度低時,第一矢量可能不如第二矢量可靠,因為計算第一矢量的子區(qū)域包含更稀疏的點并且更多地受到采樣不足的影響。在這種情況下,第二個矢量應(yīng)該加權(quán)更高。另一方面,當(dāng)局部區(qū)域的密度高時,第一矢量提供更精細(xì)細(xì)節(jié)的信息,因為它具有以較低水平遞歸地表達(dá)較高分辨率檢查的能力。

2.5 模型效果

分類對比:

67e2f234-8a88-11ed-bfe3-dac502259ad0.png

分割對比:

67f27a42-8a88-11ed-bfe3-dac502259ad0.png

小結(jié)復(fù)雜場景點云一般采用PointNet++進(jìn)行處理,而簡單場景點云則采用PointNet。如果只從點云分類和分割兩個任務(wù)角度分析,分類任務(wù)只需要max pooling操作之后的特征信息就可完成,而分割任務(wù)則需要更加詳細(xì)的local context信息。

F-PointNet 也是直接處理點云數(shù)據(jù)的方案,但這種方式面臨著挑戰(zhàn),比如:如何有效地在三維空間中定位目標(biāo)的可能位置,即如何產(chǎn)生 3D 候選框,假如全局搜索將會耗費大量算力與時間。

F-PointNet是在進(jìn)行點云處理之前,先使用圖像信息得到一些先驗搜索范圍,這樣既能提高效率,又能增加準(zhǔn)確率。

3.1 基本思路

首先使用在 RGB 圖像上運行的 2D 檢測器,其中每個2D邊界框定義一個3D錐體區(qū)域。然后基于這些視錐區(qū)域中的 3D 點云,我們使用 PointNet/PointNet++ 網(wǎng)絡(luò)實現(xiàn)了 3D實例分割和非模態(tài) 3D 邊界框估計??偨Y(jié)一下思路,如下:

基于圖像2D目標(biāo)檢測。

基于圖像生成錐體區(qū)域。

在錐體內(nèi),使用 PointNet/PointNet++ 網(wǎng)絡(luò)進(jìn)行點云實例分割。

它是在進(jìn)行點云處理之前,先使用圖像信息得到一些先驗搜索范圍,這樣既能提高效率,又能增加準(zhǔn)確率。先看看下面這張圖:

在這張圖里,左上角的意思是先把圖像和點云信息標(biāo)定好(這個屬于傳感器的外參標(biāo)定,在感知之前進(jìn)行;獲取兩個傳感器之間旋轉(zhuǎn)矩陣和平移向量,就可以得到相互的位置關(guān)系)。

683abbf4-8a88-11ed-bfe3-dac502259ad0.png

左下角是用目標(biāo)檢測算法檢測出物體的邊界框(BoundingBox),有了邊界框之后,以相機(jī)為原點,沿邊界框方向延伸過去就會形成一個錐體(上圖的右半部分),該論文題目里frustum這個詞就是錐體的意思。然后用點云對該物體進(jìn)行識別的時候,只需要在這個錐體內(nèi)識別就行了,大大減小了搜索范圍。

3.2 模型框架

模型結(jié)構(gòu)如下:(可以點擊圖片放大查看)

6855604e-8a88-11ed-bfe3-dac502259ad0.png

網(wǎng)絡(luò)共分為三部分,第一部分是使用圖像進(jìn)行目標(biāo)檢測并生成錐體區(qū)域,第二部分是在錐體內(nèi)的點云實例分割,第三部分是點云物體邊界框的回歸。

3.3基于圖像生成錐體區(qū)域

687ec772-8a88-11ed-bfe3-dac502259ad0.png

由于檢測到的目標(biāo)不一定在圖像的正中心,所以生成的錐體的軸心就不一定和相機(jī)的坐標(biāo)軸重合,如下圖中(a)所示。為了使網(wǎng)絡(luò)具有更好的旋轉(zhuǎn)不變性,我們需要做一次旋轉(zhuǎn),使相機(jī)的Z軸和錐體的軸心重合。如下圖中(b)所示。

6893a764-8a88-11ed-bfe3-dac502259ad0.png

3.4 在錐體內(nèi)進(jìn)行點云實例分割

實例分割使用PointNet。一個錐體內(nèi)只提取一個物體,因為這個錐體是圖像中的邊界框產(chǎn)生的,一個邊界框內(nèi)也只有一個完整物體。

在生成錐體的時候提到了旋轉(zhuǎn)不變性,此處完成分割這一步之后,還需要考慮平移不變性,因為點云分割之后,分割的物體的原點和相機(jī)的原點必不重合,而我們處理的對象是點云,所以應(yīng)該把原點平移到物體中去,如下圖中(c)所示。

68bb1196-8a88-11ed-bfe3-dac502259ad0.png

3.5 生成精確邊界框

生成精確邊界框的網(wǎng)絡(luò)結(jié)構(gòu):

690a07f6-8a88-11ed-bfe3-dac502259ad0.png

從這個結(jié)構(gòu)里可以看出,在生成邊界框之前,需要經(jīng)過一個T-Net,這個東西的作用是生成一個平移量,之所以要做這一步,是因為在上一步得到的物體中心并不完全準(zhǔn)確,所以為了更精確地估計邊界框,在此處對物體的質(zhì)心做進(jìn)一步的調(diào)整,如下圖中(d)所示。

6919675a-8a88-11ed-bfe3-dac502259ad0.png

下面就是邊界框回歸了,對一個邊界框來講,一共有七個參數(shù),包括:

694a1792-8a88-11ed-bfe3-dac502259ad0.png

最后總的殘差就是以上目標(biāo)檢測、T-Net和邊界框殘差之和,可以據(jù)此構(gòu)建損失函數(shù)。

6951956c-8a88-11ed-bfe3-dac502259ad0.png

3.6 PointNet關(guān)鍵點

(1) F-PointNet使用2D RGB圖像

F-PointNet使用2D RGB圖像原因是:1.當(dāng)時基于純3D點云數(shù)據(jù)的3D目標(biāo)檢測對小目標(biāo)檢測效果不佳。所以F-PointNet先基于2D RGB做2D的目標(biāo)檢測來定位目標(biāo),再基于2d目標(biāo)檢測結(jié)果用其對應(yīng)的點云數(shù)據(jù)視錐進(jìn)行bbox回歸的方法來實現(xiàn)3D目標(biāo)檢測。2.使用純3D的點云數(shù)據(jù),計算量也會特別大,效率也是這個方法的優(yōu)點之一。使用成熟的2D CNN目標(biāo)檢測器(Mask RCNN)生成2D檢測框,并輸出one-hot 分類向量(即基于2D RGB圖像的分類)。

(2)錐體框生成

2D檢測框結(jié)合深度信息,找到最近和最遠(yuǎn)的包含檢測框的平面來定義3D視錐區(qū)域frustum proposal。然后在該frustum proposal里收集所有的3D點來組成視錐點云(frustum point cloud)。

3.7 實驗結(jié)果

與其他模型對比:

696099b8-8a88-11ed-bfe3-dac502259ad0.png6979de64-8a88-11ed-bfe3-dac502259ad0.png

模型效果:

698d7c62-8a88-11ed-bfe3-dac502259ad0.png

3.8 優(yōu)點

(1)舍棄了global fusion,提高了檢測效率;并且通過2D detector和3D Instance Segmentation PointNet對3D proposal實現(xiàn)了逐維(2D-3D)的精準(zhǔn)定位,大大縮短了對點云的搜索時間。下圖是通過3d instance segmentation將搜索范圍從9m~55m縮減到12m~16m。

69cc1e04-8a88-11ed-bfe3-dac502259ad0.png

(2)相比于在BEV(Bird's Eye view)中進(jìn)行3D detection,F(xiàn)-PointNet直接處理raw point cloud,沒有任何維度的信息損失,使用PointNet能夠?qū)W習(xí)更全面的空間幾何信息,特別是在小物體的檢測上有很好的表現(xiàn)。下圖是來自Hao Su 2018年初的課程,現(xiàn)在的KITTI榜有細(xì)微的變動。

(3)利用成熟的2D detector對proposal進(jìn)行分類(one-hot class vector,打標(biāo)簽),起到了一定的指導(dǎo)作用,能夠大大降低PointNet對三維空間物體的學(xué)習(xí)難度。

3.9 模型代碼

開源代碼:GitHub - charlesq34/frustum-pointnets: Frustum PointNets for 3D Object Detection from RGB-D Data

作者代碼的運行環(huán)境:

系統(tǒng):Ubuntu 14.04 或 Ubuntu 16.04

深度框架:TensorFlow1.2(GPU 版本)或 TensorFlow1.4(GPU 版本)

其他依賴庫:cv2、mayavi等。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107873
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    831

    瀏覽量

    61996
  • FPS
    FPS
    +關(guān)注

    關(guān)注

    0

    文章

    35

    瀏覽量

    12358

原文標(biāo)題:一文搞懂PointNet全家桶——強(qiáng)勢的點云處理神經(jīng)網(wǎng)絡(luò)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?339次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像
    的頭像 發(fā)表于 11-19 18:15 ?2087次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時的梯度耗散問題。當(dāng)x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個手寫數(shù)字識別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    神經(jīng)元,但卻能產(chǎn)生復(fù)雜的行為。受此啟發(fā),與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,LNN旨在通過模擬大腦中神經(jīng)元之間的動態(tài)連接來處理信息,這種網(wǎng)絡(luò)能夠順序
    的頭像 發(fā)表于 09-28 10:03 ?1254次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類腦芯片

    奇妙的突觸結(jié)構(gòu),有多個分支,承載著多個突觸群,使復(fù)雜網(wǎng)絡(luò)的通信和處理成為可能。 不同的神經(jīng)網(wǎng)絡(luò) 五、自選波類腦芯片 書里的內(nèi)容越來越燒腦了, 需要不斷的學(xué)習(xí)才能理解 加油吧少年
    發(fā)表于 09-17 16:43

    神經(jīng)網(wǎng)絡(luò)的并行計算與加速技術(shù)

    問題。因此,并行計算與加速技術(shù)在神經(jīng)網(wǎng)絡(luò)研究和應(yīng)用中變得至關(guān)重要,它們能夠顯著提升神經(jīng)網(wǎng)絡(luò)的性能和效率,滿足實際應(yīng)用中對快速響應(yīng)和大規(guī)模數(shù)據(jù)處理的需求。神經(jīng)網(wǎng)絡(luò)并行
    的頭像 發(fā)表于 09-17 13:31 ?1145次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計算與加速技術(shù)

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3482次閱讀

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機(jī)參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1249次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    NVIDIA實現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開
    的頭像 發(fā)表于 04-07 11:33 ?1207次閱讀