91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何實現(xiàn)基于SSD神經(jīng)網(wǎng)絡(luò)構(gòu)建實時手部檢測

zhKF_jqr_AI ? 來源:未知 ? 作者:佚名 ? 2017-12-22 08:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:Victor Dibia編譯:weakish

編者按:傳統(tǒng)的追蹤檢測物體方法大多基于規(guī)則,面對一些復(fù)雜情況時(光照、遮蔽、視角)表現(xiàn)不佳。而快速神經(jīng)網(wǎng)絡(luò)的興起,使神經(jīng)網(wǎng)絡(luò)應(yīng)用于實時物體追蹤檢測成為可能。IBM研究院研究員(Research Staff Member)Victor Dibia在本月初發(fā)文介紹了如何使用Tensorflow框架基于SSD神經(jīng)網(wǎng)絡(luò)構(gòu)建實時手部檢測器。

本文記錄了使用Tensorflow(Object Detection API)訓(xùn)練一個手部檢測器的步驟和代碼。我主要感興趣的是實時檢測桌子上的手。我希望本文能夠展示如何將神經(jīng)網(wǎng)絡(luò)應(yīng)用于追蹤手部(第一人稱視角和其他視角),并取得良好的結(jié)果。

可以從Github獲取所有的代碼(包括訓(xùn)練好的模型)。

下圖是檢測器的實時演示:

和任何基于DNN/CNN的任務(wù)一樣,流程中成本最高的(也是風(fēng)險最大的)部分是尋找或創(chuàng)建正確的(標(biāo)注過的)數(shù)據(jù)集。我首先嘗試了牛津手部數(shù)據(jù)集進(jìn)行了實驗(結(jié)果不好)。我接著嘗試了Egohands數(shù)據(jù)集,這個數(shù)據(jù)集更符合我的需求(第一人稱視角、高質(zhì)量圖像、手部標(biāo)注)。

一些fps數(shù)字:

21 FPS使用320 * 240圖像,運行時無可視化結(jié)果。

16 FPS使用320 * 240圖像,運行時可視化結(jié)果

11 FPS使用640 * 480圖像,運行時可視化結(jié)果(上圖)

以上數(shù)據(jù)是在MacBook ProCPU(i7,2.5GHz,16GB)上測試的結(jié)果。

動機——為什么使用神經(jīng)網(wǎng)絡(luò)追蹤/檢測手部?

計算機視覺領(lǐng)域現(xiàn)在有若干追蹤方法。湊巧的是,其中許多方法是基于規(guī)則的(例如,基于紋理和邊界特征來提取背景,使用色彩直方圖和HOG分類器來區(qū)分手和背景等),因而它們的魯棒性不是非常好。例如,如果背景不同尋常,或者照明條件的急劇變化導(dǎo)致了膚色的急劇變化或追蹤物被遮蔽,這些算法可能會很困惑。(可以參考這篇關(guān)于HCI領(lǐng)域估計手部姿態(tài)的綜述:https://www.cse.unr.edu/~bebis/handposerev.pdf)。

快速移動或者手部角度比較特殊時會出現(xiàn)檢測不到的情況

有了足夠大的數(shù)據(jù)集,神經(jīng)網(wǎng)絡(luò)提供了訓(xùn)練表現(xiàn)良好的模型的機會,同時應(yīng)對了現(xiàn)有對象追蹤/檢測算法的挑戰(zhàn)——多樣化的/差的照明條件,多化的視角甚至遮蔽。神經(jīng)網(wǎng)絡(luò)用于實時跟蹤/檢測的主要缺陷是,它們可能是很復(fù)雜的,與僅作追蹤的算法比相對較慢,并且收集一個精良的數(shù)據(jù)集成本可能相當(dāng)高。但隨著神經(jīng)網(wǎng)絡(luò)的快速發(fā)展,情況正在改變。

此外,深度學(xué)習(xí)框架(例如tensorflow的Object Detection API)簡化了針對自定義物體檢測的模型的訓(xùn)練過程,使這個領(lǐng)域的工作變得更加容易上手。更重要的是,ssd、faster r-cnn、rfcn等快速神經(jīng)網(wǎng)絡(luò)模型如ssd,更快的r-cnn,rfcn(見這里)等的出現(xiàn)使神經(jīng)網(wǎng)絡(luò)成為實時檢測(和追蹤)應(yīng)用的有吸引力的候選者。在HCI領(lǐng)域(如輸入設(shè)備等),有很多像這樣的魯棒性很強的手部追蹤應(yīng)用。

如果你對訓(xùn)練檢測器的過程不感興趣,你可以直接跳到應(yīng)用模型檢測手部的那節(jié)。

噪雜背景和遮蔽

訓(xùn)練模型是一個多階段過程(匯總數(shù)據(jù)集、清洗,分割訓(xùn)練、測試集并生成推理圖)。雖然我簡要描述了這些部分的細(xì)節(jié),但還有其他一些教程更詳細(xì)地介紹如何使用tensorflow Object Detection API。如果對從頭開始訓(xùn)練一個定制的檢測器感興趣,我建議你通讀這些教程。

Tensorflow的數(shù)據(jù)預(yù)備和網(wǎng)絡(luò)訓(xùn)練

Egohands數(shù)據(jù)集

手部檢測器模型使用了Egohands數(shù)據(jù)集中的數(shù)據(jù)的。這個數(shù)據(jù)集效果不錯的原因有幾個。 它包含優(yōu)質(zhì)的像素級別標(biāo)注(> 15000個摳像標(biāo)注),其中有4800張圖像包含手部。所有的圖像都是基于第一人稱視角(Google glass)拍攝的,這些圖像取自48個不同的環(huán)境(室內(nèi),室外)和活動(玩紙牌,下國際象棋,搭積木,解決謎題等)。如果你將使用Egohands數(shù)據(jù)集,可以按如下方式引用它:

Bambach, Sven, et al. “Lending a hand: Detecting hands and recognizing activities in complex egocentric interactions.” Proceedings of the IEEE International Conference on Computer Vision. 2015.

Egohands數(shù)據(jù)集用多邊形(白點)圈出了每只手

Egohands數(shù)據(jù)集(包含標(biāo)注數(shù)據(jù)的zip文件)包含48個文件夾,每個文件夾對應(yīng)于視頻采集的地點(每個文件夾包含100張圖片)。


— LOCATION_X

— frame_1.jpg

— frame_2.jpg

— frame_100.jpg

— polygons.mat // 標(biāo)注

— LOCATION_Y

— frame_1.jpg

— frame_2.jpg

— frame_100.jpg

— polygons.mat // 標(biāo)注

轉(zhuǎn)換數(shù)據(jù)至Tensorflow格式

首先需要將Egohands數(shù)據(jù)集轉(zhuǎn)換為適用于Tensorflow的格式(tfrecord)。Github 倉庫中包含一個egohands_dataset_clean.py腳本,它可以幫助生成這些csv文件。

下載egohands數(shù)據(jù)集

重命名所有文件,在文件名中包含其目錄名稱,以確保每個文件名都是唯一的

將數(shù)據(jù)集分成訓(xùn)練(80%)和測試(20%)兩個文件夾。

讀入每個文件夾中的“polygons.mat”,生成包圍盒,并將其可視化以確保正確。

一旦腳本運行完畢,你應(yīng)該有一個包含訓(xùn)練和測試文件夾的圖像文件夾。每個文件夾中還應(yīng)該包含一個用于生成tfrecords的csv標(biāo)注文件,文件名分別為train_labels.csv和test_labels.csv。

接著,將數(shù)據(jù)集和csv文件轉(zhuǎn)換為tfrecord。請參考Harrison提供的教程了解如何轉(zhuǎn)換(https://pythonprogramming.net/creating-tfrecord-files-tensorflow-object-detection-api-tutorial/)。如果你在本地訓(xùn)練,這個教程還介紹了如何在本地啟動培訓(xùn)進(jìn)程。如果你使用GCP之類的服務(wù)在云端訓(xùn)練,請參考這個教程(https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/running_on_cloud.md)。

注意:雖然egohands數(shù)據(jù)集為手部提供了四個單獨的標(biāo)簽(自己的左手、自己的右手、他人的左手、他人的右手),但本文只對一般的“手”感興趣,因此上面的腳本將所有的訓(xùn)練數(shù)據(jù)都標(biāo)記為“手”。你可以修改訓(xùn)練腳本以生成支持4個標(biāo)簽的tfrecord。

訓(xùn)練手部檢測模型

預(yù)備好數(shù)據(jù)集后,接下來的任務(wù)就是在這個數(shù)據(jù)集上訓(xùn)練模型。我們可以使用遷移學(xué)習(xí)來縮短訓(xùn)練整個模型所需的時間。這意味著我們可以找一個已經(jīng)在相關(guān)的領(lǐng)域(這里是圖像分類)訓(xùn)練過的現(xiàn)有模型,并重新訓(xùn)練它最后一層或幾層網(wǎng)絡(luò)來檢測手部。棒!考慮到神經(jīng)網(wǎng)絡(luò)有時候有幾千甚至幾百萬參數(shù),這些參數(shù)可能需要幾周或幾個月的時間來訓(xùn)練,遷移學(xué)習(xí)有助于縮短訓(xùn)練時間,可能縮短到幾小時。實際上,Tensorflow就提供了一些模型(在tensorflow model zoo),我選擇ssd_mobilenet_v1_coco模型作為起點,因為它是目前最快的機型(之一,參見SSD研究論文),訓(xùn)練過程可以在你本地的CPU機器上完成,這可能需要一段時間,或者在(云)GPU機器上訓(xùn)練,這樣快很多(我正是這么做的)。作為參考,在我的MacBook Pro(從源碼編譯tensorflow以充分利用mac的cpu架構(gòu)的特性)上,我取得的最大訓(xùn)練速度是每步5秒,而在GPU上則是每步 0.5秒。也就是說,在我的mac(i7,2.5GHz,16GB)上運行20萬步需要約12天,而在GPU上需要約5小時。

隨著訓(xùn)練過程的進(jìn)展,我預(yù)期總損失(錯誤)會降低到可能的最小值(大約為1或更低)。通過觀察tensorboard圖形上顯示的總損失(見下圖),應(yīng)該可以了解到訓(xùn)練過程何時完成(總損失不會因更多迭代/步驟而下降)。我運行了20萬步訓(xùn)練(花了大約5小時),在總損失(錯誤)值2.575處停止訓(xùn)練。(現(xiàn)在反思一下,我本可以在大約5萬步處停止訓(xùn)練,總損失值也差不多)。使用tensorflow,你還可以并發(fā)運行評估,評估你的模型在測試數(shù)據(jù)上的表現(xiàn)。衡量表現(xiàn)的常用指標(biāo)是平均精確率(mean average precision,mAP),它是一個總結(jié)精度-召回曲線下面積的數(shù)字。mAP是衡量模型表現(xiàn)的度量,模型的表現(xiàn)指生成與我們的測試數(shù)據(jù)集中的摳像包圍盒至少有50%重疊區(qū)域的包圍盒。對于這里訓(xùn)練的手部檢測器,mAP值為0.9686@0.5IOU。mAP取值范圍為0-1,越高越好。

最終的損失值為2.275,mAP為0.9686

訓(xùn)練完成后,導(dǎo)出訓(xùn)練好的推理圖(frozen_inference_graph.pb)(具體步驟參見前文提到的教程),將其保存在hand_inference_graph文件夾中?,F(xiàn)在是時候做一些有趣的檢測了。

使用檢測器檢測和追蹤手部

將檢測器應(yīng)用到Y(jié)outube視頻

如果你還沒有安裝好Tensorflow,請依照這個教程安裝Tensorflow及其object detection api(https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/installation.md)。

檢測手部的一般步驟如下:

加載frozen_inference_graph.pb

讀取輸入圖像(來自實時視頻流、視頻文件或靜態(tài)圖像)

檢測手部并可視化包圍盒

GitHub倉庫中有兩個腳本,整合了以上步驟:

detect_multi_threaded.py:讀取攝像頭視頻輸入并進(jìn)行檢測的多線程實現(xiàn)。

detect_single_threaded.py: 和上面的腳本一樣,只不過它是單線程的。適用于視頻文件。

最重要的,代碼倉庫中的frozen_inference_graph.pb包含了一個基于SSD訓(xùn)練好的模型,你能很容易地將它導(dǎo)入你的tensorflow應(yīng)用來檢測手部。

一些優(yōu)化的想法

顯著提升表現(xiàn)的因素:

線程:從攝像頭讀取圖像是一個負(fù)擔(dān)很重的I/O事件,如果在主應(yīng)用線程上運行它,可能會減慢程序。我實現(xiàn)了Adrian Rosebuck的一些在多個工作線程上并行捕捉圖像的好想法?;旧希@增加了約5 FPS。

新接觸OpenCV的人可能沒考慮到cv2.read()方法返回BGR格式的圖像。 確保在檢測之前將其轉(zhuǎn)換為RGB(否則的話,精確率會大大降低)。

保證你的輸入圖像使用較小的尺寸將增加fps,同時不會帶來任何顯著的精確率下降(我使用了約320×240的圖像,而不是我的攝像頭默認(rèn)提供的1280×720圖像)。

組合效果不錯的追蹤算法也能提升表現(xiàn),我仍在嘗試這方面的優(yōu)化。如果你有優(yōu)化的想法,歡迎分享!

有很多手的隨機圖片顯示了檢測器的一些局限

注意:檢測器確實反映了與訓(xùn)練集相關(guān)的一些限制。包括非第一人稱視角、非常嘈雜的背景(手山手海),有時甚至是膚色。使用更多的數(shù)據(jù)有機會改善這方面的表現(xiàn)。

集成多DNN

讓事情變得更有趣的一種方式是將我們對“手”的位置的新知識與經(jīng)訓(xùn)練用于識別其他物體的檢測器整合起來。不幸的是,雖然我們的手部檢測器確實可以檢測到手部,但它不能檢測到其他物體。 要創(chuàng)建一個可以分類多個不同對象的檢測器,意味著要為每個類預(yù)備一個數(shù)據(jù)集并進(jìn)行訓(xùn)練,這一過程將十分漫長。

因此,一個潛在的替代策略是探索允許我們高效地交錯用于多種物體的多個預(yù)訓(xùn)練模型的結(jié)構(gòu),并讓它們檢測單個圖像上的多個物體。

舉例來說,我有興趣了解桌子上的物體相對于同一張桌子上的手的位置。我目前正在研發(fā)一個多線程應(yīng)用,該應(yīng)用加載多個檢測器,在一張圖像上輸出多個包圍盒。很快我會在后續(xù)的文章中介紹這方面的內(nèi)容。

致謝

這個成果對我而言也是一次緊張的學(xué)習(xí)Python和Tensorflow的周末課程。沒有Egohands數(shù)據(jù)集的話,這一切都是不可能的,非常感謝作者們![Harrison][pythongramming]和Dat Tran的tensorflow自定義對象檢測教程對這個學(xué)習(xí)過程極有幫助。當(dāng)然,非常感謝Tensorflow的作者們!它是一個很棒的框架!

引用本教程

如果你打算引用本教程:

Victor Dibia, Real-time Hand-Detection using Neural Networks (SSD) on Tensorflow, (2017), GitHub repository。


@misc{Dibia2017,

author = {Victor, Dibia},

title = {Real-time HandTrackingUsing SSD on Tensorflow },

year = {2017},

publisher = {GitHub},

journal = {GitHub repository},

howpublished = {url{https://github.com/victordibia/handtracking}},

commit = {b523a27393ea1ee34f31451fad656849915c8f42}

}

歡迎通過Twitter、Github和Linkedin與作者交流。

參考文獻(xiàn)

Bambach, S., Lee, S., Crandall, D. J., and Yu, C. 2015.“Lending A Hand: Detecting Hands and Recognizing Activities in Complex Egocentric Interactions,”in ICCV, pp. 1949–1957

Erol, A., Bebis, G., Nicolescu, M., Boyle, R. D., and Twombly, X. 2007. “Vision-based hand pose estimation: A review,” Computer Vision and Image Understanding (108:1–2), pp. 52–73 (doi: 10.1016/j.cviu.2006.10.012).

Liu, W., Anguelov, D., Erhan, D., Szegedy, C., Reed, S., Fu, C. Y., and Berg, A. C. 2016. “SSD: Single shot multibox detector,” in European conference on computer vision (Vol. 9905 LNCS), Springer Cham, pp. 21–37 (doi: 10.1007/978-3-319-46448-0_2).

Betancourt, A., Morerio, P., Regazzoni, C. S., and Rauterberg, M. 2015. “The Evolution of First Person Vision Methods: A Survey,” IEEE Transactions on Circuits and Systems for Video Technology (25:5), pp. 744–760 (doi: 10.1109/TCSVT.2015.2409731)

GitHub地址:https://github.com/victordibia/handtracking

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107745
  • SSD
    SSD
    +關(guān)注

    關(guān)注

    21

    文章

    3109

    瀏覽量

    122221
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    334

    瀏覽量

    62172

原文標(biāo)題:基于SSD神經(jīng)網(wǎng)絡(luò)實時檢測手部

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大
    的頭像 發(fā)表于 12-17 15:05 ?323次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時的梯度耗散問題。當(dāng)x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    通過實踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議,這些建議將會在構(gòu)建高準(zhǔn)確率輕量級CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-28 08:02

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)模型 model = models.Sequential()model.add(layers.Conv2D(input_shape=(28, 28, 1), filters=4
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1197次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經(jīng)形態(tài)計算、類腦芯片

    AI芯片不僅包括深度學(xué)細(xì)AI加速器,還有另外一個主要列別:類腦芯片。類腦芯片是模擬人腦神經(jīng)網(wǎng)絡(luò)架構(gòu)的芯片。它結(jié)合微電子技術(shù)和新型神經(jīng)形態(tài)器件,模仿人腦神經(jīng)系統(tǒng)機選原理進(jìn)行設(shè)計,實現(xiàn)類似
    發(fā)表于 09-17 16:43

    神經(jīng)網(wǎng)絡(luò)的并行計算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓(xùn)練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1122次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計算與加速技術(shù)

    無刷電機小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機轉(zhuǎn)速估計中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1194次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    NVIDIA實現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開
    的頭像 發(fā)表于 04-07 11:33 ?1163次閱讀

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計數(shù)據(jù)怎么查看?

    無法觀察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計數(shù)據(jù)
    發(fā)表于 03-06 07:10