91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)中動(dòng)作識(shí)別網(wǎng)絡(luò)學(xué)習(xí)

英特爾物聯(lián)網(wǎng) ? 來(lái)源:英特爾物聯(lián)網(wǎng) ? 作者:英特爾物聯(lián)網(wǎng) ? 2021-06-25 10:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

動(dòng)作識(shí)別網(wǎng)絡(luò)

深度學(xué)習(xí)在人體動(dòng)作識(shí)別領(lǐng)域有兩類(lèi)主要的網(wǎng)絡(luò),一類(lèi)是基于姿態(tài)評(píng)估,基于關(guān)鍵點(diǎn)實(shí)現(xiàn)的動(dòng)作識(shí)別網(wǎng)絡(luò);另外一類(lèi)是直接預(yù)測(cè)的動(dòng)作識(shí)別網(wǎng)絡(luò)。關(guān)于姿態(tài)評(píng)估相關(guān)的網(wǎng)絡(luò)模型應(yīng)用,我們?cè)谇懊娴奈恼轮幸呀?jīng)介紹過(guò)了。OpenVINO2021.2版本中支持的動(dòng)作識(shí)別網(wǎng)絡(luò)都不是基于關(guān)鍵點(diǎn)輸出的,而是基于Box直接預(yù)測(cè),當(dāng)前支持動(dòng)作識(shí)別的預(yù)訓(xùn)練模型與識(shí)別的動(dòng)作數(shù)目支持列表如下:

12dd20c8-d50f-11eb-9e57-12bb97331649.png

表-1

這些網(wǎng)絡(luò)的輸出都是基于SSD檢測(cè)頭實(shí)現(xiàn)對(duì)象檢測(cè)與動(dòng)作預(yù)測(cè)。

輸入與輸出格式

以person-detection-action-recognition-0005模型為例說(shuō)明它們的輸入與輸出數(shù)據(jù)格式支持,我也不知道什么原因(個(gè)人猜測(cè)因?yàn)镃affe框架的原因),網(wǎng)絡(luò)的輸出居然都是SSD原始檢測(cè)頭,怎么解析,我有妙招,稍后送上!先看一下輸入與輸出格式說(shuō)明:

輸入格式:

格式 NCHW=[1x3x400x680] ,Netron實(shí)際查看:

注意:OpenVINO2021.2安裝之后的文檔上格式說(shuō)明是NHWC

輸出格式:

輸出有七個(gè)分支頭的數(shù)據(jù),它們的名稱(chēng)跟維度格式列表如下:

12f04c16-d50f-11eb-9e57-12bb97331649.png

表-2

關(guān)于輸出格式的解釋?zhuān)紫仁莕um_priors值是多少,骨干網(wǎng)絡(luò)到SSD輸出頭,是實(shí)現(xiàn)了16倍的降采樣,最終輸出的h x w=25x43然后每個(gè)特征點(diǎn)預(yù)測(cè)4個(gè)PriorBox, 每個(gè)特征點(diǎn)預(yù)測(cè)動(dòng)作,總計(jì)有三類(lèi)的動(dòng)作,所以動(dòng)作預(yù)測(cè)輸出為: [b, 3, h, w] = [1x3x25x43],總計(jì)PriorBoxes數(shù)目為:num_priors=25x43x4=4300,這些都是SSD檢測(cè)頭的原始輸出,沒(méi)有非最大抑制,沒(méi)有經(jīng)過(guò)轉(zhuǎn)換處理,所以想直接解析它們對(duì)開(kāi)發(fā)應(yīng)用的人來(lái)說(shuō)是一個(gè)大麻煩!

輸出數(shù)據(jù)解析與處理問(wèn)題

person-detection-action-recognition-0005網(wǎng)絡(luò)推理之后的輸出數(shù)據(jù)解析跟后處理特別的復(fù)雜,怎么解析原始輸出頭是個(gè)技術(shù)活,我從示例代碼中提取跟整理出來(lái)兩個(gè)C++文件,它們是:

action_detector.h

cnn.h

以及它們的實(shí)現(xiàn)文件:

action_detector.cpp

cnn.cpp

這個(gè)其中最重要的就是有個(gè)ActionDetection類(lèi),它有幾個(gè)方法,分別是:

void enqueue(const cv::Mat &frame)

void submitRequest()

void wait()

DetectedActions fetchResults()

這幾個(gè)方法的解釋分別如下:

enqueue方法的就是實(shí)現(xiàn)了推理請(qǐng)求創(chuàng)建與圖像數(shù)據(jù)的輸入設(shè)置,它的代碼實(shí)現(xiàn)如下:

if (!request) {

request = net_.CreateInferRequestPtr();

}

width_ = static_cast《float》(frame.cols);

height_ = static_cast《float》(frame.rows);

Blob::Ptr inputBlob = request-》GetBlob(input_name_);

matU8ToBlob《uint8_t》(frame, inputBlob);

enqueued_frames_ = 1;

submitRequest方法,就是執(zhí)行推理,支持同步與異步推理執(zhí)行模型,它的代碼實(shí)現(xiàn)如下:

if (request == nullptr) return;

if (isAsync) {

request-》StartAsync();

}

else {

request-》Infer();

}

wait方法,當(dāng)同步推理時(shí)候無(wú)需調(diào)用,異步推理調(diào)用

fetchResults方法,該方法是推理過(guò)程中最復(fù)雜的部分,負(fù)責(zé)解析輸出的七個(gè)分支數(shù)據(jù),生成Box與action標(biāo)簽預(yù)測(cè)。簡(jiǎn)單的說(shuō)它的執(zhí)行過(guò)程是這樣,首先獲取輸出的七個(gè)輸出數(shù)據(jù),然后轉(zhuǎn)換為基于Mat的數(shù)據(jù),然后循環(huán)每個(gè)特征圖的特征點(diǎn)預(yù)測(cè)Box與置信得分,大于閾值的置信得分對(duì)應(yīng)的預(yù)測(cè)Box與PriorBox計(jì)算真實(shí)的BOX坐標(biāo),同時(shí)閾值化處理Action的置信得分,最終對(duì)結(jié)果完整非最大抑制之后輸出,得到數(shù)據(jù)結(jié)構(gòu)為:

struct DetectedAction {

/** @brief BBox of detection */

cv::Rect rect;

/** @brief Action label */

int label;

/** @brief Confidence of detection */

float detection_conf;

/** @brief Confidence of predicted action */

float action_conf;

這樣就完成了對(duì)輸出的數(shù)據(jù)解析。

這個(gè)就是上述四個(gè)相關(guān)依賴(lài)文件,我已經(jīng)把其他不相關(guān)的或者非必要的依賴(lài)全部去掉,基于這四個(gè)相關(guān)文件,就可以實(shí)現(xiàn)對(duì)表-1中動(dòng)作識(shí)別模型的推理與解析輸出顯示。

動(dòng)作識(shí)別代碼演示

動(dòng)作識(shí)別代碼演示基于person-detection-action-recognition-0005網(wǎng)絡(luò)模型完成,該模型是基于室內(nèi)場(chǎng)景數(shù)據(jù)訓(xùn)練生成的,適合于教育智慧教室應(yīng)用場(chǎng)景。首先需要初始化動(dòng)作檢測(cè)類(lèi)與初始化推理引擎加載,然后配置動(dòng)作檢測(cè)類(lèi)的相關(guān)參數(shù),這些參數(shù)主要包括以下:

- 模型的權(quán)重文件路徑

- 推理引擎的計(jì)算設(shè)備支持

- 對(duì)象檢測(cè)閾值

- 動(dòng)作預(yù)測(cè)閾值

- 支持動(dòng)作類(lèi)別數(shù)目

- 是否支持異步推理

等等。

配置完成之后設(shè)置與初始化ActionDetection類(lèi),然后就可以直接調(diào)用上述提到幾個(gè)類(lèi)方法完成整個(gè)推理與輸出,根據(jù)輸出結(jié)果繪制與顯示即可,這部分的代碼如下:

cv::Mat frame = cv::imread(“D:/action_001.png”);

InferenceEngine::Core ie;

std::unique_ptr《AsyncDetection《DetectedAction》》 action_detector;

// Load action detector

ActionDetectorConfig action_config(model_xml);

action_config.deviceName = “CPU”;

action_config.ie = ie;

action_config.is_async = false;

action_config.detection_confidence_threshold = 0.1f;

action_config.action_confidence_threshold = 0.1f;

action_config.num_action_classes = 3;

action_detector.reset(new ActionDetection(action_config));

action_detector-》enqueue(frame);

action_detector-》submitRequest();

DetectedActions actions = action_detector-》fetchResults();

std::cout 《《 actions.size() 《《 std::endl;

for (int i = 0; i 《 actions.size(); i++) {

std::cout 《《 actions[i].rect 《《 std::endl;

std::cout 《《 actions[i].label 《《 std::endl;

cv::rectangle(frame, actions[i].rect, cv::Scalar(0, 0, 255), 2, 8, 0);

putText(frame, action_text_labels[actions[i].label], actions[i].rect.tl(), cv::FONT_HERSHEY_SIMPLEX, 0.75, cv::Scalar(0, 0, 255), 2, 8);

}

cv::imshow(“動(dòng)作識(shí)別演示”, frame);

cv::waitKey(0);

return 0;

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:OpenVINO? 室內(nèi)動(dòng)作識(shí)別

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?206次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺(jué)深度學(xué)習(xí)

    ,能適用惡劣工況,在粉塵、高溫、氧化皮等惡劣環(huán)境均可正常工作。 測(cè)量原理 利用頂頭與周?chē)奈镔|(zhì)(水、空氣、導(dǎo)盤(pán)等)紅外輻射能量的差異,用熱成像相機(jī)拍攝出清晰的圖片,再通過(guò)深度學(xué)習(xí)短時(shí)間內(nèi)深度
    發(fā)表于 12-22 14:33

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    檢測(cè)應(yīng)用 微細(xì)缺陷識(shí)別:檢測(cè)肉眼難以發(fā)現(xiàn)的微小缺陷和異常 紋理分析:對(duì)材料表面紋理進(jìn)行智能分析和缺陷識(shí)別 3D表面重建:通過(guò)深度學(xué)習(xí)進(jìn)行高精度3D建模和檢測(cè) 電子行業(yè)應(yīng)用 PCB板復(fù)雜
    的頭像 發(fā)表于 11-27 10:19 ?230次閱讀

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 17:38 ?911次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過(guò)模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1038次閱讀

    自動(dòng)駕駛Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話(huà)交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話(huà)題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4195次閱讀
    自動(dòng)駕駛<b class='flag-5'>中</b>Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    FPGA在機(jī)器學(xué)習(xí)的具體應(yīng)用

    ,越來(lái)越多地被應(yīng)用于機(jī)器學(xué)習(xí)任務(wù)。本文將探討 FPGA 在機(jī)器學(xué)習(xí)的應(yīng)用,特別是在加速神經(jīng)網(wǎng)絡(luò)推理、優(yōu)化算法和提升處理效率方面的優(yōu)勢(shì)。
    的頭像 發(fā)表于 07-16 15:34 ?2907次閱讀

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    多層神經(jīng)網(wǎng)絡(luò)的非線(xiàn)性變換擬合規(guī)律,理論上幾乎可以描述和模擬一切規(guī)律,但實(shí)際上該過(guò)程效率極低 —— 其計(jì)算復(fù)雜度往往呈指數(shù)級(jí)增長(zhǎng)。這一特性使得深度學(xué)習(xí)與端側(cè)設(shè)備的資源約束存在根本性矛盾,導(dǎo)致其在端側(cè) AI 實(shí)施過(guò)程
    發(fā)表于 07-14 14:50 ?1252次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1460次閱讀
    使用MATLAB進(jìn)行無(wú)監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    深度學(xué)習(xí)賦能:正面吊車(chē)載箱號(hào)識(shí)別系統(tǒng)的核心技術(shù)

    在現(xiàn)代物流與智慧港口建設(shè),集裝箱的高效精準(zhǔn)識(shí)別是提升作業(yè)效率的關(guān)鍵環(huán)節(jié)?;贠CR+AI深度學(xué)習(xí)技術(shù)的正面吊車(chē)載箱號(hào)識(shí)別系統(tǒng),憑借99%以
    的頭像 發(fā)表于 05-07 10:10 ?577次閱讀

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度
    的頭像 發(fā)表于 04-02 18:21 ?1525次閱讀

    廠(chǎng)家芯資訊|WTK6900系列語(yǔ)音識(shí)別芯片自學(xué)習(xí)功能深度答疑

    在智能硬件全面擁抱語(yǔ)音交互的時(shí)代,廣州唯創(chuàng)電子WTK6900系列芯片憑借其獨(dú)特的離線(xiàn)自學(xué)習(xí)能力,已成為智能家居、工業(yè)控制等領(lǐng)域的核心交互模塊。本文針對(duì)實(shí)際應(yīng)用的高頻問(wèn)題,深度解析故障排除方法與優(yōu)化
    的頭像 發(fā)表于 03-20 09:13 ?837次閱讀
    廠(chǎng)家芯資訊|WTK6900系列語(yǔ)音<b class='flag-5'>識(shí)別</b>芯片自<b class='flag-5'>學(xué)習(xí)</b>功能<b class='flag-5'>深度</b>答疑

    芯資訊|WTK6900系列語(yǔ)音識(shí)別芯片IC自學(xué)習(xí)功能解析

    在人工智能與物聯(lián)網(wǎng)技術(shù)深度融合的今天,離線(xiàn)語(yǔ)音識(shí)別技術(shù)憑借其隱私安全、即時(shí)響應(yīng)等優(yōu)勢(shì),正在智能家居、工業(yè)控制等領(lǐng)域快速普及。廣州唯創(chuàng)電子推出的WTK6900系列語(yǔ)音識(shí)別芯片,憑借其創(chuàng)新的離線(xiàn)命令詞
    的頭像 發(fā)表于 03-20 08:52 ?1010次閱讀
    芯資訊|WTK6900系列語(yǔ)音<b class='flag-5'>識(shí)別</b>芯片IC自<b class='flag-5'>學(xué)習(xí)</b>功能解析