91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenVINO2021.4版本中場(chǎng)景文字檢測(cè)與識(shí)別模型的推理使用

英特爾物聯(lián)網(wǎng) ? 來(lái)源:英特爾物聯(lián)網(wǎng) ? 作者: 賈志剛 ? 2021-08-26 15:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

場(chǎng)景文字檢測(cè)與識(shí)別模型

OpenVINO2021.4支持場(chǎng)景文字檢測(cè)是基于MobileNetV2的PixelLink模型,模型有兩個(gè)分別是text-detection-0003與text-detection-0004。以text-detection-0003模型為例它有兩個(gè)輸出,分別是分割輸出與bounding Boxes輸出

下面是基于VGG16作為backbone實(shí)現(xiàn)的PixelLink的模型。

最終得到輸出text/notext的mask區(qū)域,對(duì)mask區(qū)域簡(jiǎn)單處理之后就會(huì)得到每個(gè)場(chǎng)景文字區(qū)域的ROI。關(guān)于后處理,再后續(xù)的會(huì)有詳細(xì)代碼演示。OpenVINO2021.4不僅支持場(chǎng)景文字的檢測(cè)還支持場(chǎng)景文字的識(shí)別,支持場(chǎng)景文字識(shí)別的模型是基于VGG16+雙向LSTM,識(shí)別0~9與26個(gè)字符加空白,并且非大小寫(xiě)敏感!

模型輸入與輸出格式

PixelLink場(chǎng)景文字檢測(cè)模型的輸入與輸出格式如下:

輸入格式:1x3x768x1280 BGR彩色圖像

輸出格式:

name: “model/link_logits_/add”, [1x16x192x320] – pixelLink的輸出

name: “model/segm_logits/add”, [1x2x192x320] – 像素分類(lèi)text/no text

圖-3文本識(shí)別模型的輸入與輸出格式如下:

輸入格式:1x1x32x120

輸出格式:30, 1, 37

輸出解釋是基于CTC貪心解析方式。

其中37字符集長(zhǎng)度,字符集為:

0123456789abcdefghijklmnopqrstuvwxyz#

#表示空白。

同步與異步推理

在OpenVINO的IE推理模塊相關(guān)SDK支持同步與異步推理模型,同步的意思是阻塞直到返回結(jié)果, 異步就是調(diào)用推理之后直接返回,接受到處理完成通知之后再解析輸出,相比同步方式,異步推理更加適合視頻流多路推理的方式。異步推理的執(zhí)行方式大致如下:

// start the async infer request (puts the request to the queue and immediately returns)

async_infer_request-》StartAsync();

// here you can continue execution on the host until results of the current request are really needed

//。。。

async_infer_request.Wait(IInferRequest::RESULT_READY);

auto output = async_infer_request.GetBlob(output_name);

場(chǎng)景文字檢測(cè)代碼演示

OpenVINO2021.4中場(chǎng)景文字檢測(cè)的,以text-detection-0003為例。加載模型文件與獲取推理請(qǐng)求等與之前的保持一致,無(wú)需再說(shuō),這里主要是PixelLink模型的輸出解析部分,它的解析部分代碼如下:

cv::Mat mask = cv::Size(out_w, out_h), CV_8U);

int step = out_h*out_w;

for (int row = 0; row 《 out_h; row++) {

for (int col = 0; col 《 out_w; col++) {

float p1 = detection_out[row*out_w + col];

float p2 = detection_out[step + row*out_w + col]; // text

if (p2》1.0) {

mask.at《uchar》(row, col) = 255;

}

}

}

cv::resize(mask, mask, cv::Size(im_w, im_h));

std::vector《std::vector《cv::Point》》 contours;

cv::findContours(mask, contours, cv::RETR_EXTERNAL, cv::CHAIN_APPROX_SIMPLE);

對(duì)輸出的Mask數(shù)據(jù),完成text與非text的分類(lèi),得到二值圖象,然后對(duì)二值圖象完成輪廓發(fā)現(xiàn),根據(jù)輪廓發(fā)現(xiàn)的的結(jié)果輸出最大/最小外接矩形,得到每個(gè)Text區(qū)域的檢測(cè)結(jié)果,最終模型的運(yùn)行結(jié)果如下:

場(chǎng)景文字識(shí)別代碼演示

場(chǎng)景文字識(shí)別是基于場(chǎng)景文字檢測(cè)模型輸出得到的TEXT區(qū)域作為輸入,基于灰度圖象預(yù)測(cè)輸出,使用text-recognition-0012模型。關(guān)于模型加載、輸入與輸出設(shè)置同樣不再贅述,檢測(cè)得到TEXT的ROI作為輸入,推理與預(yù)測(cè)文字及顯示的代碼如下:

auto reco_output = reco_request.GetBlob(reco_output_name);

const float* blob_out = static_cast《PrecisionTrait《Precision::FP32》::value_type*》(reco_output-》buffer());

const SizeVector reco_dims = reco_output-》getTensorDesc().getDims();

const int RW = reco_dims[0];

const int RB = reco_dims[1];

const int RL = reco_dims[2];

std::string ocr_txt = ctc_decode(blob_out, RW, RL);

std::cout 《《 ocr_txt 《《 std::endl;

cv::putText(src, ocr_txt, box.tl(), cv::FONT_HERSHEY_PLAIN, 1.0, cv::Scalar(255, 0, 0), 1);

其中RWxRBxRL=30x1x37,CTC解析的函數(shù)ctc_decode實(shí)現(xiàn)代碼如下:

std::string ctc_decode(const float* blob_out, int seq_w, int seq_l) {

printf(“seq width: %d, seq length: %d ”, seq_w, seq_l);

std::string res = “”;

bool prev_pad = false;

const int num_classes = alphabet.length();

int seq_len = seq_w*seq_l;

for (int i = 0; i 《 seq_w; i++) {

int argmax = 0;

int max_prob = blob_out[i*seq_l];

for (int j = 0; j 《num_classes; j++) {

if (blob_out[i*seq_l + j] 》 max_prob) {

max_prob = blob_out[i*seq_l + j];

argmax = j;

}

}

auto symbol = alphabet[argmax];

if (symbol == ‘#’) {

prev_pad = true;

}

else {

if (res.empty() || prev_pad || (!res.empty() && symbol != res.back())) {

prev_pad = false;

res += symbol;

}

}

}

return res;

}

解析過(guò)程就是對(duì)得到二維矩陣30x37,按行先做argmax,然后再去掉重復(fù),最終得到預(yù)測(cè)生成的text文本返回。

總結(jié)

本文主要講述了OpenVINO2021.4版本中場(chǎng)景文字檢測(cè)與識(shí)別模型的推理使用,以及同步與異步推理的的基本概念。特別值得注意的是場(chǎng)景文字識(shí)別模型是基于灰度圖象不是RGB彩色圖象,如果搞錯(cuò)這點(diǎn)就會(huì)得到錯(cuò)誤的文本預(yù)測(cè)結(jié)果。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    831

    瀏覽量

    61985
  • 識(shí)別
    +關(guān)注

    關(guān)注

    3

    文章

    175

    瀏覽量

    32601
  • vgg
    vgg
    +關(guān)注

    關(guān)注

    1

    文章

    11

    瀏覽量

    5455
  • LSTM
    +關(guān)注

    關(guān)注

    0

    文章

    63

    瀏覽量

    4385

原文標(biāo)題:OpenVINO? 場(chǎng)景文字識(shí)別與同步與異步推理

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    LLM推理模型是如何推理的?

    這篇文章《(How)DoReasoningModelsReason?》對(duì)當(dāng)前大型推理模型(LRM)進(jìn)行了深刻的剖析,超越了表面的性能宣傳,直指其技術(shù)本質(zhì)和核心局限。以下是基于原文的詳細(xì)技術(shù)原理、關(guān)鍵
    的頭像 發(fā)表于 01-19 15:33 ?513次閱讀
    LLM<b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    瑞芯微(EASY EAI)RV1126B OCR文字識(shí)別

    1.OCR文字識(shí)別簡(jiǎn)介文字識(shí)別也是圖像領(lǐng)域一個(gè)常見(jiàn)問(wèn)題。然而,對(duì)于自然場(chǎng)景圖像,首先要定位圖像中的文字
    的頭像 發(fā)表于 01-12 10:19 ?5830次閱讀
    瑞芯微(EASY EAI)RV1126B OCR<b class='flag-5'>文字</b><b class='flag-5'>識(shí)別</b>

    如何精準(zhǔn)驅(qū)動(dòng)菜品識(shí)別模型--基于米爾瑞芯微RK3576邊緣計(jì)算盒

    的NPU算力: 1. 目標(biāo)檢測(cè): 當(dāng)一張圖片或視頻幀輸入后,首先由 YOLOv11s模型進(jìn)行推理。它的任務(wù)是精準(zhǔn)定位圖片中菜品所在的位置,并輸出其邊界框,為后續(xù)處理劃定了關(guān)鍵區(qū)域。 2. 特征提?。?系統(tǒng)將
    發(fā)表于 10-31 21:19

    迅為RK3568開(kāi)發(fā)板模型推理測(cè)試實(shí)戰(zhàn)LPRNet?車(chē)牌識(shí)別

    迅為RK3568開(kāi)發(fā)板模型推理測(cè)試實(shí)戰(zhàn)LPRNet 車(chē)牌識(shí)別
    的頭像 發(fā)表于 08-25 14:55 ?1325次閱讀
    迅為RK3568開(kāi)發(fā)板<b class='flag-5'>模型</b><b class='flag-5'>推理</b>測(cè)試實(shí)戰(zhàn)LPRNet?車(chē)牌<b class='flag-5'>識(shí)別</b>

    【EASY EAI Orin Nano開(kāi)發(fā)板試用體驗(yàn)】PP-OCRV5文字識(shí)別實(shí)例搭建與移植

    參數(shù)中填上dec模型的路徑,在第三個(gè)參數(shù)中填上rec模型的路徑,在第四個(gè)參數(shù)中填上需要進(jìn)行文字識(shí)別的源圖片: 看看效果: RK3588s開(kāi)發(fā)板上面成功運(yùn)行,但是RK3576開(kāi)發(fā)板
    發(fā)表于 08-18 16:57

    無(wú)法在NPU上推理OpenVINO?優(yōu)化的 TinyLlama 模型怎么解決?

    在 NPU 上推斷 OpenVINO?優(yōu)化的 TinyLlama 模型。 遇到的錯(cuò)誤: get_shape was called on a descriptor::Tensor with dynamic shape
    發(fā)表于 07-11 06:58

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型推理過(guò)程對(duì)顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來(lái)了挑戰(zhàn)。為了解決這一問(wèn)題,本文將探討大模型
    發(fā)表于 07-03 19:43

    無(wú)法將Tensorflow Lite模型轉(zhuǎn)換為OpenVINO?格式怎么處理?

    將 Tensorflow Lite 模型轉(zhuǎn)換為 OpenVINO? 格式。 遇到的錯(cuò)誤: FrontEnd API failed with OpConversionFailure:No translator found for TFLite_Detection_PostP
    發(fā)表于 06-25 08:27

    使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無(wú)符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    使用Openvino? GenAI運(yùn)行Sdxl Turbo模型時(shí)遇到錯(cuò)誤怎么解決?

    使用 OpenVINO? GenAI 運(yùn)行 SDXL Turbo 模型。 遇到的錯(cuò)誤: RuntimeError :- Check ov_tokenizer || ov_detokenizer Neither tokenizer nor detokenizer model
    發(fā)表于 06-24 06:38

    為什么無(wú)法在GPU上使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4 和 int8,并在 GPU 上使用 Ope
    發(fā)表于 06-23 07:11

    基于LockAI視覺(jué)識(shí)別模塊:C++目標(biāo)檢測(cè)

    快速部署高性能的目標(biāo)檢測(cè)應(yīng)用。 特點(diǎn): 高性能:優(yōu)化了推理速度,在保持高精度的同時(shí)實(shí)現(xiàn)了快速響應(yīng)。 靈活性:支持多種預(yù)訓(xùn)練模型,可以根據(jù)具體需求選擇合適的模型架構(gòu)。 易于集成:提供 C
    發(fā)表于 06-06 14:43

    英特爾OpenVINO 2025.1版本發(fā)布

    挑戰(zhàn)。在此次版本中,我們重點(diǎn)增強(qiáng)了新模型的覆蓋和實(shí)際應(yīng)用場(chǎng)景的支持,同時(shí)在性能優(yōu)化上也進(jìn)行了深度打磨,幫助你的 AI 解決方案運(yùn)行得更快、更高效。
    的頭像 發(fā)表于 04-29 09:27 ?1147次閱讀

    如何在Ollama中使用OpenVINO后端

    Ollama 和 OpenVINO 的結(jié)合為大型語(yǔ)言模型(LLM)的管理和推理提供了強(qiáng)大的雙引擎驅(qū)動(dòng)。Ollama 提供了極簡(jiǎn)的模型管理工具鏈,而
    的頭像 發(fā)表于 04-14 10:22 ?1561次閱讀

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】RKNN 推理測(cè)試與圖像識(shí)別

    RKNN 驗(yàn)證安裝效果。 Conda 安裝 推薦使用 Conda 創(chuàng)建 python 虛擬環(huán)境,便于在各種應(yīng)用場(chǎng)景下靈活切換,避免出現(xiàn)版本兼容問(wèn)題導(dǎo)致無(wú)法運(yùn)行。 在 AI 模型的訓(xùn)練、
    發(fā)表于 03-20 16:14