91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何用OpenVINO?部署PP-StructureV3到Intel GPU上

jf_23871869 ? 來(lái)源:jf_23871869 ? 作者:jf_23871869 ? 2025-12-01 13:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一,RapidDoc系統(tǒng)概述

RapidDoc是一個(gè)輕量級(jí)、專(zhuān)注于文檔解析的開(kāi)源框架,支持OCR、版面分析、公式識(shí)別、表格識(shí)別和閱讀順序恢復(fù)等多種功能??蚣芑?Mineru 二次開(kāi)發(fā),移除 VLM,專(zhuān)注于 Pipeline 產(chǎn)線(xiàn)下的高效文檔解析,在 CPU 上也能保持不錯(cuò)的解析速度。本文章所使用的核心模型主要來(lái)源于 PaddleOCR 的 PP-StructureV3 系列(OCR、版面分析、公式識(shí)別、閱讀順序恢復(fù),以及部分表格識(shí)別模型),并已全部轉(zhuǎn)換為 ONNX 格式,支持在 CPU/GPU 上高效推理。

?

?

二,開(kāi)始部署

首先,在命令提示行執(zhí)行命令下載源文件。

git clone https://github.com/chrisma-2025/RapidDoc-OpenVINO

?

然后再執(zhí)行命令,安裝python依賴(lài)包

pip install torch torchvision --index-url https://download.pytorch.org/whl/cpu
pip install loguru pypdfium2 requests boto3 pydantic pypdf reportlab magika opencv-python tqdm omegaconf colorlog tokenizers rapidocr fast_langdetect scikit-image bs4 pdfminer pdfminer.six pdftext matplotlib
pip install onnxruntime-openvino onnxruntime
pip install --pre openvino --extra-index-url https://storage.openvinotoolkit.org/simple/wheels/nightly

?

下載OCR模型并使用指令將模型轉(zhuǎn)換為OpenVINO?支持的IR文件

cd RapidDoc-OpenVINO/models
wget https://www.modelscope.cn/models/RapidAI/RapidOCR/resolve/master/onnx/PP-OCRv5/det/ch_PP-OCRv5_server_det.onnx -P ocr
wget https://www.modelscope.cn/models/RapidAI/RapidOCR/resolve/master/onnx/PP-OCRv5/rec/ch_PP-OCRv5_rec_server_infer.onnx -P ocr
wget https://www.modelscope.cn/models/RapidAI/RapidOCR/resolve/master/onnx/PP-OCRv4/cls/ch_ppocr_mobile_v2.0_cls_infer.onnx -P ocr

下載完成后運(yùn)行:python ir_converter.py

?

三,運(yùn)行Demo

執(zhí)行命令返回文件根目

cd ..

Python demo.py

?

?視頻鏈接:https://blog.csdn.net/2401_83179994/article/details/154793207?spm=1011.2415.3001.10575&sharefrom=mp_manage_link

四,總結(jié)

本文完整演示了基于RapidDoc 框架的文檔解析工具落地流程:先克隆源碼、安裝 PyTorch/OpenVINO 等依賴(lài),再下載 PP-OCRv5 系列 ONNX 模型并嘗試轉(zhuǎn)換為 IR 文件,最后通過(guò)demo.py驗(yàn)證部署效果。

實(shí)際運(yùn)行中,Intel GPU(Arc A770、Iris Xe Graphics)可正常調(diào)用,穩(wěn)定完成多頁(yè)面文檔的 OCR、版面分析等任務(wù),此次部署既驗(yàn)證了 RapidDoc 框架在輕量化工單解析場(chǎng)景的實(shí)用性,也證實(shí)了 OpenVINO? 對(duì) Inte GPU 的適配性,為后續(xù)工業(yè)、金融等領(lǐng)域的文檔智能解析需求提供了可復(fù)用的技術(shù)方案。

如果你有更好的文章,歡迎投稿!

稿件接收郵箱:nami.liu@pasuntech.com

更多精彩內(nèi)容請(qǐng)關(guān)注“算力魔方?”!

?審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • intel
    +關(guān)注

    關(guān)注

    19

    文章

    3508

    瀏覽量

    191263
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    118

    瀏覽量

    767
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Intel OpenVINO? Day0 實(shí)現(xiàn)阿里通義 Qwen3 快速部署

    本文將以 Qwen3-8B 為例,介紹如何利用 OpenVINO 的 Python API 在英特爾平臺(tái)(GPU, NPU)Qwen3 系列模型。
    的頭像 發(fā)表于 05-11 11:36 ?1710次閱讀
    <b class='flag-5'>Intel</b> <b class='flag-5'>OpenVINO</b>? Day0 實(shí)現(xiàn)阿里通義 Qwen<b class='flag-5'>3</b> 快速<b class='flag-5'>部署</b>

    基于C#和OpenVINO?在英特爾獨(dú)立顯卡上部署PP-TinyPose模型

    OpenVINO,將 PP-TinyPose 模型部署在英特爾獨(dú)立顯卡。 1.1 PP-TinyPose 模型簡(jiǎn)介
    的頭像 發(fā)表于 11-18 18:27 ?3683次閱讀

    如何使用OpenVINO C++ API部署FastSAM模型

    FastSAM 模型 | 開(kāi)發(fā)者實(shí)戰(zhàn)》,在該文章中我們向大家展示了基于 OpenVINO Python API 的基本部署流程。在實(shí)際部署過(guò)程中會(huì)考慮由效率問(wèn)題,使得我們可能更傾向
    的頭像 發(fā)表于 11-17 09:53 ?1833次閱讀
    如何使用<b class='flag-5'>OpenVINO</b> C++ API<b class='flag-5'>部署</b>FastSAM模型

    使用OpenVINO C# API輕松部署飛槳PP-OCRv4模型

    ?本文從零開(kāi)始詳細(xì)介紹整個(gè)過(guò)程。 一,什么是PP-OCRv4模型? ? PP-OCRv4是 PaddleOCR工具庫(kù) 的PP-OCR系列模型中,當(dāng)前性能最優(yōu)的一個(gè)。它在前代模型(PP-OCRv
    的頭像 發(fā)表于 02-12 10:42 ?2309次閱讀
    使用<b class='flag-5'>OpenVINO</b> C# API輕松<b class='flag-5'>部署</b>飛槳<b class='flag-5'>PP</b>-OCRv4模型

    用ROCm部署PP-StructureV3AMD GPU

    作者:AVNET 李鑫杰 我們?cè)谏弦黄恼轮薪榻B了ROCm+PP-OCRv5,為實(shí)現(xiàn)在AMD計(jì)算平臺(tái)上完成復(fù)雜文檔的端端智能解析,本文基于ROCm軟件棧,提供一套完整的PP-StructureV3
    的頭像 發(fā)表于 11-13 16:56 ?5531次閱讀
    用ROCm<b class='flag-5'>部署</b><b class='flag-5'>PP-StructureV3</b><b class='flag-5'>到</b>AMD <b class='flag-5'>GPU</b><b class='flag-5'>上</b>

    OpenVINO?檢測(cè)到GPU,但網(wǎng)絡(luò)無(wú)法加載到GPU插件,為什么?

    OpenVINO?安裝在舊的 Windows 10 版本 Windows? 10 (RS1) 。 已安裝 GPU 驅(qū)動(dòng)程序版本 25.20.100.6373,檢測(cè)到 GPU,但網(wǎng)絡(luò)
    發(fā)表于 03-05 06:01

    是否可以使用OpenVINO?部署管理器在部署機(jī)器運(yùn)行Python應(yīng)用程序?

    使用 OpenVINO?部署管理器創(chuàng)建運(yùn)行時(shí)軟件包。 將運(yùn)行時(shí)包轉(zhuǎn)移到部署機(jī)器中。 無(wú)法確定是否可以在部署機(jī)器運(yùn)行 Python 應(yīng)用程
    發(fā)表于 03-05 08:16

    如何部署OpenVINO?工具套件應(yīng)用程序?

    編寫(xiě)代碼并測(cè)試 OpenVINO? 工具套件應(yīng)用程序后,必須將應(yīng)用程序安裝或部署生產(chǎn)環(huán)境中的目標(biāo)設(shè)備。 OpenVINO?部署管理器指南包
    發(fā)表于 03-06 08:23

    無(wú)法在GPU運(yùn)行ONNX模型的Benchmark_app怎么解決?

    在 CPU 和 GPU 運(yùn)行OpenVINO? 2023.0 Benchmark_app推斷的 ONNX 模型。 在 CPU 推理成功,但在
    發(fā)表于 03-06 08:02

    為什么無(wú)法在GPU使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4 和 int8,并在 GPU
    發(fā)表于 06-23 07:11

    無(wú)法使用OpenVINO?在 GPU 設(shè)備運(yùn)行穩(wěn)定擴(kuò)散文本圖像的原因?

    OpenVINO? GPU 設(shè)備使用圖像大小 (1024X576) 運(yùn)行穩(wěn)定擴(kuò)散文本圖像,并收到錯(cuò)誤消息: RuntimeError: Exception from
    發(fā)表于 06-25 06:36

    【大聯(lián)大世平Intel?神經(jīng)計(jì)算棒NCS2試用申請(qǐng)】在樹(shù)莓派上聯(lián)合調(diào)試Intel?神經(jīng)計(jì)算棒NCS2部署OpenVINO

    項(xiàng)目名稱(chēng):在樹(shù)莓派上聯(lián)合調(diào)試Intel?神經(jīng)計(jì)算棒NCS2部署OpenVINO試用計(jì)劃:1, 我是樹(shù)莓派資深開(kāi)發(fā)者,有好幾個(gè)樹(shù)莓派,2,精通Ubuntu 16.04.3 LTS(64位
    發(fā)表于 06-30 16:06

    GPUOpenVINO基準(zhǔn)測(cè)試的推斷模型的默認(rèn)參數(shù)與CPU的參數(shù)不同是為什么?

    在 CPU 和 GPU 推斷出具有 OpenVINO? 基準(zhǔn)的相同模型: benchmark_app.exe -m model.xml -d CPU benchmark_app.exe -m
    發(fā)表于 08-15 06:43

    使用OpenVINO? 部署PaddleSeg模型庫(kù)中的DeepLabV3+模型

    下的DeepLabV3+路面語(yǔ)義分割模型轉(zhuǎn)換為OpenVINO ? 工具套件的IR模型并且部署CPU。 ? 為了使本文擁有更廣的受眾面,
    的頭像 發(fā)表于 11-22 14:58 ?1.1w次閱讀
    使用<b class='flag-5'>OpenVINO</b>? <b class='flag-5'>部署</b>PaddleSeg模型庫(kù)中的DeepLabV<b class='flag-5'>3</b>+模型

    使用OpenVINO Model Server在哪吒開(kāi)發(fā)板上部署模型

    OpenVINO Model Server(OVMS)是一個(gè)高性能的模型部署系統(tǒng),使用C++實(shí)現(xiàn),并在Intel架構(gòu)部署進(jìn)行了優(yōu)化,使用
    的頭像 發(fā)表于 11-01 14:19 ?1274次閱讀
    使用<b class='flag-5'>OpenVINO</b> Model Server在哪吒開(kāi)發(fā)板上<b class='flag-5'>部署</b>模型