91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

RK3576平臺RKNN模型部署實操(上)

觸覺智能 ? 2026-02-10 13:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文介紹瑞芯微原廠RKNN端側模型的開發(fā)環(huán)境搭建方法,后續(xù)還將帶來詳細測試方法。基于觸覺智能RK3576開發(fā)板Purple Pi OH2演示。

RKNN

RKNN(Rockchip Neural Network) 是瑞芯微專為自家 NPU (神經(jīng)網(wǎng)絡處理單元) 開發(fā)的端側神經(jīng)網(wǎng)絡計算框架,提供完整的 "模型轉換 - 部署 - 推理" 解決方案。RK官方提供了RKNN軟件??梢詭椭脩艨焖俚貙?a href="http://www.makelele.cn/tags/ai/" target="_blank">AI模型部署到Rockchip芯片,整體的框架如下。

wKgZO2mKxn2AS_YjAACrNKk394491.jpeg

RKNN-Toolkit2是為用戶提供在計算機上進行模型轉換、推理和性能評估的開發(fā)套件,RKNN-Toolkit2的主要框圖如下。為了使用RKNPU,用戶需要首先在計算機上運行RKNN-Toolkit2工具,將訓練好的模型轉換為RKNN格式模型,之后使用RKNN C API或Python API在開發(fā)板上進行部署。該工具提供的Python接口可以便捷地完成模型轉換、量化、模型推理、性能和內(nèi)存評估、量化精度分析、模型加密等功能。

wKgZO2mKxnyAfreFAADG0f1y0LI75.jpeg

RKNN Runtime負責加載RKNN模型,并調用NPU驅動實現(xiàn)在NPU上推理RKNN模型。推理RKNN模型時,包括原始數(shù)據(jù)輸入預處理、NPU運行模型、輸出后處理三項流程。根據(jù)不同模型輸入格式和量化方式,RKNN Runtime提供通用API和零拷貝API兩種處理流程:

  • 通用API推理流程

提供一套簡潔、無門檻的推理API,易于使用,流程如圖所示。其中對數(shù)據(jù)的歸一化、量化、數(shù)據(jù)排布格式轉換、反量化等均在CPU上運行,模型本身的推理在NPU上運行。

wKgZO2mKxnyAXqUnAABOLjKvb8U05.jpeg
  • 零拷貝API推理

優(yōu)化了通用API的數(shù)據(jù)處理流程,歸一化、量化和模型推理都會在NPU上運行,NPU輸出的數(shù)據(jù)排布格式和反量化過程在CPU或者NPU上運行。零拷貝API對于輸入數(shù)據(jù)流程的處理效率會比通用API高。

wKgZPGmKxnyACkPqAABNgPky3EQ60.jpeg

另外對RK3576端側性能感興趣的朋友們,可點擊觸覺智能相關實測視頻

https://www.bilibili.com/video/BV1T8UqBMErn/?spm_id_from=333.1387

開發(fā)環(huán)境搭建

  • RKNN-Toolkit2安裝

首先,執(zhí)行如下命令進行安裝Miniforge Conda:

wget -c https://github.com/conda-forge/miniforge/releases/latest/download/Miniforge3-Linux-x86_64.sh chmod 777 Miniforge3-Linux-x86_64.sh bash Miniforge3-Linux-x86_64.sh

wKgZPGmKxn2AZyfdAABI5IlHrVs33.jpegwKgZPGmKxn2AEfZuAABI_MAkwtA61.jpegwKgZPGmKxn2AIkEpAAD_qC5Z5jA61.jpegwKgZPGmKxn2ALhZUAABG-5Y3LqA72.jpegwKgZO2mKxn2AVcxCAACDHWe3ig012.jpeg

進入Conda base環(huán)境,創(chuàng)建一個RKNN-Toolkit2 Conda環(huán)境,命令如下:

source ~/miniforge3/bin/activate conda create -n RKNN-Toolkit2 python=3.8

wKgZPGmKxn2Af5biAABM_RUfu4072.jpeg

進入RKNN-Toolkit2 Conda環(huán)境:

conda activate RKNN-Toolkit2

wKgZO2mKxn2AYpfwAAApHvUlJkw58.jpeg

激活RKNN-Toolkit2 Conda環(huán)境后,可通過 pip 源安裝RKNN-Toolkit2:

pip install rknn-toolkit2 -i https://pypi.org/simple

wKgZO2mKxn2AUC5nAADHyJQQul888.jpeg

驗證RKNN-Toolkit2,若執(zhí)行以下命令沒有報錯,則安裝成功。

python3 >>> from rknn.api import RKNN

wKgZO2mKxn6AKjBQAABJdYFXFEY56.jpeg

  • 下載RKNN相關倉庫

執(zhí)行如下命令從github上拉群RKNN相關倉庫,后續(xù)編譯、測試會用到。

mkdir Projects cd Projects # 下載 RKNN-Toolkit2 倉庫 git clone https://github.com/airockchip/rknn-toolkit2.git --depth 1 # 下載 RKNN Model Zoo 倉庫 git clone https://github.com/airockchip/rknn_model_zoo.git --depth 1

wKgZPGmKxn6AA0y2AAA_2Vmdwtg25.jpegwKgZPGmKxn6AWCHaAAA_CK3kzCw54.jpeg

  • 安裝編譯工具

執(zhí)行如下命令安裝cmake工具:

sudo apt install cmake

下載GCC 交叉編譯器工具鏈:

  • https://releases.linaro.org/components/toolchain/binaries/6.3-2017.05/aarch64-linux-gnu/gcc-linaro-6.3.1-2017.05-x86_64_aarch64-linux-gnu.tar.xz

下載后拷貝到Ubuntu虛擬機并解壓軟件包,建議將GCC軟件包解壓到 Projects的文件夾中,后面編譯RKNN C Demo時會用到:

wKgZPGmKxn6AJtAeAAA78chxc3U43.jpeg

  • 安裝板端RKNPU環(huán)境

開發(fā)板硬件連接如下圖所示,燒錄網(wǎng)盤固件:

IDO_PurplePiOH2_V1B_Ubuntu22.04_HDMI4K_250907R.img。

wKgZO2mKxn6AJiLAAAERnN-rvMM24.jpeg

注意:OTG接口需要連接到Ubuntu虛擬機,Ubuntu虛擬機需要安裝adb命令:

sudo apt install adb

接下來,確認板卡系統(tǒng)支持的RKNPU驅動版本,開發(fā)板上電進入系統(tǒng),執(zhí)行以下命令查詢NPU驅動版本:

adb shell dmesg | grep -i rknpu

wKgZPGmKxn6AbDKCAAD1KLtzwMI99.jpeg

默認出廠固件已支持NPU驅動,若以上命令查詢不到NPU驅動版本,在內(nèi)核源中使能如下配置以集成NPU驅動:

CONFIG_ROCKCHIP_RKNPU=y

RKNN-Toolkit2的調試功能要求板端安裝RKNPU2環(huán)境,并啟動

rknn_server服務。以下是RKNPU2 環(huán)境中的兩個基本概念:

RKNN Server:一個運行在開發(fā)板上的后臺代理服務。該服務的主要功能是調用板端 Runtime 對應的接口處理計算機通過USB傳輸過來的數(shù)據(jù),并將處理結果返回給計算機。

RKNPU2 Runtime 庫(librknnrt.so):主要職責是負責在系統(tǒng)中加載 RKNN 模型,并通過調用專用的神經(jīng)處理單元(NPU)執(zhí)行RKNN模型的推理操作。

如果能夠啟動 rknn_server 服務,則代表板端已經(jīng)安裝 RKNPU2 環(huán)境。

# 進入板端 adb shell # 啟動 rknn_server restart_rknn.sh

wKgZO2mKxn6ANjr3AAA63njlefM35.jpeg

檢查rknn_server、librknnrt.so版本是否一致,命令如下:

# 查詢rknn_server版本 strings /usr/bin/rknn_server | grep -i "rknn_server version" # 查詢librknnrt.so庫版本 strings /usr/lib/librknnrt.so | grep -i "librknnrt version"

如果出現(xiàn)以下輸出信息,則代表rknn_server版本為x.x.x,librknnrt.so的版本為x.x.x。

wKgZPGmKxn6AA7-8AAA_3uPiqic80.jpeg

默認出廠的固件rknn_server、librknnrt.so已經(jīng)一致,若版本不一致需要更新庫。

# 進入前面下載的rknn-toolkit2倉庫的 rknpu2 目錄 cd Projects/rknn-toolkit2/rknpu2

wKgZPGmKxn6AXo3HAABmX_FxLRk25.jpeg

拷貝上述腳本和庫替換開發(fā)板系統(tǒng)對應的文件進行更新:

wKgZO2mKxn6AOhAUAAA81osw-QA69.jpeg

完成以上步驟,瑞芯微原廠RKNN模型推理的開發(fā)環(huán)境就完成搭建了,下集為您帶來RKNN詳細測試方法。本文相關資料請關注深圳觸覺智能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 瑞芯微
    +關注

    關注

    27

    文章

    792

    瀏覽量

    54284
  • RKNN Toolkit
    +關注

    關注

    0

    文章

    1

    瀏覽量

    133
  • AI大模型
    +關注

    關注

    0

    文章

    398

    瀏覽量

    998
  • rk3576
    +關注

    關注

    1

    文章

    265

    瀏覽量

    1546
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【米爾RK3576開發(fā)板評測】+項目名稱3、使用rknn 進行圖像檢測

    /yolo11n.onnx rk3576 //轉換為rknn模型 cd ../.. ./build-linux.sh -t rk3576 -a aarch64 -d yolo11 板
    發(fā)表于 01-03 21:03

    【米爾RK3576開發(fā)板評測】+項目名稱RetinaFace人臉檢測

    ../model/RetinaFace_mobile320.onnx rk3576 i8 ../model/RetinaFace.rknn 3.3、程序編譯,將轉換后RKNN模型,編
    發(fā)表于 02-15 13:28

    【米爾RK3576開發(fā)板評測】+項目名稱百度飛槳PP-YOLOE

    /ppyoloe_s.onnx rk3576 i8 ../model/ppyoloe_s.rknn 3.3、程序編譯,將轉換后RKNN模型,編譯成為
    發(fā)表于 02-15 17:14

    RK3576 vs RK3588:為何越來越多的開發(fā)者轉向RK3576?

    瑞芯微(Rockchip)最新發(fā)布的 RK3576 一經(jīng)推出,就吸引了大量原本關注 RK3588 的開發(fā)者。RK3588 作為旗艦級芯片,性能固然強大,但 RK3576 憑借其超高的能
    發(fā)表于 05-30 08:46

    基于米爾瑞芯微RK3576開發(fā)板部署運行TinyMaix:超輕量級推理框架

    /MVEI,RV32P, RV64V 友好的用戶接口,只需要 load/run 模型 支持全靜態(tài)的內(nèi)存配置(無需 malloc )同樣地也可以部署到MPU平臺RK3576
    發(fā)表于 07-25 16:35

    基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評測

    占用 4.58GB ,在移動終端和工業(yè)場景可靠運行。 本文提供的環(huán)境準備、模型轉換、代碼適配等步驟,為開發(fā)者提供了可復現(xiàn)的部署方案。RK3576
    發(fā)表于 08-29 18:08

    如何精準驅動菜品識別模型--基于米爾瑞芯微RK3576邊緣計算盒

    。 1.2 RKNN-Toolkit2 SDK 要將YOLOv11s、PPLCNetV2等主流AI模型高效地部署在MYD-LR3576-B這樣的邊緣設備
    發(fā)表于 10-31 21:19

    新品體驗 | RK3576開發(fā)板

    前言:RK3576作為瑞芯微第二代8nm高性能AIOT平臺,一經(jīng)推出便獲得了極大的關注。廣州眺望電子科技有限公司是一家專注于嵌入式處理器模組研發(fā)與應用的國家高新技術企業(yè),目前公司已推出的相關型號有
    的頭像 發(fā)表于 11-01 08:08 ?3142次閱讀
    新品體驗 | <b class='flag-5'>RK3576</b>開發(fā)板

    RK3576單板發(fā)布倒計時:RK3399與RK3576對比

    好多人說RK3576RK3399的升級版,某種程度上也可以這么說,RK3576在強大的多媒體功能的基礎,性能和接口都進行了升級 一、工藝 性能
    的頭像 發(fā)表于 12-03 16:59 ?2515次閱讀
    <b class='flag-5'>RK3576</b>單板發(fā)布倒計時:<b class='flag-5'>RK</b>3399與<b class='flag-5'>RK3576</b>對比

    迅為RK3576開發(fā)板NPU例程測試-rknn-toolkit2環(huán)境搭建和使用

    迅為RK3576開發(fā)板NPU例程測試-rknn-toolkit2環(huán)境搭建和使用
    的頭像 發(fā)表于 06-17 13:46 ?1722次閱讀
    迅為<b class='flag-5'>RK3576</b>開發(fā)板NPU例程測試-<b class='flag-5'>rknn</b>-toolkit2環(huán)境搭建和使用

    迅為RK3576開發(fā)板NPU環(huán)境搭建和使用rknn-toolkit2功能演示模型轉換

    迅為RK3576開發(fā)板NPU環(huán)境搭建和使用rknn-toolkit2功能演示模型轉換
    的頭像 發(fā)表于 06-19 10:53 ?1347次閱讀
    迅為<b class='flag-5'>RK3576</b>開發(fā)板NPU環(huán)境搭建和使用<b class='flag-5'>rknn</b>-toolkit2功能演示<b class='flag-5'>模型</b>轉換

    迅為RK3576開發(fā)板NPU環(huán)境搭建和使用rknn-toolkit2功能演示連板推理

    迅為RK3576開發(fā)板NPU環(huán)境搭建和使用rknn-toolkit2功能演示連板推理
    的頭像 發(fā)表于 06-23 13:54 ?1207次閱讀
    迅為<b class='flag-5'>RK3576</b>開發(fā)板NPU環(huán)境搭建和使用<b class='flag-5'>rknn</b>-toolkit2功能演示連板推理

    迅為高情性6TOPS算力的RK3576開發(fā)板NPU rknn-model-zoo例程演示

    迅為RK3576開發(fā)板NPU rknn-model-zoo例程演示
    的頭像 發(fā)表于 07-01 14:54 ?1665次閱讀
    迅為高情性6TOPS算力的<b class='flag-5'>RK3576</b>開發(fā)板NPU <b class='flag-5'>rknn</b>-model-zoo例程演示

    瑞芯微RK3576RK3576S有什么區(qū)別,性能參數(shù)配置與型號差異解析

    瑞芯微第二代8nm高性能AIOT平臺RK3576家族再添新成員-RK3576S,先說結論:相較主型號的RK3576/RK3576J,性能略有
    的頭像 發(fā)表于 08-14 23:57 ?2366次閱讀
    瑞芯微<b class='flag-5'>RK3576</b>與<b class='flag-5'>RK3576</b>S有什么區(qū)別,性能參數(shù)配置與型號差異解析

    迅為如何在RK3576部署YOLOv5;基于RK3576構建智能門禁系統(tǒng)

    迅為如何在RK3576開發(fā)板上部署YOLOv5;基于RK3576構建智能門禁系統(tǒng)
    的頭像 發(fā)表于 11-25 14:06 ?1790次閱讀
    迅為如何在<b class='flag-5'>RK3576</b>上<b class='flag-5'>部署</b>YOLOv5;基于<b class='flag-5'>RK3576</b>構建智能門禁系統(tǒng)