91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

【瑞薩AI挑戰(zhàn)賽】從 0 到 1 跑通 RA8P1 NPU:YOLO-Fastest 訓(xùn)練、轉(zhuǎn)換與端側(cè)部署全鏈路實戰(zhàn)

jf_15487227 ? 來源:jf_15487227 ? 作者:jf_15487227 ? 2026-02-06 20:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

RA8P1 模型轉(zhuǎn)換與部署教程(手勢識別)

適用范圍 :RA8P1 (Ethos?U55)
工具鏈 :e2 studio 集成 RUHMI
說明 :本工程是基于官方示例人臉識別工程基礎(chǔ)上進(jìn)行教學(xué),本教程僅新增 手勢識別 模型的獲取、轉(zhuǎn)換與部署。


0. 基礎(chǔ)知識與技術(shù)棧簡介

為了更好地理解本教程,建議先了解以下核心技術(shù)概念,這將有助于你理解為什么需要進(jìn)行“模型轉(zhuǎn)換”和“量化”操作。

核心硬件:RA8P1 與 Ethos-U55

  • Renesas RA8P1 : 業(yè)界首款基于 Arm Cortex-M85 內(nèi)核的微控制器。M85 搭載了 Helium? 矢量處理單元,DSP/ML 性能及其強(qiáng)悍。
  • Arm Ethos-U55 : RA8P1 內(nèi)部集成的微型神經(jīng)網(wǎng)絡(luò)處理器 (microNPU)。它的作用是專門處理繁重的卷積和矩陣運算。
    • 優(yōu)勢 :相比僅用 CPU,使用 NPU 推理速度通常提升數(shù)倍甚至數(shù)十倍,且功耗極大降低。
    • 工作原理 :NPU 并不運行普通 C 代碼,而是執(zhí)行專門的“命令流”。我們在轉(zhuǎn)換步驟生成的 sub_xxxx_command_stream.c 就是 NPU 的指令集。

核心算法:YOLO-Fastest

  • YOLO-Fastest : YOLO (You Only Look Once) 系列中最輕量級的版本之一。
  • 為什么選它 :標(biāo)準(zhǔn) YOLOv5/v8 對于 MCU 來說過于龐大。YOLO-Fastest 優(yōu)化了網(wǎng)絡(luò)結(jié)構(gòu)(如使用深度可分離卷積),在保持檢測速度(FPS)的同時,模型體積通常能控制在 1MB 以內(nèi),非常適合部署在 MCU 的片內(nèi) Flash 中。

核心流程:RUHMI 與 量化 (Quantization)

  • RUHMI / AI Navigator : Renesas 的 AI 部署工具鏈。它的核心任務(wù)是將通用的 AI 模型(如 .pt/.onnx)“翻譯”成嵌入式工程可用的 C 代碼。
  • INT8 量化 (關(guān)鍵) :Ethos-U55 是一個 定點加速器 ,它只能通過整數(shù)(INT8)進(jìn)行計算,不支持浮點數(shù)(Float32)。
    • 轉(zhuǎn)換 :工具會將模型中的權(quán)重(如 0.1234)映射為整數(shù)(如 12)。
    • 校準(zhǔn) (Calibration) :為了讓整數(shù)運算的結(jié)果盡可能接近原始浮點結(jié)果,我們需要提供“校準(zhǔn)集”圖片,讓工具統(tǒng)計數(shù)據(jù)的分布范圍(動態(tài)范圍)。如果校準(zhǔn)沒做好(如 Mean/Std 設(shè)置錯誤),模型在板子上跑出來的結(jié)果就會完全不可用。

1. 環(huán)境搭建與 RUHMI 安裝

RUHMI (Renesas AI) 有兩種安裝方式:一種是圖形化界面,一種是命令行。本教程講解通過圖形化界面進(jìn)行安裝與配置。

1.1 安裝 e2 studio

首先下載并安裝 Pyron e2 studio。安裝完成后打開模型轉(zhuǎn)換工具(RUHMI Dashboard)。

image.png
(圖示路徑)
image.png

1.2 安裝配置 Python 3.10 (關(guān)鍵步驟)

如果在選擇路徑后提示環(huán)境缺失(如提示找不到 Python),請按照以下步驟安裝。

第一步:下載 Python 3.10
e2 studio 通過 Windows 的 py 啟動器檢測版本,必須安裝官方純凈版。
下載地址 或前往 Python 官網(wǎng)下載 Python 3.10.x(建議 3.10.11 或更新版本)。

第二步:安裝設(shè)置(非常重要)
運行安裝包時,在第一個界面:

  1. 不要勾選Add Python 3.10 to PATH —— 保護(hù)現(xiàn)有環(huán)境,避免沖突。
  2. 務(wù)必勾選Install launcher for all users (Recommended) —— 讓 e2 studio 能通過 py -3.10 命令找到它。
  3. 點擊 Install Now 完成安裝。

安裝完成后,重啟 e2 studio,按照之前的步驟再次點擊 Setup Environment 。
當(dāng)出現(xiàn)如下圖示時,代表環(huán)境配置成功:
image.png


2. 模型訓(xùn)練:手勢檢測 (YOLO-Fastest)

本節(jié)介紹從數(shù)據(jù)集準(zhǔn)備到訓(xùn)練出 .pt 文件的全流程。

  • 任務(wù) :2 類目標(biāo)檢測:ok、palm(張開手掌)
  • 模型 :YOLO-Fastest (2路輸出 head)
  • 輸入192x192,RGB 3通道
  • 預(yù)處理x/255 (0..1),無 mean/std 減法

2.1 準(zhǔn)備數(shù)據(jù)集 (HaGRID 子集)

我們使用 HaGRID 的 YOLO 格式數(shù)據(jù),僅保留兩類(0=ok, 1=palm)。

下載與解壓

在 Windows PowerShell 執(zhí)行以下命令:

mkdir D:gesture_ai
cd D:gesture_ai

# 下載示例數(shù)據(jù)集 (約10GB)
curl.exe -L -o yolo_format.zip "https://huggingface.co/datasets/testdummyvt/hagRIDv2_512px_10GB/resolve/main/yolo_format.zip?download=true"

# 解壓
mkdir hagrid_yolo_sample
tar -xf .yolo_format.zip -C .hagrid_yolo_sample

目錄結(jié)構(gòu)示例

  • D:gesture_aihagrid_ok_palm_1imagestrain|val|test
  • D:gesture_aihagrid_ok_palm_1labelstrain|val|test
  • D:gesture_aihagrid_ok_palm_1data_ok_palm.yaml

image.png

2.2 訓(xùn)練環(huán)境配置

1. 拉取代碼庫

cd D:gesture_ai
git clone https://github.com/Nota-NetsPresso/ModelZoo-YOLOFastest-for-ARM-U55-M85.git
cd .ModelZoo-YOLOFastest-for-ARM-U55-M85
pip install -r requirements.txt

2. 解決版本兼容性問題

  • 該倉庫建議 torch >= 1.11, < 2.0。
  • 如果使用 torch 1.x,需降級 NumPy 防止報錯:pip install "numpy<2"
  • RTX 4060 顯卡建議安裝 CUDA 11.7 對應(yīng)的 torch 版本:
    pip uninstall -y torch torchvision
    pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 --index-url https://download.pytorch.org/whl/cu117
    

2.3 執(zhí)行訓(xùn)練

D:gesture_ai.venvScriptspython.exe train.py 
  --data D:gesture_aihagrid_ok_palm_1data_ok_palm.yaml 
  --cfg .modelsyolo-fastest.yaml 
  --weights "" 
  --imgsz 192 
  --batch-size 64 
  --epochs 200 
  --device 0 
  --workers 4 
  --project D:gesture_airuns 
  --name ok_palm_192 
  --exist-ok 
  --noplots

image.png
訓(xùn)練完成后得到 best.pt。
image.png

常見問題:DataLoader worker exited unexpectedly

解決方法:將 --workers 設(shè)為 0 并續(xù)訓(xùn)。

D:gesture_ai.venvScriptspython.exe train.py 
  --resume D:gesture_airunsok_palm_192weightslast.pt 
  --epochs 200 
  --workers 0 
  ...

3. 模型導(dǎo)出 (ONNX)

RUHMI 支持導(dǎo)入 ONNX,因此我們需要將 PyTorch 模型導(dǎo)出為 ONNX 格式。需要保留兩路 head 輸出給板端處理。

注意 :必須在倉庫根目錄下運行導(dǎo)出腳本,否則會報 ModuleNotFoundError: No module named 'models'。

3.1 創(chuàng)建導(dǎo)出腳本 export_onnx_heads.py

在倉庫根目錄新建文件 export_onnx_heads.py,代碼如下:

import torch
import torch.nn as nn

CKPT = r"D:gesture_ai
unsok_palm_192weightsest.pt"
OUT  = r"D:gesture_aiok_palm_192_heads.onnx"

ck = torch.load(CKPT, map_location="cpu")
model = ck["model"].float().eval()

class HeadWrapper(nn.Module):
    def __init__(self, m):
        super().__init__()
        self.m = m

    def forward(self, x):
        y, feats = self.m(x)
        # feats[0] - > (1,3,12,12,7)
        # feats[1] - > (1,3,6,6,7)
        return feats[0], feats[1]

w = HeadWrapper(model)
dummy = torch.zeros(1, 3, 192, 192)

torch.onnx.export(
    w,
    dummy,
    OUT,
    input_names=["images"],
    output_names=["p4_12x12", "p5_6x6"],
    opset_version=13,
    do_constant_folding=False,
)

print("saved:", OUT)

3.2 運行導(dǎo)出

D:gesture_ai.venvScriptspython.exe .export_onnx_heads.py

正常導(dǎo)出的 ONNX 文件大小約為 1MB 左右。
image.png


4. RUHMI 模型轉(zhuǎn)換 (AI Navigator)

參考關(guān)于RA生態(tài)工作室的視頻號回放:
image.png
啟動 RUHMI AI Navigator 進(jìn)行轉(zhuǎn)換。
image.png

4.1 準(zhǔn)備校準(zhǔn)數(shù)據(jù)集 (Calibration Dataset)

用于 INT8 量化校準(zhǔn)。建議從訓(xùn)練集中隨機(jī)抽取 200 張圖片。

PowerShell 隨機(jī)抽取腳本:

$src = "D:gesture_aihagrid_ok_palm_1images	rain"
$dst = "D:gesture_aicalib_ok_palm_200"
mkdir $dst -Force | Out-Null
Get-ChildItem $src -File | Get-Random -Count 200 | Copy-Item -Destination $dst

在 AI Navigator 中選擇該目錄作為 Calibration dataset。
image.png

4.2 設(shè)置 Mean / Std (重要)

由于訓(xùn)練時只做了 x/255 歸一化,板端輸入必須匹配。

推薦設(shè)置(板端輸入 0..1 float)

  • Mean : 0, 0, 0
  • Std : 1, 1, 1 (如果在板端沒做 /255,這里要設(shè)為 255)

注意 :不要使用 mean=127.5, std=127.5,那是 -1..1 的歸一化方式。

image.png

4.3 檢查轉(zhuǎn)換輸出

轉(zhuǎn)換成功后,關(guān)鍵生成的源文件位于 buildMCUcompilationsrc

  • model.c/.h
  • sub_xxxx_model_data.c/.h
  • sub_xxxx_invoke.c/.h
  • ...

image.png


5. 部署到工程:CPU 版本

目標(biāo):將 CPU-only 產(chǎn)物集成到 RT-Thread 工程,驗證前處理與解碼邏輯。

5.1 文件集成

將 RUHMI 生成的 compilationsrc 下的文件復(fù)制到工程目錄 src/models/

  • compute_sub_0000.c
  • model.c
  • kernel_library_int.c
  • kernel_library_utils.c

image.png

5.2 編譯配置 (SConscript)

修改 src/models/SConscript,加入剛復(fù)制的源文件:

src = [
    os.path.join(cwd, 'model.c'),
    os.path.join(cwd, 'compute_sub_0000.c'),
    os.path.join(cwd, 'kernel_library_int.c'),
    os.path.join(cwd, 'kernel_library_utils.c'),
]

image.png

5.3 關(guān)鍵代碼修改

1. 輸入前處理對齊

修改 src/hal_entry.c,確保輸入轉(zhuǎn)為 0..1 (float):

const float inv255 = 1.0f / 255.0f;
dst[0 * plane_size + pixel_idx] = (float)r * inv255;
dst[1 * plane_size + pixel_idx] = (float)g * inv255;
dst[2 * plane_size + pixel_idx] = (float)b * inv255;

image.png

2. 后處理解碼 (YOLOv5公式)

修改 src/yolo/yolo_rtthread.c,使用 YOLOv5 的解碼公式替代傳統(tǒng) Darknet 公式:

float stride_pix = (float)INPUT_W / (float)grid;
float cx = (sigmoid(tx) * 2.0f - 0.5f + j) * stride_pix;
float cy = (sigmoid(ty) * 2.0f - 0.5f + i) * stride_pix;
float ww = (sigmoid(tw) * 2.0f); ww = ww * ww * anchor_w;
float hh = (sigmoid(th) * 2.0f); hh = hh * hh * anchor_h;

image.png

3. 調(diào)試顯示優(yōu)化

建議在 LCD 顯示分類文本、置信度,并用不同顏***分 OK/PALM。

image.png

6. 部署到工程:NPU (Ethos-U55) 版本

目標(biāo):啟用 NPU 加速。RUHMI 針對 NPU 通常生成“三段式”代碼:前處理(CPU) -> NPU推理 -> 后處理(CPU)。

6.1 文件集成

RUHMI NPU 版輸出包含 sub_0001 (NPU) 等部分。需復(fù)制以下文件到 src/models/

  • compute_sub_0000.c (CPU 前處理)
  • compute_sub_0002.c (CPU 后處理)
  • sub_0001_*.c (NPU 相關(guān):command strteam, weights, invoke)
  • model.c, ethosu_common.h

image.png

6.2 編譯配置

修改 SConscript,加入所有新文件:

src = [
    os.path.join(cwd, 'model.c'),
    os.path.join(cwd, 'compute_sub_0000.c'),
    os.path.join(cwd, 'compute_sub_0002.c'),
    os.path.join(cwd, 'sub_0001_command_stream.c'),
    os.path.join(cwd, 'sub_0001_invoke.c'),
    os.path.join(cwd, 'sub_0001_model_data.c'), 
    os.path.join(cwd, 'sub_0001_tensors.c'),
    # ... 其他依賴庫
]

6.3 關(guān)鍵點:NPU 內(nèi)存配置 (Arena)

1. Arena 放入 OSPI RAM
修改 sub_0001_invoke.c,將 arena 數(shù)組放到 OSPI 段,避免占用寶貴的內(nèi)部 SRAM:

__attribute__((aligned(16), section(".ospi1_cs0_noinit"))) uint8_t sub_0001_arena[...];

image.png

2. 輸入數(shù)據(jù)寫入 Arena
NPU 的輸入通常直接映射到 Arena 的起始位置(offset 0)。
修改 model.c, 直接將量化后的數(shù)據(jù)寫入 Arena ,而不是臨時 buffer:

// 獲取 NPU 輸入在 Arena 中的地址
int8_t* npu_in = (int8_t*)(sub_0001_arena + sub_0001_address_images_...);
// 執(zhí)行前處理,直接輸出到 npu_in
compute_sub_0000(compute_arena_sub_0000, buf_images, npu_in);

3. Cache 維護(hù) (非常重要)
在調(diào)用 NPU 前后必須維護(hù) D-Cache,否則 NPU 讀不到最新數(shù)據(jù)或 CPU 讀不到 NPU 的輸出。

// Invoke 前:Clean (將 CPU 寫的數(shù)據(jù)刷入 RAM)
SCB_CleanDCache_by_Addr(sub_0001_arena, sizeof(sub_0001_arena));

// Invoke
sub_0001_invoke(...);

// Invoke 后:Invalidate (讓 CPU 重新從 RAM 讀取)
SCB_InvalidateDCache_by_Addr(sub_0001_arena, sizeof(sub_0001_arena));

6.4 調(diào)試建議

  1. 驗證 NPU 是否工作 :打印輸入和輸出的 hash 值或 min/max 值。如果輸入變了但輸出 hash 不變,說明 NPU 沒運行或 invoke 失敗。
  2. 調(diào)整閾值 :初期將 CONF_THRESH 設(shè)低(如 0.2),觀察 max_sig,確認(rèn)有檢測結(jié)果后再調(diào)高。

image.png

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301404
  • NPU
    NPU
    +關(guān)注

    關(guān)注

    2

    文章

    373

    瀏覽量

    21097
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何在邊緣AI應(yīng)用場景中實現(xiàn)高性能、低功耗推理(下)

    應(yīng)用程序所需的CPU內(nèi)核、NPU、內(nèi)存和外設(shè)集成在單個芯片上。應(yīng)用程序會分析輸入圖像并為其分配預(yù)先分配的標(biāo)簽或類別。神經(jīng)網(wǎng)絡(luò)模型在龐大的圖像數(shù)據(jù)集上進(jìn)行訓(xùn)練(其中每張圖像都標(biāo)有類別),并部署
    的頭像 發(fā)表于 02-26 15:53 ?5629次閱讀
    如何在邊緣<b class='flag-5'>AI</b>應(yīng)用場景中實現(xiàn)高性能、低功耗推理(下)

    直播有禮 | RUHMI工具介紹及模型部署演示--AI線上技術(shù)月收官??!

    RA生態(tài)工作室關(guān)注我們隨著人工智能技術(shù)不斷迭代,使用遠(yuǎn)端算力平臺進(jìn)行模型部署AI計算并在側(cè)決策成為可能,邊緣AI技術(shù)憑借實時響應(yīng)、低資源
    的頭像 發(fā)表于 02-03 17:02 ?1172次閱讀
    直播有禮 | RUHMI工具介紹及模型<b class='flag-5'>部署</b>演示--<b class='flag-5'>瑞</b><b class='flag-5'>薩</b><b class='flag-5'>AI</b>線上技術(shù)月收官??!

    電子RA系列MCU 2025年新品回顧

    2025年RA系列推出10個新產(chǎn)品,覆蓋了入門級低功耗(RA0E2)、中低功耗(
    的頭像 發(fā)表于 01-27 09:57 ?1251次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>薩</b>電子<b class='flag-5'>RA</b>系列MCU 2025年新品回顧

    留言有禮+直播有禮 | 邊緣AI線上技術(shù)月——高性能AI MCU RA8P1介紹及應(yīng)用

    RA生態(tài)工作室關(guān)注我們隨著人工智能技術(shù)不斷迭代,使用遠(yuǎn)端算力平臺進(jìn)行模型部署AI計算并在側(cè)決策成為可能,邊緣AI技術(shù)憑借實時響應(yīng)、低資源
    的頭像 發(fā)表于 01-20 18:43 ?342次閱讀
    留言有禮+直播有禮 | <b class='flag-5'>瑞</b><b class='flag-5'>薩</b>邊緣<b class='flag-5'>AI</b>線上技術(shù)月——<b class='flag-5'>瑞</b><b class='flag-5'>薩</b>高性能<b class='flag-5'>AI</b> MCU <b class='flag-5'>RA8P1</b>介紹及應(yīng)用

    “芯”年來襲 | 邊緣AI線上技術(shù)月暨挑戰(zhàn)賽

    1月7日起,邊緣AI技術(shù)月活動將每周開啟一場在線技術(shù)交流,涵蓋MCU/MPU產(chǎn)品、應(yīng)用案例及開發(fā)實踐,并同步開啟
    的頭像 發(fā)表于 12-25 10:21 ?2238次閱讀
    “芯”年來襲 | <b class='flag-5'>瑞</b><b class='flag-5'>薩</b>邊緣<b class='flag-5'>AI</b>線上技術(shù)月暨<b class='flag-5'>挑戰(zhàn)賽</b>

    1 GHz Arm? Cortex?-M85 MCU上部署AI模型

    ,即可體驗在1GHzArmCortex-M85MCU上部署AI模型。(公眾號后臺回復(fù)RA8P1,加入交流群)目錄應(yīng)用效果預(yù)覽流程圖環(huán)境準(zhǔn)備訓(xùn)練
    的頭像 發(fā)表于 12-02 21:04 ?9215次閱讀
    <b class='flag-5'>1</b> GHz Arm? Cortex?-M85 MCU上<b class='flag-5'>部署</b><b class='flag-5'>AI</b>模型

    RA8P1部署ai模型指南:訓(xùn)練模型部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“在板子上”,決定了項目能否落地。我們帶你基于RA8P1平臺,
    的頭像 發(fā)表于 11-20 18:06 ?2085次閱讀
    <b class='flag-5'>RA8P1</b><b class='flag-5'>部署</b><b class='flag-5'>ai</b>模型指南:<b class='flag-5'>從</b><b class='flag-5'>訓(xùn)練</b>模型<b class='flag-5'>到</b><b class='flag-5'>部署</b>?|?本周六

    【直播預(yù)告】RT-Thread帶你首發(fā)體驗:基于RA8P1 MCU的Titan Board | 問學(xué)直播

    首款搭載RA8P1雙核AI加速MCU的TitanBoard來了!11月5日晚19:30,RT-Thread攜手專家團(tuán)隊,帶大家首發(fā)體驗基于
    的頭像 發(fā)表于 10-30 11:54 ?780次閱讀
    【直播預(yù)告】RT-Thread帶你首發(fā)體驗:基于<b class='flag-5'>瑞</b><b class='flag-5'>薩</b><b class='flag-5'>RA8P1</b> MCU的Titan Board | 問學(xué)直播

    正式上市: Cortex-M85 RA8P1 Titan Board重新定義,邊緣AI的性能邊界 | 產(chǎn)品動態(tài)

    RT-Thread與電子攜手推出全新的AI硬件產(chǎn)品RA8P1TitanBoard現(xiàn)正式上市。RT-ThreadRA8P1TitanBoa
    的頭像 發(fā)表于 10-27 19:56 ?751次閱讀
    正式上市: Cortex-M85 <b class='flag-5'>RA8P1</b> Titan Board重新定義,邊緣<b class='flag-5'>AI</b>的性能邊界 | 產(chǎn)品動態(tài)

    RT-Thread首款AI硬件搶先曝光!——RA8P1 Titan Board

    。RA8P1系列是電子首款搭載高性能ArmCortex-M85(CM85)及Helium矢量擴(kuò)展,并集成Ethos-U55NPU的32位AI
    的頭像 發(fā)表于 10-23 12:02 ?1308次閱讀
    RT-Thread首款<b class='flag-5'>AI</b>硬件搶先曝光!——<b class='flag-5'>RA8P1</b> Titan Board

    電子RA8P1系列32位AI MCU介紹

    RA8P1系列是電子首款搭載高性能Arm Cortex-M85(支持Helium矢量擴(kuò)展)及Ethos-U55 NPU的32位AI加速微
    的頭像 發(fā)表于 09-23 10:15 ?3126次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>薩</b>電子<b class='flag-5'>RA8P1</b>系列32位<b class='flag-5'>AI</b> MCU介紹

    貿(mào)澤開售Renesas Electronics RA8P1微控制器 為先進(jìn)AI提供高CPU性能

    Ethos-U55神經(jīng)網(wǎng)絡(luò)處理器 (uNPU) 相結(jié)合,提供出色的CPU和AI(人工智能)性能。RA8P1 MCU進(jìn)行了優(yōu)化,特別適合邊緣和物聯(lián)網(wǎng) (IoT) 應(yīng)用,包括機(jī)器人、安防攝像頭、家用電器以及語音和視覺AI。 Ren
    的頭像 發(fā)表于 09-17 14:49 ?1003次閱讀
    貿(mào)澤開售Renesas Electronics <b class='flag-5'>RA8P1</b>微控制器  為先進(jìn)<b class='flag-5'>AI</b>提供高CPU性能

    地表最強(qiáng)M85內(nèi)核芯片-RA8P1測評 | 技術(shù)集結(jié)

    電子宣布推出針對人工智能(AI)、機(jī)器學(xué)習(xí)(ML)應(yīng)用以及實時分析的RA8P1微控制器(MCU)產(chǎn)品群。該系列MCU通過將1
    的頭像 發(fā)表于 07-05 10:04 ?2837次閱讀
    地表最強(qiáng)M85內(nèi)核芯片-<b class='flag-5'>RA8P1</b>測評 | 技術(shù)集結(jié)

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓側(cè)AI模型接入得心應(yīng)手

    PIX GP模型的整合,并且針對模型進(jìn)行微秒級分析,以確保最佳的性能表現(xiàn)。在雙方的整
    發(fā)表于 04-13 19:52

    RA8D1單片機(jī)IO中斷配置實現(xiàn)方法

    本文為結(jié)合e2 studio工具,以及CPKCOR_RA8D1B評估板,給大家講述RA8D1
    的頭像 發(fā)表于 04-09 15:05 ?1843次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>薩</b><b class='flag-5'>RA8D1</b>單片機(jī)IO中斷配置實現(xiàn)方法