91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從模型到產(chǎn)品:Qwen2.5-VL在BM1684X邊緣計(jì)算部署全攻略

視美泰 ? 2026-01-13 14:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言:部署意義與應(yīng)用場(chǎng)景

1.1 Qwen-2-5-VL與BM1684X的組合

行業(yè)意義

  • ? 邊緣AI革命:大模型從云端下沉到邊緣設(shè)備是當(dāng)前AI發(fā)展的關(guān)鍵趨勢(shì)。根據(jù)ABI Research數(shù)據(jù),到2026年,75%的企業(yè)數(shù)據(jù)將在邊緣處理
  • ? 成本效益:相比云端部署,邊緣部署可降低80%的長(zhǎng)期運(yùn)營(yíng)成本(IDC 2023報(bào)告)
  • ? 隱私安全:醫(yī)療、金融等敏感數(shù)據(jù)無需上傳云端,滿足GDPR等合規(guī)要求

典型應(yīng)用場(chǎng)景

wKgZO2ll4qqACeX8AAnGxrnhVuM726.png

1.2 BM1684X的獨(dú)特優(yōu)勢(shì)

硬件特性

  • ? 32TOPS INT8算力,特別適合Transformer架構(gòu)的量化部署
  • ? 獨(dú)特的內(nèi)存訪問模式(Twin/Quadruplets Interleave)優(yōu)化大模型參數(shù)吞吐
  • ? 專用DQ/RQ加速指令,提升量化模型執(zhí)行效率


一、深度環(huán)境配置指南

1.1 系統(tǒng)燒錄

為了讓BM1684X開發(fā)板順利啟動(dòng),我們需要將Ubuntu 20.04系統(tǒng)鏡像燒錄到TF卡中,使其作為啟動(dòng)介質(zhì)。

選擇TF卡作為啟動(dòng)方式,主要有以下幾點(diǎn)考慮:

  • ? BM1684X開發(fā)板通常不預(yù)裝操作系統(tǒng),需要用戶自行安裝;
  • ? 與直接燒寫到eMMC相比,使用TF卡啟動(dòng)更為安全,能有效避免因操作失誤導(dǎo)致的設(shè)備損壞;
  • ? TF卡便于系統(tǒng)遷移和備份,提高開發(fā)靈活性。

燒錄方法:使用 balenaEtcher 等工具,將系統(tǒng)鏡像寫入TF卡。完成后,將TF卡插入開發(fā)板的TF卡槽即可啟動(dòng)。

# 在Linux主機(jī)操作(示例)# 步驟1:插入TF卡,確認(rèn)設(shè)備節(jié)點(diǎn)(通常為/dev/sdX)lsblk

# 步驟2:下載系統(tǒng)鏡像(以V24.04.01為例)

wgethttps://sophon-file.sophon.cn/sophon-prod-s3/drive/24/04/01/sophon-img-ubuntu20.04-arm64-20240401.img.gz

# 步驟3:解壓并燒錄(注意替換sdX為實(shí)際設(shè)備)

gunzipsophon-img-ubuntu20.04-arm64-20240401.img.gzsudodd if=sophon-img-ubuntu20.04-arm64-20240401.img of=/dev/sdX bs=4M status=progresssync

關(guān)鍵注意:

  • ? 使用sync命令確保寫入完成
  • ? 推薦使用Class 10及以上速度的TF卡
  • ? 首次啟動(dòng)后執(zhí)行resize2fs /dev/mmcblk0p1擴(kuò)展根分區(qū)”

1.2 Python環(huán)境配置

目的:創(chuàng)建專用的 Python 3.10 虛擬環(huán)境,并安裝基礎(chǔ)依賴。

原因:

  • ? Qwen-2-5-VL 依賴特定版本的 Python 庫;
  • ? 虛擬環(huán)境可避免與系統(tǒng) Python 沖突;
  • ? Python 3.10 在類型提示和性能優(yōu)化方面表現(xiàn)更優(yōu),適合 AI 應(yīng)用開發(fā)。

操作步驟:

# 步驟1:安裝Python 3.10sudo apt install -y python3.10 python3.10-venv

# 步驟2:創(chuàng)建虛擬環(huán)境(在/data分區(qū)保證足夠空間)

python3.10-m venv /data/qwen_env --system-site-packages

# 步驟3:激活環(huán)境并升級(jí)

pipsource /data/qwen_env/bin/activatepython-m pip install --upgrade pip

# 步驟4:安裝核心依賴(使用清華鏡像加速)

pipconfig set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

pipinstall torch==2.1.0torchvision==0.16.0--extra-index-url https://download.pytorch.org/whl/cu118

典型問題排查:

  • ? 若遇到GLIBC_2.32 not found錯(cuò)誤,需更新系統(tǒng):sudo apt upgrade libc6
  • ? 內(nèi)存不足時(shí)添加交換空間:

sudofallocate -l 8G /swapfile

sudochmod600 /swapfile

sudomkswap /swapfile

sudoswapon /swapfile

二、模型部署深度解析

2.1 模型獲取與轉(zhuǎn)換

目的:

獲取 Qwen-2-5-VL 模型(BM1684X 專用格式),可選擇下載已編譯模型或手動(dòng)轉(zhuǎn)換原始模型。

原因:

  • ? 預(yù)編譯 .bmodel 文件已針對(duì) BM1684X 的指令集進(jìn)行優(yōu)化,開箱即用;
  • ? 原始 PyTorch 模型需要經(jīng)過量化與編譯,才能在 TPU 上高效運(yùn)行;
  • ? 若需使用自定義模型,需掌握完整的模型轉(zhuǎn)換流程,便于遷移和調(diào)試。

操作步驟:

# 方案A:直接下載預(yù)編譯模型(推薦)

wgethttps://example.com/qwen2_5-vl_bm1684x_int4_seq1024.bmodel -O /data/models/qwen_vl.bmodel

# 方案B:從PyTorch模型轉(zhuǎn)換(需TPU-MLIR工具鏈)

tpu_mlir--model qwen_vl.onnx\

--input_shape"1,3,448,448"\

--input_type float32\

--output_type int8\

--calibration_dataset ./cali_images/\

--quantize\

--processor bm1684x\

--output qwen_vl_int8.bmodel

轉(zhuǎn)換原理:

  1. 1. 圖優(yōu)化:合并冗余算子,將PyTorch算子映射為TPU原生算子
  2. 2. 量化校準(zhǔn):使用校準(zhǔn)數(shù)據(jù)集統(tǒng)計(jì)激活值分布,確定最優(yōu)量化參數(shù)
  3. 3. 指令生成:根據(jù)BM1684X的SIMD架構(gòu)生成高效機(jī)器碼

2.2 內(nèi)存優(yōu)化配置(3W詳解)

目的:調(diào)整BM1684X的內(nèi)存訪問模式以適應(yīng)大模型需求。

原因:

  • ? 默認(rèn)內(nèi)存模式可能造成帶寬瓶頸
  • ? 不同場(chǎng)景需要不同的內(nèi)存訪問策略:
  • ? 視頻分析:需要獨(dú)立帶寬給視頻編解碼? 純推理任務(wù):需要最大化內(nèi)存吞吐

操作步驟:

#查看當(dāng)前模式cat/proc/sophon/mem_mode

#模式切換(需要root權(quán)限)

# 模式0:獨(dú)立通道(調(diào)試用)echo0 > /proc/sophon/mem_mode

#模式1:雙通道交叉(視頻+AI場(chǎng)景)echo1 > /proc/sophon/mem_mode

#模式2:四通道全交叉(純AI推理)echo2 > /proc/sophon/mem_mode &&sync

性能對(duì)比數(shù)據(jù):

模式帶寬(GB/s)適合場(chǎng)景ResNet50 fps
017.1調(diào)試152
138.4多模態(tài)218
268.3大模型305

三、實(shí)戰(zhàn):智能安防部署案例

3.1 場(chǎng)景需求

某工廠需要實(shí)時(shí)監(jiān)測(cè)以下情況:

  • ? 人員是否佩戴安全帽
  • ? 設(shè)備操作是否符合規(guī)程
  • ? 危險(xiǎn)區(qū)域闖入檢測(cè)

3.2 部署方案

importcv2from

qwen_vl_wrapperimportQwenVL

# 初始化

model = QwenVL(

bmodel_path="/data/models/qwen_vl.bmodel",

tokenizer_path="./tokenizer",

dev_id=0

)

# 視頻分析循環(huán)

cap = cv2.VideoCapture("rtsp://factory_cam1")

whileTrue:

ret, frame = cap.read()

ifnotret:break# 多問題并行分析

queries = [

"圖中是否有未戴安全帽的人員?",

"是否有人員在危險(xiǎn)區(qū)域內(nèi)?",

"設(shè)備操作桿是否在正確位置?" ]

results = model.batch_predict(frame, queries)

# 報(bào)警邏輯for q, ans in zip(queries, results):

if"是"inans:

trigger_alert(q, frame)

3.3 性能優(yōu)化技巧

  • 1.幀采樣:對(duì)高幀率視頻每3幀處理1次
  • 2.區(qū)域聚焦:只對(duì)ROI區(qū)域進(jìn)行高分辨率分析
  • 3.結(jié)果緩存:對(duì)靜態(tài)場(chǎng)景復(fù)用之前的分析結(jié)果

四、進(jìn)階調(diào)試技巧

4.1 性能分析工具

# 查看TPU利用率

bm_top

# 詳細(xì)性能分析(需SDK工具)

bm_profile --cmd"python demo.py"--output profile.json

# 內(nèi)存使用分析

bm_memcheck --tool=valgrind python demo.py

4.2 典型錯(cuò)誤處理

錯(cuò)誤1:TPU timeout error

  • ? 原因:?jiǎn)未瓮评沓^硬件時(shí)限
  • ? 解決:減小輸入尺寸或拆分模型

錯(cuò)誤2:Memory allocation failed

  • ? 原因:內(nèi)存碎片化
  • ? 解決:重啟TPU服務(wù)

sudosystemctl restart bm-sophon

錯(cuò)誤3:Quantization range error

  • ? 原因:輸入數(shù)據(jù)超出校準(zhǔn)范圍
  • ? 解決:添加輸入歸一化:

input_tensor= (input_tensor -127.5) /128.0 # 適配INT8量化

五、Qwen-2.5-VL使用驗(yàn)證

使用方式

# 視頻識(shí)別 python3 qwen2_5_vl.py--vision_inputs="[{"type":"video_url","video_url":{"url":"../datasets/videos/carvana_video.mp4"},"resized_height":420,"resized_width":630,"nframes":2}]" # 圖片識(shí)別 python3 qwen2_5_vl.py--vision_inputs="[{"type":"image_url","image_url":{"url":"../datasets/images/panda.jpg"},"max_side":420}]" # 同時(shí) python3 qwen2_5_vl.py--vision_inputs="[{"type":"video_url","video_url":{"url":"../datasets/videos/carvana_video.mp4"},"resized_height":420,"resized_width":630,"nframes":2},{"type":"image_url","image_url":{"url":"../datasets/images/panda.jpg"},"max_side":840}]" # 純文本對(duì)話 python3 qwen2_5_vl.py--vision_inputs=""

使用效果

wKgZPGll6S6AB6iAAApPPszD93Q829.png

六、擴(kuò)展應(yīng)用開發(fā)

6.1 多模型流水線

wKgZO2ll6UuAWXS2AAG6RDa_AlI363.png

6.2 與業(yè)務(wù)系統(tǒng)集成

fromflaskimportFlask, request

importnumpyasnp

app = Flask(__name__)

model = load_model()

@app.route('/analyze', methods=['POST'])def analyze():

img = np.frombuffer(request.files['image'].read(), np.uint8)

question = request.form['question']

result = model.predict(img, question)

return{'answer': result}

if__name__ =='__main__':

app.run(host='0.0.0.0', port=5000)


總結(jié)

本指南不僅提供了step-by-step的技術(shù)實(shí)現(xiàn),更揭示了邊緣部署多模態(tài)大模型的技術(shù)本質(zhì)與商業(yè)價(jià)值。通過理解每個(gè)操作背后的原理和實(shí)現(xiàn)方法,開發(fā)者可以靈活應(yīng)對(duì)各種工業(yè)場(chǎng)景的定制化需求。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39684

    瀏覽量

    301292
  • 邊緣計(jì)算
    +關(guān)注

    關(guān)注

    22

    文章

    3527

    瀏覽量

    53420
  • 通義千問
    +關(guān)注

    關(guān)注

    1

    文章

    41

    瀏覽量

    597
  • BM1684
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    227
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【算能RADXA微服務(wù)器試用體驗(yàn)】Radxa Fogwise 1684X Mini 規(guī)格

    通過網(wǎng)絡(luò)可以了解,算能RADXA微服務(wù)器的具體規(guī)格: 處理器:BM1684X 算力:高達(dá)32Tops INT8峰值算力 內(nèi)存:16GB LPDDR4X 內(nèi)存 存儲(chǔ):64GB eMMC 編程框架
    發(fā)表于 02-28 11:21

    GPS 設(shè)計(jì)全攻略

    GPS 設(shè)計(jì)全攻略
    發(fā)表于 09-25 14:11

    LED技術(shù)全攻略

    LED技術(shù)全攻略
    發(fā)表于 09-25 14:16

    GPS 設(shè)計(jì)全攻略

    GPS 設(shè)計(jì)全攻略
    發(fā)表于 12-05 12:08

    MCU解密全攻略

    MCU解密全攻略
    發(fā)表于 08-19 14:28

    FPGA開發(fā)全攻略

    FPGA開發(fā)全攻略
    發(fā)表于 09-27 10:59

    FPGA開發(fā)全攻略

    FPGA開發(fā)全攻略
    發(fā)表于 05-21 09:28

    FPGA開發(fā)全攻略

    FPGA開發(fā)全攻略
    發(fā)表于 03-03 10:30

    MCU解密全攻略

    本內(nèi)容介紹了MCU解密的全攻略教程
    發(fā)表于 07-11 17:51 ?650次下載
    MCU解密<b class='flag-5'>全攻略</b>

    基于算能第四代AI處理器BM1684X邊緣計(jì)算盒子

    英碼IVP03X智能工作站搭載算能全新一代AI處理器BM1684X,八核ARM Cortex-A53,主頻2.3GHz;INT8算力高達(dá)32Tops,F(xiàn)P16算力達(dá)16 TFLOPS,F(xiàn)P32算力 2 TFLOPS,邊緣端少有的
    發(fā)表于 08-10 09:46 ?2981次閱讀
    基于算能第四代AI處理器<b class='flag-5'>BM1684X</b>的<b class='flag-5'>邊緣</b><b class='flag-5'>計(jì)算</b>盒子

    探索ChatGLM2算能BM1684X上INT8量化部署,加速大模型商業(yè)落地

    1.背景介紹2023年7月時(shí)我們已通過靜態(tài)設(shè)計(jì)方案完成了ChatGLM2-6B單顆BM1684X上的部署工作,量化模式F16,模型大小1
    的頭像 發(fā)表于 10-10 10:18 ?5663次閱讀
    探索ChatGLM2<b class='flag-5'>在</b>算能<b class='flag-5'>BM1684X</b>上INT8量化<b class='flag-5'>部署</b>,加速大<b class='flag-5'>模型</b>商業(yè)落地

    利用英特爾OpenVINO本地運(yùn)行Qwen2.5-VL系列模型

    近期阿里通義實(shí)驗(yàn)室 Hugging Face 和 ModelScope 上開源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B、7B 和 72B 在內(nèi)的 3 個(gè)
    的頭像 發(fā)表于 03-12 13:42 ?2601次閱讀
    利用英特爾OpenVINO<b class='flag-5'>在</b>本地運(yùn)行<b class='flag-5'>Qwen2.5-VL</b>系列<b class='flag-5'>模型</b>

    Qwen3-VL 4B/8B全面適配,BM1684X邊緣最佳部署平臺(tái)!

    算能BM1684X上完成Qwen3-VL4B/8B模型的適配,推理速度13.7/7.2tokens/s,使其成為邊緣部署多模態(tài)大
    的頭像 發(fā)表于 10-16 18:00 ?2644次閱讀
    <b class='flag-5'>Qwen3-VL</b> 4B/8B全面適配,<b class='flag-5'>BM1684X</b>成<b class='flag-5'>邊緣</b>最佳<b class='flag-5'>部署</b>平臺(tái)!

    GPS設(shè)計(jì)全攻略

    電子發(fā)燒友網(wǎng)站提供《GPS設(shè)計(jì)全攻略.pdf》資料免費(fèi)下載
    發(fā)表于 12-01 17:10 ?0次下載

    SAM(通用圖像分割基礎(chǔ)模型)丨基于BM1684X模型部署指南

    在基于BM1684X芯片的嵌入式設(shè)備上進(jìn)行高效推理測(cè)試。一、特性?支持BM1684X平臺(tái)全系列部署方案(x86PCIe、SoC、riscvPCIe)?圖像壓縮(embe
    的頭像 發(fā)表于 01-12 16:17 ?295次閱讀
    SAM(通用圖像分割基礎(chǔ)<b class='flag-5'>模型</b>)丨基于<b class='flag-5'>BM1684X</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>指南