91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邁向更高效的圖像分類:解析DeiT模型的移植和適配

算能開發(fā)者社區(qū) ? 2023-11-23 08:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. DeiT概述

1.1 項(xiàng)目簡介

Deit(Data-efficient image Transformers)是由Facebook與索邦大學(xué)的Matthieu Cord教授合作開發(fā)的圖像分類模型。作為一種基于Transformer架構(gòu)的深度學(xué)習(xí)模型,DeiT在保持高性能的同時(shí),能夠大大提高數(shù)據(jù)效率,為圖像識(shí)別領(lǐng)域帶來了顛覆性的變化。

與傳統(tǒng)的CNN不同,DeiT模型采用了Transformer的自注意力機(jī)制,將圖像分割成若干個(gè)固定大小的塊,并對(duì)每個(gè)塊進(jìn)行編碼,捕捉圖像中的長程依賴關(guān)系。

本文將為大家介紹如何將DeiT移植到算能BM1684X平臺(tái)上。

1.2 模型介紹

DeiT目前有3個(gè)版本的模型(tiny, small, base),均由12個(gè)Attention結(jié)構(gòu)組成,模型區(qū)別在于輸入的header個(gè)數(shù)及embed_dim不同。

Attention結(jié)構(gòu)如下圖所示:

f5dd2bea-8997-11ee-9788-92fbcf53809c.pngattention

不同版本的模型具體參數(shù)區(qū)別如下表:

f5f01ad4-8997-11ee-9788-92fbcf53809c.pngversion

2. 模型移植

以下部分介紹如何將DeiT移植到算能BM1684X平臺(tái)上。

2.1 模型trace

原始DeiT模型基于Pytorch框架訓(xùn)練及推理。算能TPU-MLIR工具鏈可以編譯通過jit trace過的靜態(tài)模型。

首先進(jìn)行模型trace,命令如下,需要修改原推理代碼。

f612c46c-8997-11ee-9788-92fbcf53809c.pngtrace

2.2 模型編譯

以下介紹如何使用算能TPU-MLIR工具鏈將上一步trace過的模型編譯成可以在算能BM1684X上推理的bmodel。在模型移植過程中遇到一些算子邊界的處理問題,均已修復(fù)。

f6221b60-8997-11ee-9788-92fbcf53809c.pngtransformf634c6ac-8997-11ee-9788-92fbcf53809c.pngdeploy

2.3 精度測(cè)試

DeiT為分類模型,精度測(cè)試采用topk來進(jìn)行。

精度測(cè)試及性能測(cè)試結(jié)果如下:

f649d45c-8997-11ee-9788-92fbcf53809c.pngprecision

3 小結(jié)

總體看移植過程相對(duì)順利,在解決了部分算子邊界問題之后可以成功編譯出bmodel。F32精度基本可與原始框架對(duì)齊。由于第一個(gè)Conv stride > 15,在進(jìn)行F16/BF16轉(zhuǎn)換時(shí)遇到比對(duì)問題,這部分代碼目前仍在重構(gòu),生成bmodel過程中這部分采用F32混精度處理。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1096

    瀏覽量

    42328
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52104
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124398
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    沐曦曦云C500/C550 GPU產(chǎn)品適配騰訊混元圖像3.0圖生圖模型

    近日,騰訊混元團(tuán)隊(duì)宣布開源混元圖像3.0圖生圖版本(HunyuanImage 3.0-Instruct),沐曦股份曦云C500/C550 24小時(shí)內(nèi)完成適配,為國內(nèi)首批適配模型的國產(chǎn)
    的頭像 發(fā)表于 02-02 14:43 ?373次閱讀

    SAM(通用圖像分割基礎(chǔ)模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出的一個(gè)分割一切的提示型模型,其在1100萬張圖像上訓(xùn)練了超過10億個(gè)掩碼,實(shí)現(xiàn)了強(qiáng)大的零樣本泛化,突破了分割界限。本例程對(duì)SAM官方開源倉庫的模型和算法進(jìn)行移植
    的頭像 發(fā)表于 01-12 16:17 ?305次閱讀
    SAM(通用<b class='flag-5'>圖像</b>分割基礎(chǔ)<b class='flag-5'>模型</b>)丨基于BM1684X<b class='flag-5'>模型</b>部署指南

    飛騰多元化工控主板:賦能產(chǎn)業(yè)發(fā)展更智能、更高效、更便捷

    在工業(yè)4.0浪潮席卷全球、產(chǎn)業(yè)數(shù)字化轉(zhuǎn)型加速推進(jìn)的今天,工控主板作為工業(yè)控制領(lǐng)域的核心,其性能與適配能力深度決定了產(chǎn)業(yè)升級(jí)的深度與效率。國產(chǎn)工控主板以技術(shù)創(chuàng)新打破場(chǎng)景局限,憑借靈活適配、穩(wěn)定可靠、智能互聯(lián)的核心優(yōu)勢(shì),為千行百業(yè)注入強(qiáng)勁動(dòng)能,推動(dòng)產(chǎn)業(yè)發(fā)展
    的頭像 發(fā)表于 01-07 09:25 ?151次閱讀
    飛騰多元化工控主板:賦能產(chǎn)業(yè)發(fā)展更智能、<b class='flag-5'>更高效</b>、更便捷

    千兆工業(yè)圖像采集卡 | 穩(wěn)定網(wǎng)絡(luò)傳輸,適配遠(yuǎn)程工業(yè)檢測(cè)

    在工業(yè)自動(dòng)化檢測(cè)邁向遠(yuǎn)程化、分布式部署的趨勢(shì)下,千兆工業(yè)圖像采集卡以其卓越的網(wǎng)絡(luò)傳輸穩(wěn)定性和廣泛的場(chǎng)景適配能力,成為連接工業(yè)相機(jī)與后端處理系統(tǒng)的核心樞紐。千兆工業(yè)圖像采集卡深度契合遠(yuǎn)程
    的頭像 發(fā)表于 12-23 15:58 ?259次閱讀
    千兆工業(yè)<b class='flag-5'>圖像</b>采集卡 | 穩(wěn)定網(wǎng)絡(luò)傳輸,<b class='flag-5'>適配</b>遠(yuǎn)程工業(yè)檢測(cè)

    MDB-RS232適配器數(shù)據(jù)通信格式解析

    MDB-RS232適配器數(shù)據(jù)通信格式解析
    的頭像 發(fā)表于 12-20 16:26 ?1637次閱讀
    MDB-RS232<b class='flag-5'>適配</b>器數(shù)據(jù)通信格式<b class='flag-5'>解析</b>

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    , batch_size=512, epochs=20)總結(jié) 這個(gè)核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過程,是用來對(duì)MNIST手寫數(shù)字圖像進(jìn)行分類的。模型圖像作為輸入,通過卷積和池化
    發(fā)表于 10-22 07:03

    迅為iTOP-RK3568人工智能開發(fā)板mobilenet圖像分類模型推理測(cè)試

    想快速驗(yàn)證MobileNet圖像分類模型的實(shí)際運(yùn)行效果?迅為iTOP-RK3568人工智能開發(fā)板,讓模型推理測(cè)試高效又省心。
    的頭像 發(fā)表于 08-28 15:53 ?1430次閱讀
    迅為iTOP-RK3568人工智能開發(fā)板mobilenet<b class='flag-5'>圖像</b><b class='flag-5'>分類</b><b class='flag-5'>模型</b>推理測(cè)試

    衛(wèi)星圖像智能合成系統(tǒng)全面解析

    衛(wèi)星圖像智能合成系統(tǒng)全面解析
    的頭像 發(fā)表于 08-27 14:49 ?602次閱讀
    衛(wèi)星<b class='flag-5'>圖像</b>智能合成系統(tǒng)全面<b class='flag-5'>解析</b>

    RT-Thread Nano硬核移植指南:手把手實(shí)現(xiàn)VGLite圖形驅(qū)動(dòng)適配 | 技術(shù)集結(jié)

    VGLite是NXP提供的輕量級(jí)2D圖形API,本文將手把手帶你實(shí)現(xiàn)VGLite圖形驅(qū)動(dòng)適配RT-Thread。文章分為上、下兩篇,將手把手教您移植。上篇對(duì)RT-ThreadNano內(nèi)核與Finsh組件進(jìn)行移植,下篇?jiǎng)t教您改寫S
    的頭像 發(fā)表于 07-17 14:40 ?3388次閱讀
    RT-Thread Nano硬核<b class='flag-5'>移植</b>指南:手把手實(shí)現(xiàn)VGLite圖形驅(qū)動(dòng)<b class='flag-5'>適配</b> | 技術(shù)集結(jié)

    翼輝信息RealEvo-Stream的高效移植過程

    面向內(nèi)核、驅(qū)動(dòng)、板級(jí)支持包等嵌入式底層開發(fā)者,而 RealEvo-Stream 則主要針對(duì)應(yīng)用開發(fā)者,其功能偏向上層業(yè)務(wù)開發(fā)、應(yīng)用適配以及生態(tài)軟件移植。RealEvo-Stream 可支持多種常用開源
    的頭像 發(fā)表于 07-05 16:00 ?1296次閱讀
    翼輝信息RealEvo-Stream的<b class='flag-5'>高效</b><b class='flag-5'>移植</b>過程

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 DeepLab 模型圖像分割

    是谷歌團(tuán)隊(duì)提出的一種用于語義分割的深度學(xué)習(xí)模型,屬于 DeepLab 系列模型的第三代版本。它在圖像語義分割任務(wù)中表現(xiàn)優(yōu)異,能夠高效地捕獲圖像
    發(fā)表于 06-21 21:11

    壁仞科技完成Qwen3旗艦模型適配

    近日,在高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型的訓(xùn)練適配和優(yōu)化。由此,壁仞科技已實(shí)現(xiàn)Qw
    的頭像 發(fā)表于 05-16 16:23 ?989次閱讀

    基于RV1126開發(fā)板實(shí)現(xiàn)自學(xué)習(xí)圖像分類方案

    在RV1126開發(fā)板上實(shí)現(xiàn)自學(xué)習(xí):在識(shí)別前對(duì)物體圖片進(jìn)行模型學(xué)習(xí),訓(xùn)練完成后通過算法分類得出圖像模型ID。 方案設(shè)計(jì)邏輯流程圖,方案代碼分為分為兩個(gè)業(yè)務(wù)流程,主體代碼負(fù)
    的頭像 發(fā)表于 04-21 13:37 ?11次閱讀
    基于RV1126開發(fā)板實(shí)現(xiàn)自學(xué)習(xí)<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>方案

    愛芯通元NPU適配Qwen2.5-VL-3B視覺多模態(tài)大模型

    熟悉愛芯通元NPU的網(wǎng)友很清楚,從去年開始我們?cè)诙藗?cè)多模態(tài)大模型適配上一直處于主動(dòng)緊跟的節(jié)奏。先后適配了國內(nèi)最早開源的多模態(tài)大模MiniCPM V 2.0,上海人工智能實(shí)驗(yàn)室的書生多模態(tài)大模型
    的頭像 發(fā)表于 04-21 10:56 ?3150次閱讀
    愛芯通元NPU<b class='flag-5'>適配</b>Qwen2.5-VL-3B視覺多模態(tài)大<b class='flag-5'>模型</b>

    ?VLM(視覺語言模型)?詳細(xì)解析

    的詳細(xì)解析: 1. 核心組成與工作原理 視覺編碼器 :提取圖像特征,常用CNN(如ResNet)或視覺Transformer(ViT)。 語言模型 :處理文本輸入/輸出,如GPT、BERT等,部分
    的頭像 發(fā)表于 03-17 15:32 ?8836次閱讀
    ?VLM(視覺語言<b class='flag-5'>模型</b>)?詳細(xì)<b class='flag-5'>解析</b>