91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過Transformer架構(gòu)賦能新一代邊緣AI應(yīng)用

Arm社區(qū) ? 來源:Arm社區(qū) ? 2024-04-08 10:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能 (AI) 和機(jī)器學(xué)習(xí) (ML) 的加速發(fā)展既得益于基礎(chǔ)硬件的不斷改進(jìn),也離不開軟件領(lǐng)域的發(fā)展成果。

以 Transformer 架構(gòu)為例。2017 年,谷歌在一篇研究論文中[1]首次提出這一架構(gòu),它采用自注意力機(jī)制 (self-attention),使模型能夠在進(jìn)行預(yù)測時對不同的輸入詞元 (token) 賦予不同權(quán)重。利用自注意力機(jī)制,Transformer 模型能夠捕捉數(shù)據(jù)中的遠(yuǎn)程依賴關(guān)系,因此在執(zhí)行語言翻譯、圖像處理、文本生成和情感分析等任務(wù)時非常高效。例如,生成式預(yù)訓(xùn)練模型 (GPT) 就是當(dāng)前流行訓(xùn)練有素的 Transformer 模型。這些模型已經(jīng)在語音助手和 AI 圖像生成工具中得到應(yīng)用。

這之于感知器 (perceptron) 還是存在很大的差別。感知器是早期的一種神經(jīng)網(wǎng)絡(luò),由單層人工神經(jīng)元組成,可在模式識別任務(wù)(例如,識別手寫數(shù)字)中做出二元決策。相較于卷積神經(jīng)網(wǎng)絡(luò) (CNN),Transformer 架構(gòu)已開始受到更多青睞。CNN 對數(shù)據(jù)架構(gòu)方式會進(jìn)行內(nèi)置假設(shè),它關(guān)注附近的關(guān)系,以及觀察圖像或視頻中的對象移動或變化方式。

而 Transformer 架構(gòu)則不會做出這些假設(shè)。相反地,它利用自注意力來理解序列的不同部分如何相互關(guān)聯(lián),而忽略其位置信息。得益于這種靈活性,基于 Transformer 的模型能夠更加輕松地適應(yīng)不同的任務(wù)。

這是如何實現(xiàn)的?Transformer 架構(gòu)及其采用的注意力機(jī)制徹底改變了 AI 應(yīng)用的格局,因為注意力機(jī)制具備的相關(guān)功能可以為諸多用例提供支持。文本(及語言)本身就是編碼信息,圖像、音頻以及其他形式的串行數(shù)據(jù)同樣如此。由于編碼信息可以解讀為一種語言,因此 Transformer 模型可以廣泛應(yīng)用于不同的用例中。這種適應(yīng)性對于理解視頻、填充圖像的缺失部分或同時分析來自多個攝像頭的數(shù)據(jù)或多模態(tài)數(shù)據(jù)來源(參見下文示例)等任務(wù)非常有效。

2020 年問世的 Vision Transformer (ViT) 是將 Transformer 架構(gòu)成功應(yīng)用于圖像分類的最早一批神經(jīng)網(wǎng)絡(luò)技術(shù)[2]之一。ViT 將圖像劃分為多個圖塊,并使用自注意力機(jī)制對這些圖塊之間的交互進(jìn)行建模。

自此,Transformer 模型被迅速應(yīng)用于各類視覺任務(wù)中,例如:

圖像分類

目標(biāo)檢測

語義分割

圖像超分辨率

圖像生成

視頻分類

在硬件上優(yōu)化模型

那么,硬件與這一切有什么關(guān)系呢?關(guān)系相當(dāng)密切!而且硬件將是未來發(fā)展的關(guān)鍵因素。

GPU、TPU 或 NPU(甚至 CPU)都可以處理 Transformer 模型所需的密集矩陣運算和并行計算。同時,Transformer 架構(gòu)可使更復(fù)雜的模型運行于資源更為受限的邊緣設(shè)備上。

主要有以下三個原因:

與 CNN 或循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 相比,Transformer 架構(gòu)從本質(zhì)上而言更具可并行性。這一特性能更有效地利用硬件,從而可以在計算資源受限的邊緣設(shè)備上部署基于 Transformer 的模型。

自注意力機(jī)制意味著通過較小的 Transformer 模型所帶來的性能表現(xiàn),可以媲美基于 CNN 或 RNN 的較大模型,從而降低邊緣部署的算力與內(nèi)存需求。

模型壓縮技術(shù)(例如剪枝、量化、知識提煉和注意力稀疏)的提升可進(jìn)一步縮小 Transformer 模型的大小,同時又不會造成性能或準(zhǔn)確性的明顯下降。

Transformer 架構(gòu)提升

現(xiàn)在,不妨想象一下功能更強(qiáng)大的計算資源,畢竟這一切并不遙遠(yuǎn)。通過優(yōu)化支持 Transformer 架構(gòu)的硬件,創(chuàng)新者可充分發(fā)掘這些強(qiáng)大神經(jīng)網(wǎng)絡(luò)的全部潛力,并為跨不同領(lǐng)域和模式的 AI 應(yīng)用帶來全新的可能性。

例如,硬件性能和效率的提升可以:

加快 Transformer 模型的推理速度,從而提高響應(yīng)能力,并改善用戶體驗。

部署更大的 Transformer 模型,從而在語言翻譯、文本生成和圖像處理等任務(wù)中獲得更佳表現(xiàn)。

提高在一系列應(yīng)用和部署場景中的邊緣設(shè)備、云服務(wù)器或?qū)S?AI 加速器中部署 Transformer 解決方案的可擴(kuò)展性。

探索全新架構(gòu),并不斷優(yōu)化 Transformer 模型。這其中包括嘗試不同的層配置、注意力機(jī)制和正則化技術(shù),以進(jìn)一步提高模型的性能和效率。

顯著提高能效,鑒于某些模型的規(guī)模增長,這一點至關(guān)重要。

試想一下,當(dāng)你打開手機(jī)或智能眼鏡上[3]的某個視覺應(yīng)用,它可以識別某個款式的襯衫,并從你的衣柜中推薦與之搭配的下半身穿著?;蛘哂捎谒懔μ嵘霈F(xiàn)的新的圖像生成功能[4]。

增加計算資源并不困難。集成子系統(tǒng)可提供經(jīng)過驗證的各種處理單元塊,包括 CPU、NPU、互連、內(nèi)存和其他組件。而軟件工具可以根據(jù)處理器來優(yōu)化 Transformer 模型,以獲得性能和效率的最大化。

擁抱未來

通過硬件優(yōu)化,Transformer 模型架構(gòu)有望推動一些令人驚嘆的新應(yīng)用。借助優(yōu)化的硬件配置以及集成子系統(tǒng)、互連和軟件開發(fā),無論是更快的推理速度,為更大的模型提供更好的性能,還是更出色的可擴(kuò)展性等等,這一切都將成為可能。這條通往創(chuàng)新和探索的全新旅程,正在蓬勃發(fā)展,引領(lǐng)我們走向更遠(yuǎn)的未來。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107875
  • 人工智能
    +關(guān)注

    關(guān)注

    1818

    文章

    50119

    瀏覽量

    265600
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8556

    瀏覽量

    137000
  • AI加速器
    +關(guān)注

    關(guān)注

    1

    文章

    73

    瀏覽量

    9499

原文標(biāo)題:大咖觀點 | 通過 Transformer 架構(gòu)賦能新一代邊緣 AI 應(yīng)用

文章出處:【微信號:Arm社區(qū),微信公眾號:Arm社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    邊緣AI算力臨界點:深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價值

    310P芯片的底層架構(gòu),深度剖析這款產(chǎn)品的技術(shù)細(xì)節(jié)、算力門檻及其在實際產(chǎn)業(yè)落地中的真實價值。 、176TOPS的產(chǎn)業(yè)門檻:為何這是邊緣算力的新起點? AI硬件的核心指標(biāo)始終是算力,但
    發(fā)表于 03-10 14:19

    Transformer 入門:從零理解 AI 大模型的核心原理

    Normalization) Transformer 使用的是層歸化,它在每層對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化: 計算步驟 ini 體驗AI代碼助手 代碼解讀 復(fù)制代碼 輸入向量:x = [
    發(fā)表于 02-10 16:33

    AI 邊緣計算 + EtherCAT 實時控制:新一代 EMS 控制器架構(gòu)演進(jìn)

    正在成型—— AI 邊緣計算 + 儲 EMS + EtherCAT 實時控制 。 而這,也正是新一代控制器正在走的方向。
    的頭像 發(fā)表于 01-22 11:04 ?335次閱讀

    DPU新一代邊緣數(shù)據(jù)中心算力革新

    場景中,對數(shù)據(jù)采集和處理的時效性、連續(xù)性、安全性、隱私性,以及數(shù)據(jù)價值的挖掘和利用,都有更高的要求。因此,未來幾年是構(gòu)建新一代智能數(shù)據(jù)中心基礎(chǔ)設(shè)施的關(guān)鍵時期,數(shù)據(jù)中心將從“云+端”轉(zhuǎn)變?yōu)椤霸?邊+端”三層架構(gòu)
    的頭像 發(fā)表于 01-21 09:27 ?479次閱讀
    DPU<b class='flag-5'>賦</b><b class='flag-5'>能</b><b class='flag-5'>新一代</b><b class='flag-5'>邊緣</b>數(shù)據(jù)中心算力革新

    MIPS 推出軟件優(yōu)先的 S8200 RISC-V NPU,自主邊緣物理 AI

    日,中國上海 —— 格羅方德(GlobalFoundries)旗下公司 MIPS 正式發(fā)布 MIPS S8200 處理器 IP 的詳細(xì)信息,旨在新一代嵌入式平臺的 AI 工作負(fù)載
    的頭像 發(fā)表于 01-14 10:26 ?6.5w次閱讀
    MIPS 推出軟件優(yōu)先的 S8200 RISC-V NPU,<b class='flag-5'>賦</b><b class='flag-5'>能</b>自主<b class='flag-5'>邊緣</b>物理 <b class='flag-5'>AI</b>

    生成式AI虛擬調(diào)試——fe.screen-sim的架構(gòu)價值

    生成式AI虛擬調(diào)試——fe.screen-sim的架構(gòu)價值
    的頭像 發(fā)表于 12-04 14:59 ?1003次閱讀
    生成式<b class='flag-5'>AI</b><b class='flag-5'>賦</b><b class='flag-5'>能</b>虛擬調(diào)試——fe.screen-sim的<b class='flag-5'>架構(gòu)</b>價值

    正式推出新一代邊緣AI芯片KL1140

    總部位于圣迭戈的 AI 科技企業(yè) Kneron 耐今日正式發(fā)表新一代 AI 系列芯片,并由全新旗艦產(chǎn)品 KL1140 領(lǐng)銜,全面構(gòu)建從終端到云端的完整
    的頭像 發(fā)表于 11-28 15:01 ?689次閱讀

    Nordic新一代NRF54高性能藍(lán)牙, 更多穿戴戒指行業(yè)客戶產(chǎn)品

    智能可穿戴設(shè)備公司陸續(xù)推出智能戒指產(chǎn)品,而Nordic Semiconductor新一代超低功耗無線SoC芯片NRF54L15,重新定義了健康與健身追蹤可穿戴技術(shù)的可能性。 基于Nordic
    發(fā)表于 11-26 17:19

    AI管理系統(tǒng),通過AI模型提高能耗管理

    AI管理系統(tǒng),通過AI模型提高能耗管理 在能源轉(zhuǎn)型成為全球共識的今天,儲
    的頭像 發(fā)表于 11-05 17:52 ?821次閱讀

    工業(yè)視覺網(wǎng)關(guān):RK3576多路檢測與邊緣AI

    ~150ms6TOPS NPU 邊緣AI推理易對接 MES / 追溯系統(tǒng) 、產(chǎn)線痛點:從“人看”到“機(jī)判”的轉(zhuǎn)變· 多工位/多角度同步:單機(jī)位覆蓋不足,典型項目需 8~12 路并發(fā),且畫面時序
    發(fā)表于 10-16 17:56

    【內(nèi)測活動同步開啟】這么???這么強(qiáng)?新一代大模型MCP開發(fā)板來啦!

    【內(nèi)測活動同步開啟】這么???這么強(qiáng)?新一代大模型MCP開發(fā)板來啦! 聆思全新一代六合芯片「LS26系列」,搭載WIFI / BLE & BT / NPU,與「小聆AI」強(qiáng)強(qiáng)
    發(fā)表于 09-25 11:47

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    、Transformer 模型的后繼者 二、用創(chuàng)新方法實現(xiàn)深度學(xué)習(xí)AI芯片 1、基于開源RISC-V的AI加速器 RISC-V是種開源、模塊化的指令集
    發(fā)表于 09-12 17:30

    芯原可擴(kuò)展的高性能GPGPU-AI計算IP汽車與邊緣服務(wù)器AI解決方案

    芯原股份 (芯原,股票代碼:688521.SH) 日前宣布其 高性能、可擴(kuò)展的GPGPU-AI計算IP的最新進(jìn)展,這些IP現(xiàn)已為新一代汽車電子和邊緣服務(wù)器應(yīng)用提供強(qiáng)勁
    的頭像 發(fā)表于 06-16 10:44 ?1383次閱讀

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷場翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語言處理(NLP)的標(biāo)準(zhǔn),而且拓寬了視野,徹底改變了AI的許多
    的頭像 發(fā)表于 06-10 14:24 ?1304次閱讀
    <b class='flag-5'>Transformer</b><b class='flag-5'>架構(gòu)</b>概述

    寶馬發(fā)布全新一代智能電子電氣架構(gòu)

    "超級大腦"寶馬新世代車型智能駕駛樂趣 全新一代電子電氣架構(gòu)搭載新世代車型,覆蓋全動力系統(tǒng)和全細(xì)分車型 全新一代電子電氣
    的頭像 發(fā)表于 03-13 15:42 ?760次閱讀