91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種顯著降低Transformer計(jì)算量的輕量化方法

CVer ? 來源:CVHub ? 2023-01-10 14:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

這項(xiàng)工作旨在提高視覺Transformer(ViT)的效率。雖然ViT在每一層中使用計(jì)算代價(jià)高昂的自注意力操作,但我們發(fā)現(xiàn)這些操作在層之間高度相關(guān)——這會(huì)導(dǎo)致產(chǎn)生很多不必要計(jì)算的冗余信息。基于這一觀察,我們提出了SKIPAT方法,該方法利用前面層的自注意力計(jì)算來近似在一個(gè)或多個(gè)后續(xù)層的注意力。為了確保在層之間重用自注意力塊而不降低性能,我們引入了一個(gè)簡單的參數(shù)函數(shù),該函數(shù)在計(jì)算速度更快的情況下能表現(xiàn)出優(yōu)于基準(zhǔn)Transformer的性能。我們?cè)趫D像分類和ImageNet-1K上的自我監(jiān)督學(xué)習(xí)、ADE20K上的語義分割、SIDD上的圖像去噪以及DAVIS上的視頻去噪中展示了我們方法的有效性。我們?cè)谒羞@些任務(wù)中都在相同或更高的準(zhǔn)確度水平下實(shí)現(xiàn)了提高模型吞吐量。

背景

28758fee-90a5-11ed-bfe3-dac502259ad0.png

Performance of SKIPAT across 5 different tasks.

Transformer架構(gòu)已經(jīng)成為一個(gè)重要且影響深遠(yuǎn)的模型系列,因?yàn)樗唵巍⒖蓴U(kuò)展,并且應(yīng)用廣泛。雖然最初來自自然語言處理(NLP)領(lǐng)域,但隨著視覺transformer(ViT)的出現(xiàn),這已成為計(jì)算機(jī)視覺領(lǐng)域的標(biāo)準(zhǔn)架構(gòu),在從表示學(xué)習(xí)、語義分割、目標(biāo)檢測到視頻理解等任務(wù)中獲得了各種最先進(jìn)(SoTA)性能。

然而,transformer的原始公式在輸入令牌(token)數(shù)量方面具有二次計(jì)算復(fù)雜度。鑒于這個(gè)數(shù)字通常從圖像分類的14^2到圖像去噪的128^2 = 16K不等,內(nèi)存和計(jì)算的這一限制嚴(yán)重限制了它的適用性。目前有三組方法來解決這個(gè)問題:第一組利用輸入令牌之間的冗余,并通過高效的抽樣簡單地減少計(jì)算,例如丟棄或合并冗余令牌。然而,這意味著ViT的最終輸出不是空間連續(xù)的,因此不能超出圖像級(jí)別(image-level)的應(yīng)用,如語義分割或目標(biāo)檢測。第二組方法旨在以低成本計(jì)算近似注意力,但通常以性能降低為代價(jià)。最后,另一組工作旨在將卷積架構(gòu)與transformer合并,產(chǎn)生混合架構(gòu)。雖然這些方法提高了速度,但它們并沒有解決二次復(fù)雜度的基本問題,并且通常會(huì)引入過多的設(shè)計(jì)選擇(基本上是transformer和CNN的聯(lián)合)。

在這項(xiàng)工作中,我們提出了一種新穎的、迄今為止未經(jīng)探索的方法:利用計(jì)算速度快且簡單的參數(shù)函數(shù)來逼近transformer的計(jì)算代價(jià)高的塊。為了得出這個(gè)解決方案,我們首先詳細(xì)地分析了ViT的關(guān)鍵多頭自注意力(MSA)塊。通過這項(xiàng)分析,我們發(fā)現(xiàn)CLS令牌對(duì)空間塊的注意力在transformer的塊之間具有非常高的相關(guān)性,從而導(dǎo)致許多不必要的計(jì)算。這啟發(fā)了我們的方法利用模型早期的注意力,并將其簡單地重用于更深的塊——基本上是“跳過”后續(xù)的SA計(jì)算,而不是在每一層重新計(jì)算它們。

基于此,我們進(jìn)一步探索是否可以通過重用前面層的表示來跳過整一層的MSA塊。受ResneXt的深度卷積的啟發(fā),我們發(fā)現(xiàn)一個(gè)簡單的參數(shù)函數(shù)可以優(yōu)于基準(zhǔn)模型性能——在吞吐量和FLOPs的計(jì)算速度方面更快。我們的方法是通用的,可以應(yīng)用于任何上下文的ViT:上圖顯示,我們的跳過注意力(SKIPAT)的新型參數(shù)函數(shù)在各種任務(wù)、數(shù)據(jù)集和模型大小上都能實(shí)現(xiàn)與基準(zhǔn)transformer相比更優(yōu)的精度與效率。

綜上所述,我們的貢獻(xiàn)如下所示:

我們提出了一種新型的插件模塊,可以放在任何ViT架構(gòu)中,以減少昂貴的O(n^2)自注意力計(jì)算復(fù)雜度。

我們?cè)贗mageNet、Pascal-VOC2012、SIDD、DAVIS和ADE20K數(shù)據(jù)集上實(shí)現(xiàn)了在吞吐量指標(biāo)上的最SOTA性能,并獲得了同等或更高的準(zhǔn)確度。

我們的方法在沒有下游準(zhǔn)確度損失的情況下,自監(jiān)督預(yù)訓(xùn)練時(shí)間能減少26%,并且在移動(dòng)設(shè)備上展示了優(yōu)越的延遲,這都證明了我們方法的普適性。

我們分析了性能提升的來源,并對(duì)我們的方法進(jìn)行了大量的實(shí)驗(yàn)分析,為提供可用于權(quán)衡準(zhǔn)確度和吞吐量的模型系列提供了支持。

方法

28816972-90a5-11ed-bfe3-dac502259ad0.png

SKIPAT framework.

引言

Vision Transformer

設(shè)x ∈ R^(h×w×c) 為一張輸入圖像,其中h × w是空間分辨率,c是通道數(shù)。首先將圖像分成n = hw/p^2個(gè)不重疊的塊,其中p × p是塊大小。使用線性層將每個(gè)塊投影到一個(gè)embedding zi ∈ R^d 中,從而得到分塊的圖像:

288c80b4-90a5-11ed-bfe3-dac502259ad0.png

Transformer Layer

Transformer的每一層由多頭自注意力(MSA)塊和多層感知機(jī)(MLP)塊組成。在MSA塊中,Zl?1 ∈ R^(n×d),首先被投影到三個(gè)可學(xué)習(xí)embeddings {Q, K, V } ∈ R^(n×d)中。注意力矩陣A的計(jì)算公式如下:

289c140c-90a5-11ed-bfe3-dac502259ad0.png

MSA中的“多頭”是指考慮h個(gè)注意力頭,其中每個(gè)頭是一個(gè)n × d/h 矩陣的序列。使用線性層將注意頭重新投影回n × d,并與值矩陣結(jié)合,公式如下所示:

28a77216-90a5-11ed-bfe3-dac502259ad0.png

然后,將MSA塊的輸出表示輸入到MLP塊,該塊包括兩個(gè)由GeLU激活分隔的線性層。在給定層l處,表示通過transformer塊的計(jì)算流程如下:

28b586f8-90a5-11ed-bfe3-dac502259ad0.png

MSA和MLP塊都具有帶層正則化(LN)的殘差連接。雖然transformer的每一層中的MSA塊均是學(xué)習(xí)互不依賴的表示,但在下一小節(jié)中,我們將展示這些跨層間存在高度相關(guān)性。

啟發(fā): 層相關(guān)性分析

Attention-map correlation

28c1334a-90a5-11ed-bfe3-dac502259ad0.png

Attention correlation.

ViT中的MSA塊將每個(gè)塊與每個(gè)其他塊的相似性編碼為n × n注意力矩陣。這個(gè)運(yùn)算符具有O(n^2)復(fù)雜度(公式2)的計(jì)算成本。隨著ViT的擴(kuò)展,即隨著n的增加,計(jì)算復(fù)雜度呈二次增長,使得這個(gè)操作成為性能瓶頸。最近的NLP工作表明,SoTA語言模型中相鄰層之間的自注意力具有非常高的相關(guān)性。這引發(fā)了一個(gè)問題 -在視覺transformer是否真的需要每一層都計(jì)算自注意力?

28d0b90a-90a5-11ed-bfe3-dac502259ad0.png

CKA analysis of A^[CLS] and Z^MSA across different layers of pretrained ViT-T/16.

為了回答這個(gè)問題,我們分析了ViT不同層之間自注意力圖的相關(guān)性。如本節(jié)圖1所示,來自類別token的自注意力圖A^[CLS]在中間層特別具有高度相關(guān)性。A^[CLS]l?1和A^[CLS]l 之間的余弦相似度可以高達(dá)0.97。其他token embeddings 也表現(xiàn)出類似的行為。我們通過計(jì)算每對(duì)i,j∈L的A^[CLS]i和A^[CLS]j之間的Centered Kernel Alignment(CKA)來定量分析ImageNet-1K驗(yàn)證集的所有樣本之間的相關(guān)性。CKA度量網(wǎng)絡(luò)中間層獲得的表示之間的相似性,其中CKA的值越高則表示它們之間的相關(guān)性越高。從本節(jié)圖2中,我們發(fā)現(xiàn)ViT-T在A^[CLS]之間具有高度性,特別是第三層到第十層。

Feature correlation

在ViT中,高相關(guān)性不僅局限于A^[CLS],MSA塊的表示Z^MSA也在整個(gè)模型中顯示出高度相關(guān)性。為了分析這些表示之間的相似性,我們計(jì)算每對(duì)i,j∈L的Z^MSAi和Z^MSAj之間的CKA。我們從從本節(jié)圖2中觀察到,Z^MSA在模型的相鄰層之間也具有很高的相似性,特別是在較早的層,即從第2層到第8層。

利用 Skipping Attention 提升效率

基于我們對(duì)transformer中MSA不同塊之間具有高度相似性的觀察,我們建議利用注意力矩陣和MSA塊的表示之間的相關(guān)性來提高視覺transformer的效率。與在每層單獨(dú)計(jì)算MSA操作(公式3)相反,我們探索了一種利用不同層之間依賴關(guān)系的簡單且有效的策略。

我們建議通過重用其相鄰層的特征表示來跳過transformer的一個(gè)或多個(gè)層中的MSA計(jì)算。我們將此操作稱為Skip Attention(SKIPAT)。由于跳過整個(gè)MSA塊的計(jì)算和內(nèi)存效益大于僅跳過自注意力操作 O(n^2d+nd^2) vs. O(n^2d),因此在本文中我們主要關(guān)注前者。我們引入了一個(gè)參數(shù)函數(shù),而不是直接重用特征,換句話說,就是將來源MSA塊的特征復(fù)制到一個(gè)或多個(gè)相鄰MSA塊。參數(shù)函數(shù)確保直接重用特征不會(huì)影響這些MSA塊中的平移不變性和等價(jià)性,并充當(dāng)強(qiáng)大的正則化器以提高模型泛化性。

SKIPAT parametric function

設(shè) Φ:R^(n×d) → R^(n×d)表示將l?1層的MSA塊映射到l層的參數(shù)函數(shù),作為Z?^MSA l:=Φ(Z^MSA l?1)。在這里,Z?^MSA l是Z^MSA l的近似值。參數(shù)函數(shù)可以是簡單的單位函數(shù),其中Z^MSA l?1能被直接重用。我們使用Z^MSA l?1作為l處的MLP塊的輸入,而不是在l處計(jì)算MSA操作。當(dāng)使用單位函數(shù)時(shí),由于l處沒有MSA操作,因此在注意力矩陣中的token間關(guān)系不再被編碼,這會(huì)影響表示學(xué)習(xí)。為了減輕這一點(diǎn),我們引入了SKIPAT參數(shù)函數(shù),用于對(duì)token之間的局部關(guān)系進(jìn)行編碼。SKIPAT參數(shù)函數(shù)由兩個(gè)線性層和中間的深度卷積(DwC)組成,計(jì)算公式如下所示:

28eefbc2-90a5-11ed-bfe3-dac502259ad0.png

SKIPAT framework

SKIPAT 是一種可以被納入任何 transformer 架構(gòu)的框架,我們通過大量實(shí)驗(yàn)對(duì)比結(jié)果充分地證明了這一點(diǎn)。根據(jù)架構(gòu)的不同,可以在 transformer 的一層或多層中跳過 MSA 操作。在 ViT 中,我們觀察到來自 MSA 塊(Z^MSA )的表示在第 2 層到第 7 層之間有很高的相關(guān)性,所以我們?cè)谶@些層中使用 SKIPAT 參數(shù)函數(shù)。這意味著我們將 Z^MSA2 作為輸入傳遞給 SKIPAT 參數(shù)函數(shù),并在 3-8 層中跳過 MSA 操作。相反,來自 SKIPAT 參數(shù)函數(shù)輸出的特征被用作 MLP 塊的輸入。表示的計(jì)算流現(xiàn)在被修改為:

28ff4d92-90a5-11ed-bfe3-dac502259ad0.png

由于 MSA 和 MLP 塊中存在殘留連接,第 3 層到第 8 層的 MLP 塊需要獨(dú)立地學(xué)習(xí)表示,不能從計(jì)算圖中刪除。值得注意的是,使用 SKIPAT 后 ViT 的總層數(shù)不變,但 MSA 塊的數(shù)量減少了。

Complexity: MSA vs. SKIPAT

自注意力操作包括三個(gè)步驟。首先,將token embeddings 投射到query、key和value embeddings,其次,計(jì)算注意力矩陣 A,它是 Q 和 K 的點(diǎn)積,最后,計(jì)算輸出表示作為 A 和 V 的點(diǎn)積。這導(dǎo)致了計(jì)算復(fù)雜度為 O(4nd^2 + n^2d)。由于 d ? n,所以 MSA 塊的復(fù)雜度可以降低到 O(n^2d)。

SKIPAT 參數(shù)函數(shù)由兩個(gè)線性層和一個(gè)深度卷積操作組成,計(jì)算復(fù)雜度為 O(2nd^2 + r^2nd),其中 r × r 是 DwC 操作的內(nèi)核大小。由于 r^2 ? d,所以 SKIPAT 的整體復(fù)雜度可以降低到 O(nd^2)。因此,當(dāng) n 隨著 transformer 的擴(kuò)大而增加時(shí),SKIPAT 的 FLOPs值 比 MSA 塊更少,即 O(nd^2) < O(n^2d)。

實(shí)驗(yàn)

290a2960-90a5-11ed-bfe3-dac502259ad0.png

上圖展示的是分割mask的可視化效果:第一行和第二行分別是原始Vit-S模型和Vit-S + SKIPAT模型。顯而易見,Vit-S + SKIPAT模型對(duì)圖像中前景和背景的區(qū)分度顯著高于原始Vit-S模型。

298a9d48-90a5-11ed-bfe3-dac502259ad0.png

上圖展示的是注意力圖的可視化效果:對(duì)比原始Vit-S模型(baseline),Vit-S + SKIPAT模型對(duì)目標(biāo)的定位能力有明顯提升。

29993204-90a5-11ed-bfe3-dac502259ad0.png

上圖展示的是特征圖和Z^MSA的相關(guān)性:從中可以清晰地觀察到在大多數(shù)不同層之間Z^MSA僅有較低的相關(guān)性。

圖象分類

29a68e40-90a5-11ed-bfe3-dac502259ad0.png

Image classification on ImageNet-1K.

自監(jiān)督

29b3284e-90a5-11ed-bfe3-dac502259ad0.png

Unsupervised Segmentation and Object Localization on the validation set of Pascal VOC2012.

推理性能

29c8a66a-90a5-11ed-bfe3-dac502259ad0.png

On-device latency (in msec) of vanilla ViT vs. SKIPAT.

語義分割

29d781b2-90a5-11ed-bfe3-dac502259ad0.png

Semantic Segmentation results on ADE20K.

圖像去噪

2a01f370-90a5-11ed-bfe3-dac502259ad0.png

Image denoising on SIDD dataset using PSNR andSSIM as the evaluation metrics in the RGB space.

總結(jié)

我們提出了一種可以在任何 ViT 架構(gòu)中即插即用的模塊 SKIPAT,用于減少昂貴的自注意力計(jì)算。SKIPAT 利用 MSA 塊之間的依賴性,并通過重用以前 MSA 塊的注意力表示來繞過注意力計(jì)算。此外,我們引入了一個(gè)簡單且輕量的參數(shù)函數(shù),它不會(huì)影響 MSA 中編碼的歸納偏見。SKIPAT 函數(shù)能夠捕獲跨token之間的關(guān)系,在吞吐量和 FLOPs 指標(biāo)上優(yōu)于基線模型,同時(shí)我們?cè)? 種不同的任務(wù)中充分地表現(xiàn)出SKIPAT的有效性。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼
    +關(guān)注

    關(guān)注

    6

    文章

    1039

    瀏覽量

    56996
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    156

    瀏覽量

    6939
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    630

    瀏覽量

    14674

原文標(biāo)題:即插即用!Skip-Attention:一種顯著降低Transformer計(jì)算量的輕量化方法

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于SIMP與折衷規(guī)劃法的航空附件齒輪箱結(jié)構(gòu)輕量化設(shè)計(jì)與動(dòng)態(tài)特性提升

    航空發(fā)動(dòng)機(jī)附件齒輪箱作為動(dòng)力傳遞系統(tǒng)的關(guān)鍵部件,其箱體結(jié)構(gòu)設(shè)計(jì)直接影響發(fā)動(dòng)機(jī)的功率密度、可靠性及振動(dòng)特性。針對(duì)傳統(tǒng)經(jīng)驗(yàn)設(shè)計(jì)方法難以滿足高剛度、輕量化及高動(dòng)態(tài)性能要求的挑戰(zhàn),本文提出了一種基于折衷規(guī)劃法的多目標(biāo)拓?fù)鋬?yōu)化
    的頭像 發(fā)表于 11-07 15:21 ?758次閱讀
    基于SIMP與折衷規(guī)劃法的航空附件齒輪箱結(jié)構(gòu)<b class='flag-5'>輕量化</b>設(shè)計(jì)與動(dòng)態(tài)特性提升

    長城汽車榮獲2025汽車輕量化大會(huì)六項(xiàng)大獎(jiǎng)

    近日,從2025(第十八屆)汽車輕量化大會(huì)傳來消息,長城汽車憑借“新代超強(qiáng)高性能車身”及系列創(chuàng)新技術(shù),舉榮獲 6 項(xiàng)大獎(jiǎng),成為同期車身會(huì)議和輕量化設(shè)計(jì)大賽的“大滿貫”獲獎(jiǎng)廠商。
    的頭像 發(fā)表于 09-25 14:27 ?726次閱讀

    H6392芯片5W輕量化與100W高性能——風(fēng)扇升壓芯片的選型邏輯與設(shè)計(jì)指南

    前言:升壓芯片如何驅(qū)動(dòng)風(fēng)扇? 在直流風(fēng)扇設(shè)計(jì)中,升壓芯片的作用是將電池或適配器的低電壓轉(zhuǎn)換為驅(qū)動(dòng)風(fēng)扇電機(jī)所需的高電壓,同時(shí)確保電路穩(wěn)定、安全。 H6392作為主流升壓芯片,分別針對(duì)輕量化與高功率場景
    發(fā)表于 09-17 09:57

    無人機(jī)飛控輕量化:合粵縮小體電容釋放空間,適配緊湊模組設(shè)計(jì)

    控系統(tǒng),通過創(chuàng)新性地縮小體電容釋放空間,成功實(shí)現(xiàn)了飛控模塊的緊湊化設(shè)計(jì),為無人機(jī)行業(yè)的輕量化發(fā)展提供了新的解決方案。 傳統(tǒng)飛控系統(tǒng)在設(shè)計(jì)時(shí)往往面臨個(gè)矛盾:方面需要足夠大的電容來保證系統(tǒng)穩(wěn)定運(yùn)行,另
    的頭像 發(fā)表于 09-16 15:57 ?605次閱讀
    無人機(jī)飛控<b class='flag-5'>輕量化</b>:合粵縮小體電容釋放空間,適配緊湊模組設(shè)計(jì)

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    計(jì)算 閃存的新穎方法代表了一種多用途的管理模型權(quán)重的策略,它根據(jù)輸入的性質(zhì)提升性能,從而增強(qiáng)所提出的方案在各種大模型場景中的有效性、可用性和實(shí)用性。 3、基于GPU的大模型計(jì)算 3.
    發(fā)表于 09-12 17:30

    靈活、高效,Sub-GHz頻段中的輕量化組網(wǎng)方案

    RFM23A020是輕量化組網(wǎng)SoC芯片,支持Sub-GHz無線通信,適用于低功耗、低成本的無線網(wǎng)絡(luò)部署。
    的頭像 發(fā)表于 08-08 15:58 ?1364次閱讀
    靈活、高效,Sub-GHz頻段中的<b class='flag-5'>輕量化</b>組網(wǎng)方案

    輕量化AI+AR眼鏡熱潮將至

    近期,Meta發(fā)布了今年第二季度的財(cái)報(bào),2025 年第二季度,Meta Reality Labs共實(shí)現(xiàn)了 3.7 億美元的收入,比 2024 年第二季度的 3.53 億美元增長 5%。在這增長背后的主要原因,是輕量化的Ray-Ban Meta眼鏡銷量增長明顯。
    的頭像 發(fā)表于 08-07 17:27 ?2116次閱讀

    大模型推理顯存和計(jì)算估計(jì)方法研究

    (如全連接層、卷積層等)確定所需的顯存大?。?(3)將各層顯存大小相加,得到模型總的顯存需求。 基于神經(jīng)網(wǎng)絡(luò)剪枝的顯存估計(jì) 神經(jīng)網(wǎng)絡(luò)剪枝是一種減少模型參數(shù)數(shù)量的技術(shù),可以降低顯存需求。通過剪枝,可以
    發(fā)表于 07-03 19:43

    代5W雙時(shí)隙數(shù)字模擬對(duì)講應(yīng)用模塊:高度集成化助力終端輕量化應(yīng)用

    上的多個(gè)核心電路高度集成至主控主板上,實(shí)現(xiàn)了“單板集成”設(shè)計(jì)。這優(yōu)化不僅簡化了客戶在應(yīng)用端的接線與安裝步驟,還顯著減少了整體設(shè)備的空間占用,使得模塊更適配輕量化
    的頭像 發(fā)表于 07-02 09:20 ?1484次閱讀
    新<b class='flag-5'>一</b>代5W雙時(shí)隙數(shù)字模擬對(duì)講應(yīng)用模塊:高度集成化助力終端<b class='flag-5'>輕量化</b>應(yīng)用

    輕量化5G網(wǎng)關(guān)和5gredcap網(wǎng)關(guān)有什么區(qū)別

    輕量化5G網(wǎng)關(guān)與5G RedCap網(wǎng)關(guān)本質(zhì)上是同類技術(shù)的不同表述 ,5G RedCap網(wǎng)關(guān)是輕量化5G網(wǎng)關(guān)的核心實(shí)現(xiàn)形式,而輕量化5G網(wǎng)關(guān)是RedCap技術(shù)應(yīng)用的場景化概念。以下從技
    的頭像 發(fā)表于 06-30 09:19 ?1222次閱讀

    不同類型的微型導(dǎo)軌精度降低速度有何差異?

    微型導(dǎo)軌是一種高精度、小體積、輕量化的直線運(yùn)動(dòng)導(dǎo)軌系統(tǒng),廣泛應(yīng)用于各種需要精密直線運(yùn)動(dòng)的領(lǐng)域。
    的頭像 發(fā)表于 06-27 18:04 ?383次閱讀
    不同類型的微型導(dǎo)軌精度<b class='flag-5'>降低</b>速度有何差異?

    潤和軟件破局昇騰310B輕量化難題

    在邊緣計(jì)算迅猛發(fā)展的浪潮中,昇騰310B作為關(guān)鍵AI算力芯片,在嵌入式場景的應(yīng)用價(jià)值持續(xù)凸顯。但受限于僅適配服務(wù)器操作系統(tǒng)的方案,該芯片存在資源輕量化瓶頸,在某些對(duì)鏡像大小與啟動(dòng)時(shí)間有嚴(yán)格限制的特殊
    的頭像 發(fā)表于 06-25 14:56 ?1734次閱讀
    潤和軟件破局昇騰310B<b class='flag-5'>輕量化</b>難題

    基于 HT for Web 的輕量化 3D 數(shù)字孿生數(shù)據(jù)中心解決方案

    ,支持 PC、移動(dòng)端瀏覽器直接訪問,兼容主流操作系統(tǒng)。 輕量化建模體系 : 支持 CAD、BIM 模型導(dǎo)入,通過幾何簡化、紋理壓縮等算法降低模型復(fù)雜度,適配 Web 端渲染性能。 提供參數(shù)化建模工具,可
    的頭像 發(fā)表于 05-30 14:33 ?905次閱讀
    基于 HT for Web 的<b class='flag-5'>輕量化</b> 3D 數(shù)字孿生數(shù)據(jù)中心解決方案

    基于雙向塊浮點(diǎn)量化的大語言模型高效加速器設(shè)計(jì)

    本文提出雙向塊浮點(diǎn)(BBFP)量化格式及基于其的LLMs加速器BBAL,通過雙向移位與重疊位設(shè)計(jì)顯著降低量化誤差,提升非線性計(jì)算效率,實(shí)現(xiàn)精
    的頭像 發(fā)表于 05-14 13:40 ?2386次閱讀
    基于雙向塊浮點(diǎn)<b class='flag-5'>量化</b>的大語言模型高效加速器設(shè)計(jì)

    唯卓仕AF 50mm F2.0 Air 正式發(fā)布:輕量化全畫幅鏡頭重塑50mm經(jīng)典焦段

    輕量化革新,定義標(biāo)準(zhǔn)焦段新標(biāo)桿隨著全畫幅微單市場的持續(xù)升溫,用戶對(duì)輕便高性能鏡頭的需求日益顯著。2025年4月2日,國產(chǎn)光學(xué)品牌Viltrox唯卓仕正式發(fā)布全新AF50mmF2.0AirFE/Z鏡頭
    的頭像 發(fā)表于 04-02 14:58 ?2367次閱讀
    唯卓仕AF 50mm F2.0 Air 正式發(fā)布:<b class='flag-5'>輕量化</b>全畫幅鏡頭重塑50mm經(jīng)典焦段