91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí):transformers的近期工作成果綜述

恬靜簡(jiǎn)樸1 ? 來(lái)源:恬靜簡(jiǎn)樸1 ? 作者:恬靜簡(jiǎn)樸1 ? 2022-10-19 10:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

transformers的近期工作成果綜述

基于 transformer 的雙向編碼器表示(BERT)和微軟的圖靈自然語(yǔ)言生成(T-NLG)等模型已經(jīng)在機(jī)器學(xué)習(xí)世界中廣泛的用于自然語(yǔ)言處理(NLP)任務(wù),如機(jī)器翻譯、文本摘要、問(wèn)題回答、蛋白質(zhì)折疊預(yù)測(cè),甚至圖像處理任務(wù)。

在本文中,對(duì)基于transformer 的工作成果做了一個(gè)簡(jiǎn)單的總結(jié),將最新的transformer 研究成果(特別是在2021年和2022年發(fā)表的研究成果)進(jìn)行詳細(xì)的調(diào)研。

這張圖與一篇調(diào)查論文[Tay 2022]中的圖相似,但被調(diào)transformers會(huì)更新并且它們的整體分類(lèi)也有很大的不同。

poYBAGNPWyeAM2fwAAFk3sRxWGg654.jpg

如圖所示,主要類(lèi)別包括計(jì)算復(fù)雜度、魯棒性、隱私性、近似性和模型壓縮等等。本文文字和專(zhuān)業(yè)術(shù)語(yǔ)較多,并且均翻譯自論文原文,如有錯(cuò)誤(很可能)請(qǐng)諒解。

計(jì)算復(fù)雜度

一些研究方向是以各種方式解決transformer的O(N2)計(jì)算復(fù)雜度。transformer的關(guān)鍵問(wèn)題之一是它與輸入序列長(zhǎng)度相關(guān)的二次復(fù)雜度。這意味著我們必須為每一層和注意頭計(jì)算N*N個(gè)注意矩陣。人們嘗試了各種方法來(lái)降低這種O(N2)復(fù)雜度,包括使用緩存體系結(jié)構(gòu)。

Sparse transformer是解決這種復(fù)雜性的流行方法之一。每個(gè)輸出位置從輸入位置的一個(gè)子集計(jì)算權(quán)重。如果子集是√(N),那么transformer的復(fù)雜度降低到O(N *√(N)),并允許它處理更大范圍的依賴(lài)關(guān)系。

Longformer使用了帶窗口的局部注意力(對(duì)于窗口大小為w的窗口,每個(gè)令牌會(huì)注意到兩邊的w/2個(gè)令牌,而不是整個(gè)輸入)并且使用特殊令牌的任務(wù)驅(qū)動(dòng)的全局注意力進(jìn)行組合。

另一項(xiàng)被稱(chēng)為BigBird [Manzil 2020]的工作使用了圖稀疏化技術(shù)。它使用一種稱(chēng)為Watts-Strogatz圖的特殊圖,它近似于一個(gè)完整的圖可以實(shí)現(xiàn)輸入序列的線性復(fù)雜度。作者表明在標(biāo)準(zhǔn)精度假設(shè)下,BigBird是圖靈完備的。他們還評(píng)估BigBird在遠(yuǎn)距離依賴(lài)的任務(wù)上的表現(xiàn),特別是在提取基因組序列(如DNA)和預(yù)測(cè)結(jié)果染色質(zhì)譜方面

Linformer使用線性投影和低秩因子分解的組合逼近點(diǎn)積注意運(yùn)算[Wang2020]。

上面許多基于稀疏矩陣操作的transformer可能需要稀疏矩陣乘法操作,這種方式并不是在所有體系結(jié)構(gòu)上都可用。他們也傾向于堆疊更多的注意力層來(lái)彌補(bǔ)稀疏性,從而導(dǎo)致總體上的算力的增加。對(duì)于某些操作,如softmax操作也可能不容易;還有多項(xiàng)式probit運(yùn)算也不容易稀疏化。

谷歌提出了一個(gè)廣義注意框架Performer,可以根據(jù)不同的相似性度量或內(nèi)核來(lái)指定廣泛的注意力機(jī)制。他們通過(guò)積極的正交隨機(jī)特征(Favor+)算法來(lái)實(shí)現(xiàn)注意力的機(jī)制。他們還表明可以通過(guò)指數(shù)函數(shù)和隨機(jī)高斯投影的組合來(lái)近似普通的softmax注意。Performer在蛋白質(zhì)序列預(yù)測(cè)任務(wù)等方面優(yōu)于標(biāo)準(zhǔn)模型。

Wang等[Wang 2021]提出了一種用于無(wú)卷積的密集預(yù)測(cè)的金字塔視覺(jué)transformer(PVT)。這一問(wèn)題克服了基于VIT的模型在將密集的預(yù)測(cè)任務(wù)時(shí)遇到了困難,PVT有助于各種像素級(jí)密度預(yù)測(cè),并且不需要卷積和非最大抑制,如目標(biāo)檢測(cè)方法。采用漸進(jìn)式收縮金字塔和空間減少注意力可以很容易地連接transformer。最后在圖像分類(lèi)、目標(biāo)檢測(cè)、實(shí)例和語(yǔ)義分割等任務(wù)中PVT也是可用的。

Liu等人[Liu 2021]討論了transformer從語(yǔ)言領(lǐng)域到視覺(jué)領(lǐng)域的適應(yīng)問(wèn)題,方法包括大量視覺(jué)實(shí)體的差異和與文本中的文字相比的圖像的高分辨率像素差異。為了解決這個(gè)問(wèn)題,作者提出了Swin Transformer [Lui 2021],這是一種分層方法,其表示是使用移位窗口計(jì)算。該技術(shù)更有效地克服了自注意力局部窗口不重疊的問(wèn)題。

Chu等人[Chu 2021]討論了空間注意對(duì)于transformer在各種任務(wù)中的性能成功的重要性。作者提出了兩個(gè)簡(jiǎn)單而高效的體系結(jié)構(gòu):twin - pcpvt和twin - svt。twin -pcpvt使用可分離的深度卷積注意機(jī)(depth-wise convolution attention machine),又被稱(chēng)為空間分離自注意力(spatial-separable self-attention - SSSA)。SSSA使用兩種類(lèi)型的注意力操作:本地分組的自注意力(LSA)和全局次采樣的注意力(GSA)。LSA處理細(xì)粒度和短距離信息,而GSA則處理長(zhǎng)距離序列和全局信息。另一個(gè)方法twin - svt同時(shí)使用LSA和帶有矩陣乘法的GSA。

光譜的復(fù)雜性

通過(guò)將自注意網(wǎng)絡(luò)替換為混合輸入令牌的線性轉(zhuǎn)換,可以設(shè)計(jì)高效的transformer來(lái)加速編碼器架構(gòu)。transformer的自注意層被參數(shù)化的傅里葉變換(Fnet)取代[Lee-Thorp 2022],然后是一個(gè)非線性和前饋網(wǎng)絡(luò)。與BERT相比,該網(wǎng)絡(luò)速度快80%,可以達(dá)到傳統(tǒng)transformer性能的92%到97%。

The Global Frequency network(GFnet) [Rao 2022]提出了一種用于令牌混合的深度全局卷積。GFnet涉及三個(gè)步驟:通過(guò)快速傅里葉變換(FFT)進(jìn)行空間令牌混合、頻率門(mén)控和反FFT進(jìn)行令牌分解。GFnet不涉及信道混合,隨著序列長(zhǎng)度的增加,對(duì)于高像素的圖像來(lái)說(shuō)消耗非常大,而且不具有自適應(yīng)能力。

Guibias等人[Guibias 2022]將令牌混合任務(wù)定義為一種操作符學(xué)習(xí)任務(wù),該任務(wù)是學(xué)習(xí)在無(wú)限尺寸空間中連續(xù)函數(shù)之間的映射。Li等人[Li 2020]討論了使用傅里葉神經(jīng)算符(FNO)求解偏微分方程(PDE)。FNO在連續(xù)域中工作良好。

將FNO應(yīng)用于高分辨率圖像輸入的視覺(jué)域,需要對(duì)PDE的FNO設(shè)計(jì)體系結(jié)構(gòu)進(jìn)行修改。這是因?yàn)楦叻直媛穲D像由于邊緣和其他結(jié)構(gòu)而具有不連續(xù)性。信道混合FNO與信道大小有關(guān),具有二次復(fù)雜度。信道混合權(quán)重采用塊對(duì)角線結(jié)構(gòu)來(lái)解決信道混合問(wèn)題。作者在MLP層的令牌之間共享權(quán)重以提高參數(shù)效率,并使用軟閾值在頻域引入稀疏性以進(jìn)行泛化。這些解決方案結(jié)合稱(chēng)為自適應(yīng)傅里葉神經(jīng)算子(AFNO)。

Bai等人[Bai 2022]提出了HAT方法(High-frequency components via Adversarial Training),該方法在訓(xùn)練階段對(duì)組件進(jìn)行高頻擾動(dòng)。HAT方法通過(guò)添加對(duì)抗性擾動(dòng)改變訓(xùn)練圖像的高頻成分,然后用改變后的圖像訓(xùn)練ViT [Bai 2022]模型,這樣可以提高模型性能,使模型更魯棒。

魯棒性

Shao等[Shao 2021]利分析了transformer模型的魯棒性。作者使用白盒攻擊進(jìn)行了一個(gè)實(shí)驗(yàn)。他們觀察到與卷積神經(jīng)網(wǎng)絡(luò)(CNNs)相比,ViT具有更好的對(duì)抗魯棒性。ViT特征包含低層信息,對(duì)對(duì)抗攻擊提供了優(yōu)越的魯棒性,并指出與增加尺寸或增加層數(shù)的純transformer模型相比,cnn和transformer的組合具有更好的魯棒性。他們還發(fā)現(xiàn)預(yù)訓(xùn)練更大的數(shù)據(jù)集并不能提高魯棒性。對(duì)于一個(gè)穩(wěn)健的模型,情況正好相反。

Bhojanapalli等人[Bhojanapalli 2021]調(diào)查了ViT模型和resnet模型針對(duì)對(duì)抗實(shí)例、自然實(shí)例和常見(jiàn)破壞的各種魯棒性度量。作者研究了對(duì)輸入和模型擾動(dòng)的魯棒性。無(wú)論是從輸入還是從模型中去除任何一層,transformer都是魯棒的。

Paul等人[Paul 2022]研究了ViT [Dosovitskiy 2020]、cnn和Big Transformer[Kolesnikov 2020]方法的魯棒性。Paul等人[Paul 2022]在ImageNet數(shù)據(jù)集上對(duì)ViTs的魯棒性進(jìn)行了基準(zhǔn)測(cè)試。結(jié)果在表r中。通過(guò)6個(gè)實(shí)驗(yàn),作者驗(yàn)證了與CNN和Big Transformer相比,ViT在魯棒性方面有了提高。這些實(shí)驗(yàn)的結(jié)果包括:

實(shí)驗(yàn)1:注意力是提高魯棒性的關(guān)鍵。

實(shí)驗(yàn)2:預(yù)訓(xùn)練的作用很重要。

實(shí)驗(yàn)3:ViT對(duì)圖像遮蔽具有較好的魯棒性。

實(shí)驗(yàn)4:傅里葉頻譜分析顯示ViT的靈敏度較低。

實(shí)驗(yàn)5:對(duì)抗性擾動(dòng)在能量譜中擴(kuò)散得更廣。

實(shí)驗(yàn)6:ViT對(duì)輸入擾動(dòng)有更平滑的損失。

pYYBAGNPWyiAGQ4gAAB6s4_zFhM679.jpg

根據(jù)Park等人[Park 2022]的研究,與cnn相比ViT [Dosovitskiy 2020]在捕獲圖像高頻成分方面的效率較低。HAT [Bai 2022]是對(duì)現(xiàn)有transformer模型在頻率角度的影響進(jìn)行進(jìn)一步研究的結(jié)果。HAT使用RandAugment方法對(duì)輸入圖像的進(jìn)行高頻分量擾動(dòng)。Wu等人[Wu 2022]研究了易受對(duì)抗實(shí)例影響的transformer模型的問(wèn)題。這個(gè)問(wèn)題(對(duì)對(duì)抗性噪聲的脆弱性)在cnn中是通過(guò)對(duì)抗性訓(xùn)練來(lái)處理的。但在transformer中,由于自注意計(jì)算的二次復(fù)雜度,對(duì)抗訓(xùn)練的計(jì)算成本很高。AGAT方法采用了一種有效的注意引導(dǎo)對(duì)抗機(jī)制,在對(duì)抗訓(xùn)練過(guò)程中使用注意引導(dǎo)下降策略去除每一層嵌入的確定性補(bǔ)丁。

隱私

預(yù)訓(xùn)練的transformer模型部署在云上?;谠频哪P筒渴鹬械囊粋€(gè)主要問(wèn)題與數(shù)據(jù)中隱私問(wèn)題有關(guān)。主要的隱私問(wèn)題是用戶(hù)數(shù)據(jù)(如搜索歷史、醫(yī)療記錄和銀行賬戶(hù))的暴露。目前的研究重點(diǎn)是在transformer模型推理中保護(hù)隱私。

論文[Huang 2020]介紹了TextHide,一種保護(hù)隱私的聯(lián)邦學(xué)習(xí)技術(shù),但這種方法適用于基于句子的任務(wù),如機(jī)器翻譯、情緒分析、轉(zhuǎn)述生成任務(wù)),而不是基于令牌的任務(wù)(如名稱(chēng)實(shí)體識(shí)別和語(yǔ)義角色標(biāo)記)。

DP-finetune [Kerrigan 2020]差分隱私(DP)方法允許量化保護(hù)數(shù)據(jù)敏感性的程度。但是訓(xùn)練DP算法會(huì)降低模型的質(zhì)量,但是可以在私有數(shù)據(jù)集上使用公共基礎(chǔ)模型進(jìn)行調(diào)優(yōu)來(lái)部分解決。

Gentry等人[Gentry 2009]提出了一種用homomorphic encryption(HE)中的密文保護(hù)隱私的方法。但是transformer的模型中GELU [Hendrycks 2016]激活的計(jì)算復(fù)雜性,HE解決方案只支持加法和乘法。

論文[Chen 2022]在transformer中基于HE [Boemer 2019, Boemer 2020]的解上提出了一種通過(guò)級(jí)數(shù)逼近的The - x方法。the - x方法在SoftMax和GELU等層的幫助下,用一系列近似代替非多項(xiàng)式操作,去掉池器層,添加歸一化層,使用知識(shí)蒸餾技術(shù)。THE-X方法使用BERT-Tiny Model進(jìn)行評(píng)估[Wang 2018],并對(duì)CONLL2003 [Sang2003]任務(wù)進(jìn)行了基準(zhǔn)測(cè)試。

Li等人[Li 2022]使用差分隱私算法解決了性能下降和高計(jì)算開(kāi)銷(xiāo)的問(wèn)題。這樣可以使用更大的預(yù)訓(xùn)練語(yǔ)言模型來(lái)處理,也可以通過(guò)在中等語(yǔ)料庫(kù)上使用DP優(yōu)化進(jìn)行微調(diào)的對(duì)齊預(yù)訓(xùn)練過(guò)程來(lái)進(jìn)行微調(diào)。

近似性

論文[Ruthotto 2019]是最早為ResNets等深度神經(jīng)網(wǎng)絡(luò)提供基于偏微分方程(PDEs)的理論基礎(chǔ)的論文之一。更具體地說(shuō),作者證明了殘差cnn可以解釋為時(shí)空微分方程的離散化。在理論表征的基礎(chǔ)上,Ruthotto還提出了具有特殊性質(zhì)的雙曲和拋物線cnn等新模型。

殘差網(wǎng)絡(luò)也被解釋為常微分方程的歐拉離散化。但歐拉法求解精度不高,由于是一階方法,存在截?cái)嗾`差。ODE Transformers [Bei 2022]的作者使用了經(jīng)典的高階方法(Runge Kutta)來(lái)構(gòu)建Transformer塊。他們?cè)谌齻€(gè)序列生成任務(wù)上評(píng)估了ODE Transformers 。這些任務(wù)證明了ODE是有效的,包括抽象摘要、機(jī)器翻譯和語(yǔ)法糾正。在這個(gè)方向上的另一項(xiàng)努力是TransEvolve [Dutta 2021],它提供了一個(gè)Transformer架構(gòu),與ODE類(lèi)似,但以多粒子動(dòng)態(tài)系統(tǒng)為模型。

Transformers 已經(jīng)被證明相當(dāng)于通用計(jì)算引擎[Kevin 2022]。作者提出了一種稱(chēng)為Frozen pretrain transformer (FPT)的結(jié)構(gòu),它可以在單一模態(tài)(如用于語(yǔ)言建模的文本數(shù)據(jù))上進(jìn)行訓(xùn)練,并識(shí)別跨模態(tài)有用的抽象(如特征表示)。他們采用GPT,只對(duì)自然語(yǔ)言數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,并對(duì)其輸入和輸出層以及層歸一化參數(shù)和位置嵌入進(jìn)行微調(diào)。這使得FPT在完成蛋白質(zhì)折疊預(yù)測(cè)、數(shù)值計(jì)算甚至圖像分類(lèi)等各種任務(wù)時(shí),可以與完全從零開(kāi)始訓(xùn)練的transformer進(jìn)行比較。

模型壓縮

Touvron等人[Touvron 2021]提出了一種基于蒸餾技術(shù)(Deit)的高效transformer模型。它使用一種依賴(lài)于蒸餾令牌的師生策略,以確保學(xué)生通過(guò)注意力從老師那里學(xué)習(xí)。

Bao等人[Bao 2021]向預(yù)訓(xùn)練的VIT提出了一個(gè)遮蔽圖像模型任務(wù)。作者提出了一種基于自監(jiān)督的視覺(jué)表示模型,即來(lái)自圖像transformer的雙向編碼器表示(BEiT),它遵循了為自然語(yǔ)言處理領(lǐng)域開(kāi)發(fā)的BERT [Kenton 2019]方法。在這種方法中,每個(gè)圖像被認(rèn)為是兩個(gè)視圖:一個(gè)是大小為16 x 16像素的圖像補(bǔ)丁,另一個(gè)是離散的可視標(biāo)記。將原始圖像標(biāo)記為可視標(biāo)記,并對(duì)部分圖像補(bǔ)丁進(jìn)行隨機(jī)掩碼,然后將其饋送給預(yù)訓(xùn)練的骨干transformer。訓(xùn)練BEiT后,模型可以針對(duì)下游任務(wù)進(jìn)行微調(diào)。

作者:Dr. Vijay Srinivas Agneeswaran

學(xué)習(xí) 人工智能技術(shù)與咨詢(xún)

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    中科創(chuàng)達(dá)完成魔方派3與AIBOX全棧深度適配及規(guī)?;渴?/a>

    吸引國(guó)內(nèi)外大廠紛紛布局,成為2026年開(kāi)年AI圈最受關(guān)注的現(xiàn)象級(jí)開(kāi)源項(xiàng)目。 作為AIOS與端側(cè)智能領(lǐng)域的引領(lǐng)者,中科創(chuàng)達(dá)正式官宣重磅合作成果——依托自身深耕多年的端側(cè)智能技術(shù)積淀,以及AIOS在多場(chǎng)景
    的頭像 發(fā)表于 02-12 16:09 ?1840次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注
    的頭像 發(fā)表于 01-07 15:37 ?211次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺(jué)深度學(xué)習(xí)

    ,能適用惡劣工況,在粉塵、高溫、氧化皮等惡劣環(huán)境中均可正常工作。 測(cè)量原理 利用頂頭與周?chē)奈镔|(zhì)(水、空氣、導(dǎo)盤(pán)等)紅外輻射能量的差異,用熱成像相機(jī)拍攝出清晰的圖片,再通過(guò)深度學(xué)習(xí)短時(shí)間內(nèi)深度
    發(fā)表于 12-22 14:33

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類(lèi):對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類(lèi) 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?230次閱讀

    兆芯處理器近期適配成果推薦

    近期,基于開(kāi)先KX-7000、開(kāi)勝KH-50000/KH-40000等高性能自主處理器平臺(tái),兆芯與多家產(chǎn)業(yè)生態(tài)伙伴合作,共同完成了包括AI加速卡、企業(yè)級(jí)/消費(fèi)級(jí)SSD、顯卡、公共廣播/數(shù)字會(huì)議
    的頭像 發(fā)表于 10-15 15:47 ?1170次閱讀

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概
    的頭像 發(fā)表于 09-10 17:38 ?911次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過(guò)模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1038次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4203次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來(lái),隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門(mén)的研究領(lǐng)域之一。在語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域,深度學(xué)習(xí)取得了顯著
    發(fā)表于 07-14 14:50 ?1252次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    中科慧眼兩項(xiàng)成果入選2025年企業(yè)科技工作者評(píng)價(jià)案例庫(kù)

    近期,中國(guó)科學(xué)技術(shù)協(xié)會(huì)正式公布“2025年企業(yè)科技工作者評(píng)價(jià)案例庫(kù)”入庫(kù)名單。中科慧眼團(tuán)隊(duì)?wèi){借卓越的技術(shù)實(shí)力與扎實(shí)的實(shí)踐成效,成功入選兩項(xiàng)重大案例成果,成為本次評(píng)選中的亮點(diǎn)之一,充分彰顯了公司在智能科技領(lǐng)域的創(chuàng)新引領(lǐng)地位與硬核實(shí)
    的頭像 發(fā)表于 06-30 11:49 ?1417次閱讀

    活動(dòng)名單公布!學(xué)電路設(shè)計(jì)分享學(xué)習(xí)心得、技術(shù)疑問(wèn)及實(shí)戰(zhàn)成果,贏取專(zhuān)屬禮品!

    激勵(lì)學(xué)員分享學(xué)習(xí)心得、提出技術(shù)問(wèn)題、展示實(shí)戰(zhàn)成果,打造活躍的技術(shù)交流社區(qū),并為學(xué)員提供與講師直接互動(dòng)的機(jī)會(huì)。 本課程主要從怎樣設(shè)計(jì)一個(gè)完整的項(xiàng)目入手,跟大家講解了元器件的類(lèi)別,熟悉元器件的封裝,功率如何計(jì)算
    發(fā)表于 05-14 09:53

    虹軟與TI聯(lián)合亮相慕尼黑上海電子展 展示智能駕駛領(lǐng)域的合作成果

    的合作成果,重點(diǎn)展出了基于TI平臺(tái)的智能駕駛解決方案,涵蓋主動(dòng)安全、駕駛輔助、泊車(chē)輔助等關(guān)鍵功能模塊,具備成熟的量產(chǎn)可行性與平臺(tái)兼容性,吸引了眾多專(zhuān)業(yè)觀眾駐足交流。 虹軟構(gòu)建多層級(jí)感知矩陣,布局智駕全場(chǎng)景應(yīng)用 作為視覺(jué)AI領(lǐng)域的核心技術(shù)提供商,虹軟長(zhǎng)期
    的頭像 發(fā)表于 04-17 10:25 ?1559次閱讀
    虹軟與TI聯(lián)合亮相慕尼黑上海電子展 展示智能駕駛領(lǐng)域的合<b class='flag-5'>作成果</b>

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1525次閱讀

    永磁同步電機(jī)參數(shù)辨識(shí)研究綜述

    參數(shù)辨識(shí)的技術(shù)成果,再對(duì) PMSM 辨識(shí)方法進(jìn)行歸納和比較,最后,揭示 PMSM 參數(shù)辨識(shí)過(guò)程中亟需關(guān)注的研究問(wèn)題并 展望其未來(lái)的發(fā)展方向,旨在實(shí)現(xiàn) PMSM 系統(tǒng)的高效可靠運(yùn)行。純分享帖,點(diǎn)擊附件查看全文*附件:永磁同步電機(jī)參數(shù)辨識(shí)研究綜述.pdf
    發(fā)表于 03-26 14:13

    兆芯CPU近期適配認(rèn)證成果

    近期,基于開(kāi)先KX-7000、開(kāi)勝KH-40000等系列自主處理器,兆芯與國(guó)內(nèi)多家產(chǎn)業(yè)伙伴攜手展開(kāi)應(yīng)用適配認(rèn)證工作,完成了包括網(wǎng)卡、磁盤(pán)陣列控制卡、PCIe4.0高速SSD,以及分布式數(shù)據(jù)庫(kù)、數(shù)據(jù)
    的頭像 發(fā)表于 03-12 10:15 ?1338次閱讀