91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

輕量級(jí)視覺(jué)模型設(shè)計(jì)的新啟發(fā)

云天勵(lì)飛 ? 來(lái)源:云天勵(lì)飛 ? 作者:云天勵(lì)飛 ? 2022-07-28 09:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

計(jì)算機(jī)視覺(jué)兩大門派功力合體,給移動(dòng)端視覺(jué)任務(wù)減負(fù)增速。

當(dāng)下,計(jì)算機(jī)視覺(jué)領(lǐng)域最熱議的方向,莫過(guò)于近兩年越來(lái)越火的視覺(jué)Transformer(ViT)和傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)(ConvNet),誰(shuí)才能主宰計(jì)算機(jī)視覺(jué)的未來(lái)?

風(fēng)頭正盛的ViT,是計(jì)算機(jī)視覺(jué)領(lǐng)域過(guò)去十年最矚目的研究突破之一。2020年,谷歌視覺(jué)大模型Vision Transformer(ViT)橫空出世,憑借碾壓各路ConvNet的性能表現(xiàn),一舉掀起Transformer在計(jì)算機(jī)視覺(jué)領(lǐng)域的研究熱潮。

但“ConvNet派”還沒(méi)到低頭認(rèn)輸?shù)臅r(shí)候。2022年1月,Meta AI研究院、加州大學(xué)伯克利分校的研究人員發(fā)表了卷積神經(jīng)網(wǎng)絡(luò)的“扛鼎之作”——ConvNeXt,基于純ConvNet新架構(gòu),取得了超過(guò)先進(jìn)ViT的計(jì)算速度和精度。

6804b1ee-0e14-11ed-ba43-dac502259ad0.png

▲ConvNet與ViT模型圖像分類實(shí)驗(yàn)結(jié)果對(duì)比

ViT論文:https://arxiv.org/abs/2010.11929

ConvNeXt論文:https://arxiv.org/abs/2201.03545

那如果將這兩類模型的優(yōu)勢(shì)互補(bǔ),會(huì)不會(huì)產(chǎn)生1+1》2的效果?

近日,基于這一思路的論文《ParC-Net:繼承ConvNet和Transformer優(yōu)點(diǎn)的位置敏感的循環(huán)卷積》入選了計(jì)算機(jī)視覺(jué)頂會(huì)ECCV 2022,并引發(fā)國(guó)內(nèi)外廣泛關(guān)注。

這篇論文提出了一種面向移動(dòng)端、融入ViT優(yōu)點(diǎn)的純卷積結(jié)構(gòu)模型ParC-Net,能以更小的參數(shù)量,在常見(jiàn)視覺(jué)任務(wù)中實(shí)現(xiàn)比主流輕量級(jí)ConvNet更好的性能。

68108d5c-0e14-11ed-ba43-dac502259ad0.png

▲ParC-Net在三種視覺(jué)任務(wù)實(shí)驗(yàn)中均以更小參數(shù)量取得最佳性能表現(xiàn)

值得一提的是,論文提出一種既有全局感受野、又對(duì)位置信息保持敏感的基礎(chǔ)卷積算子ParC,它能與現(xiàn)有主流網(wǎng)絡(luò)結(jié)構(gòu)融合,兼顧模型性能和計(jì)算速度的提升,相關(guān)代碼現(xiàn)已開(kāi)源。

具體是怎么實(shí)現(xiàn)的?我們聯(lián)系到論文第一作者張?zhí)栧硬┦?,并與其進(jìn)行深入交流。

ParC論文:https://arxiv.org/abs/2203.03952

源代碼:https://github.com/hkzhang91/ParC-Net

01.

取ViT的三個(gè)亮點(diǎn),將純卷積結(jié)構(gòu)變強(qiáng)

在計(jì)算機(jī)視覺(jué)領(lǐng)域,ViT模型性能彪悍,門檻和成本卻驚人,無(wú)論是龐大數(shù)據(jù)量,還是超高算力需求,都離不開(kāi)“鈔能力”的支撐。

相比之下,輕量級(jí)ConvNet雖然性能難以與ViT媲美,但具有易訓(xùn)練、參數(shù)量少、計(jì)算成本低、推理速度快等優(yōu)勢(shì),對(duì)硬件資源的需求不像ViT那么受限,可部署在各種移動(dòng)或邊緣計(jì)算設(shè)備上。此前較流行的輕量級(jí)ConvNet有ShuffleNet、MobileNet、EfficientNet、TinyNet等等。

經(jīng)對(duì)比,云天勵(lì)飛的研究人員借鑒ViT的優(yōu)點(diǎn),基于卷積結(jié)構(gòu)設(shè)計(jì)了一個(gè)輕量級(jí)骨干模型ParC-Net。

論文作者認(rèn)為,ViT和ConvNet有三個(gè)主要區(qū)別:ViT更擅長(zhǎng)提取全局特征,采用meta-former結(jié)構(gòu),而且信息集成由數(shù)據(jù)驅(qū)動(dòng)。ParC的設(shè)計(jì)思路便是從這三點(diǎn)著手來(lái)優(yōu)化ConvNet。

6826304e-0e14-11ed-ba43-dac502259ad0.png

▲普通ConvNet和ViT之間的三個(gè)主要區(qū)別。(a) ConvNet常用的Residual block;(b) ViT中常用的Meta-Former 結(jié)構(gòu);(c) 本文提出的ParC block。

具體而言,研究人員設(shè)計(jì)了一種位置信息敏感的循環(huán)卷積(Position aware circular convolution, ParC)。這是一種簡(jiǎn)單有效的輕量卷積運(yùn)算算子,既擁有像ViT類結(jié)構(gòu)的全局感受野,同時(shí)產(chǎn)生了像局部卷積那樣的位置敏感特征,能克服依賴自注意力結(jié)構(gòu)提取全局特征的問(wèn)題。

ParC結(jié)構(gòu)主要包含三部分改動(dòng):1)結(jié)合circular padding和大感受野低秩分解卷積核提取全局特征;2)引入位置嵌入,保證輸出特征對(duì)于空間位置信息的敏感性;3)動(dòng)態(tài)插值實(shí)時(shí)生成尺寸適配的卷積核和位置編碼,應(yīng)對(duì)輸入分辨率變化情況,這增強(qiáng)了對(duì)不同尺寸輸入的適應(yīng)能力。

6834f4a8-0e14-11ed-ba43-dac502259ad0.png

▲ParC結(jié)構(gòu)示例

研究人員還將ParC和squeeze exictation(SE)操作結(jié)合起來(lái),構(gòu)建了一個(gè)純卷積結(jié)構(gòu)的meta former結(jié)構(gòu)。該結(jié)構(gòu)舍棄了自注意力硬件支持不友好的操作,但保留了傳統(tǒng)Transformer塊提取全局特征的特點(diǎn)。

然后,研究人員在channel mixer部分引入硬件支持較友好的通道注意力機(jī)制,使其純卷積meta former結(jié)構(gòu)也具備自注意力的特點(diǎn)。

基于ParC結(jié)構(gòu)最終得到的ParC塊,可作為一個(gè)即插即用的基礎(chǔ)單元,替換現(xiàn)有ViT或ConvNet模型中的相關(guān)塊,從而提升精度,并降低計(jì)算成本,有效克服硬件支持的問(wèn)題。

683fad62-0e14-11ed-ba43-dac502259ad0.png

▲ParC實(shí)驗(yàn)結(jié)果

02.

三大視覺(jué)任務(wù)表現(xiàn)出色 多項(xiàng)指標(biāo)打敗蘋果MobileViT

“據(jù)我們所知,這是第一次嘗試結(jié)合ConvNet和ViT的優(yōu)點(diǎn)來(lái)設(shè)計(jì)一個(gè)輕量級(jí)Pure-ConvNet的結(jié)構(gòu)。”論文作者如此描述ParC-Net的開(kāi)創(chuàng)性。

實(shí)驗(yàn)結(jié)果表明,在圖像分類、物體檢測(cè)、語(yǔ)義分割這三類常見(jiàn)的視覺(jué)任務(wù)中,混合結(jié)構(gòu)的模型性能表現(xiàn)普遍高于當(dāng)前主流的一些純卷積結(jié)構(gòu)、ViT結(jié)構(gòu)的模型,其中ParC-Net模型取得了最好的整體性能表現(xiàn)。

68550856-0e14-11ed-ba43-dac502259ad0.png

▲對(duì)于ImageNet-1k的圖像分類實(shí)驗(yàn)結(jié)果

在圖像分類實(shí)驗(yàn)中,對(duì)于ImageNet-1k的分類,ParC-Net使用的參數(shù)規(guī)模最小(大約500萬(wàn)個(gè)參數(shù)),卻實(shí)現(xiàn)了最高準(zhǔn)確率78.6%。

MobileViT是蘋果公司2022年在國(guó)際深度學(xué)習(xí)頂會(huì)ICLR22上提出的輕量級(jí)通用ViT模型。同樣部署在基于Arm瑞芯微RK3288芯片上,相較基線模型MobileViT,ParC-Net節(jié)省了11%的參數(shù)和13%的計(jì)算成本,同時(shí)準(zhǔn)確率提高了0.2%,推理速度提高了23%。

6863bc5c-0e14-11ed-ba43-dac502259ad0.png

▲與基準(zhǔn)模型的推理速度對(duì)比

與基于ViT結(jié)構(gòu)的模型相比,ParC-Net的參數(shù)量只有Meta AI團(tuán)隊(duì)DeiT模型參數(shù)的一半左右,準(zhǔn)確率卻比DeiT提高了2.7%。

在MS-COCO物體檢測(cè)和PASCAL VOC分割任務(wù)中,ParC-Net同樣基于較少的參數(shù),實(shí)現(xiàn)了更好的性能、更快的推理速度。

686fb822-0e14-11ed-ba43-dac502259ad0.png

▲MS-COCO物體檢測(cè)實(shí)驗(yàn)結(jié)果

688845fe-0e14-11ed-ba43-dac502259ad0.png

▲PASCAL VOC分割任務(wù)實(shí)驗(yàn)結(jié)果

張?zhí)栧硬┦渴荘arC-Net論文的第一作者,現(xiàn)任深圳云天勵(lì)飛資深算法研究員,研究領(lǐng)域包括網(wǎng)絡(luò)結(jié)構(gòu)搜索、深度估計(jì)、輕量化骨干模型、信息檢索及高光譜圖像分類等。

他告訴智東西,傳統(tǒng)ConvNet可以適應(yīng)視覺(jué)任務(wù)中輸入分辨率的變化,而具有全局感受野的純卷積結(jié)構(gòu)的缺陷是卷積核必須跟輸入分辨率保持一致,為了更好應(yīng)對(duì)分辨率的變化,其團(tuán)隊(duì)正在研究將模型做成動(dòng)態(tài)卷積的形式,以提高魯棒性。

目前這項(xiàng)研究成果已經(jīng)可以用在算力受限的移動(dòng)端或邊緣設(shè)備中,實(shí)現(xiàn)更高準(zhǔn)確率的視覺(jué)任務(wù)。如果進(jìn)行一些小的改動(dòng),ParC-Net還可以被用于其他的視覺(jué)任務(wù),例如6DOF姿態(tài)評(píng)估及其他dense prediction的任務(wù)。

03.

與自研芯片協(xié)同 運(yùn)算速度可提升快3~4倍

那么ParC-Net模型的研究成果,具體如何在實(shí)際業(yè)務(wù)場(chǎng)景中發(fā)揮價(jià)值?

據(jù)介紹,一方面,ParC-Net模型可以集成到開(kāi)源算法訓(xùn)練平臺(tái)YMIR中,然后被部署至終端設(shè)備;另一方面,通過(guò)與云天勵(lì)飛自研芯片協(xié)同,它能將運(yùn)算速度和精度進(jìn)一步提升。

YMIR是一個(gè)高度自動(dòng)化的AI模型開(kāi)發(fā)平臺(tái),能做到利用鼠標(biāo)簡(jiǎn)單操作就可以完成數(shù)據(jù)收集、模型訓(xùn)練、數(shù)據(jù)挖掘、數(shù)據(jù)標(biāo)注等功能。將擁有高運(yùn)算效率的ParC-Net模型版本上傳至YMIR后,用戶可在該平臺(tái)上直接選用ParC-Net模型,也可以針對(duì)具體業(yè)務(wù)場(chǎng)景,添加相應(yīng)的數(shù)據(jù)集對(duì)ParC-Net進(jìn)行再訓(xùn)練,從而獲得能更好滿足業(yè)務(wù)需求的模型。

以前有些對(duì)精度要求高或者采用ViT結(jié)構(gòu)的移動(dòng)端視覺(jué)任務(wù),受限于計(jì)算效率問(wèn)題,難以在攝像頭設(shè)備或手機(jī)上運(yùn)行,而上傳到云端做運(yùn)算,對(duì)有較高實(shí)時(shí)性要求的視覺(jué)任務(wù)不是很友好。

ParC-Net則較好地改善了這類問(wèn)題,在模型精度和推理效率之間實(shí)現(xiàn)平衡,使得邊緣設(shè)備可以在本地運(yùn)行一些對(duì)精度要求高的視覺(jué)任務(wù)。比如,人臉識(shí)別終端設(shè)備可運(yùn)用ParC-Net直接對(duì)路過(guò)的人進(jìn)行高質(zhì)量特征值提取,無(wú)需將數(shù)據(jù)傳輸?shù)皆贫?,就能與數(shù)據(jù)庫(kù)進(jìn)行檢索比對(duì)。

與云天勵(lì)飛自研芯片搭配后,ParC-Net模型的性能表現(xiàn)還能再上一個(gè)臺(tái)階。

張?zhí)栧硬┦空劦?,其團(tuán)隊(duì)考慮到軟硬件設(shè)計(jì)協(xié)同問(wèn)題,在研發(fā)之初參考了云天勵(lì)飛自研芯片工具鏈的設(shè)計(jì)及算子支持情況,然后進(jìn)行模型網(wǎng)絡(luò)結(jié)構(gòu)及算子的設(shè)計(jì),以更好地發(fā)揮出芯片算力。

研究人員將ParC-Net和基線模型MobileVit均部署到自研低功耗芯片DP上進(jìn)行推理速度測(cè)試。從實(shí)驗(yàn)結(jié)果可以看到,ParC-Net的推理速度能夠達(dá)到MobileViT速度的3~4倍。

68938162-0e14-11ed-ba43-dac502259ad0.png

▲與基準(zhǔn)模型在不同芯片平臺(tái)上的推理速度對(duì)比

這也是研究團(tuán)隊(duì)決定選擇基于純卷積結(jié)構(gòu)來(lái)設(shè)計(jì)ParC-Net的原因之一。ConvNet已經(jīng)統(tǒng)治計(jì)算機(jī)視覺(jué)領(lǐng)域十年之久,而ViT在這一領(lǐng)域興起時(shí)間較短,很多現(xiàn)有的神經(jīng)網(wǎng)絡(luò)加速器、硬件優(yōu)化策略,都是圍繞卷積結(jié)構(gòu)設(shè)計(jì)。因此部署在移動(dòng)端時(shí),純ConvNet往往能比ViT享有更好的軟硬件及工具鏈支持,并實(shí)現(xiàn)更快的推理速度。

即便搭載在對(duì)支持ViT更友好的芯片上,張?zhí)栧硬┦空f(shuō),ParC-Net依然能取得比現(xiàn)有其他混合模型更好的性能表現(xiàn)。

絕大多數(shù)視覺(jué)任務(wù)可以分為兩類:一類對(duì)位置信息不敏感,如圖像分類等;另一類對(duì)位置信息較敏感,如物體檢測(cè)、3D姿態(tài)估計(jì)、AR試穿等。對(duì)于這些視覺(jué)任務(wù),無(wú)論用在智能門禁、手機(jī)識(shí)圖還是自動(dòng)駕駛汽車的攝像頭,ParC-Net都能夠發(fā)揮出其兼顧模型精度和計(jì)算效率的優(yōu)勢(shì),并且不會(huì)受部署終端設(shè)備配置的限制。

04.

結(jié)語(yǔ):輕量級(jí)視覺(jué)模型設(shè)計(jì)的新啟發(fā)

當(dāng)前ViT與ConvNet兩大研究方向在計(jì)算機(jī)視覺(jué)領(lǐng)域旗鼓相當(dāng),ViT在學(xué)術(shù)界四處屠榜,ConvNet則在工業(yè)界主導(dǎo)地位難以撼動(dòng),將兩者融合的相關(guān)研究也如雨后春筍般涌現(xiàn)。

此次入選ECCV頂會(huì)的ParC-Net模型,既顧及邊緣設(shè)備對(duì)模型規(guī)模的限制,基于純卷積結(jié)構(gòu),確保其具備易訓(xùn)練、易部署、推理效率高、硬件更友好等特點(diǎn),又吸納了ViT的設(shè)計(jì)特征,實(shí)現(xiàn)比其他ConvNet模型更高的精度。這可以給移動(dòng)端視覺(jué)任務(wù)的模型設(shè)計(jì)帶來(lái)一些啟發(fā)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:媒體關(guān)注丨云天勵(lì)飛論文入選ECCV2022,提出輕量級(jí)視覺(jué)模型新架構(gòu)

文章出處:【微信號(hào):IntelliFusion2,微信公眾號(hào):云天勵(lì)飛】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    谷歌正式發(fā)布Gemma Scope 2模型

    Scope 工具包推動(dòng)了可解釋性科學(xué)的發(fā)展,該工具旨在幫助研究人員理解我們輕量級(jí)開(kāi)放模型系列 Gemma 2 的內(nèi)部運(yùn)作機(jī)制。
    的頭像 發(fā)表于 01-24 14:01 ?548次閱讀

    瑞芯微SOC智能視覺(jué)AI處理器

    系統(tǒng)控制和輕量級(jí)任務(wù)。NPU: 集成2.0 TOPS的NPU(算力高于RK3568B2),專為AI視覺(jué)任務(wù)優(yōu)化。多媒體: 核心特點(diǎn)是強(qiáng)大的視頻解碼能力,支持4K@60fps H.265/H.264解碼
    發(fā)表于 12-19 13:44

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    通過(guò)實(shí)踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議,這些建議將會(huì)在構(gòu)建高準(zhǔn)確率輕量級(jí)CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò):我們清楚神經(jīng)網(wǎng)絡(luò)本身是需要不斷抽象出更高級(jí)別的紋理
    發(fā)表于 10-28 08:02

    【新品上線】AI 智能視覺(jué)核心板:CORE-1126BJD4

    采用Rockchip四核AI視覺(jué)處理器RV1126B,集成3TOPSNPU,支持輕量級(jí)AI大模型和深度學(xué)習(xí)框架。支持12M視頻編碼,4K視頻解碼,支持4個(gè)攝像頭同時(shí)輸入。采用260P金手指接口,尺寸
    的頭像 發(fā)表于 10-09 16:40 ?659次閱讀
    【新品上線】AI 智能<b class='flag-5'>視覺(jué)</b>核心板:CORE-1126BJD4

    【CW32】uart_obj_fw 輕量級(jí)串口框架

    輕量級(jí)跨平臺(tái)串口通信框架,專為資源受限的嵌入式設(shè)備設(shè)計(jì)。單個(gè)對(duì)象RAM占用最小68字節(jié)左右(不算緩沖區(qū)),ROM占用1-2k字節(jié)左右,功能支持裁剪,資源占用小并不代表低性能,該庫(kù)參考了freeRTOS
    的頭像 發(fā)表于 09-29 18:02 ?7835次閱讀

    全新輕量級(jí)ViSTA-SLAM系統(tǒng)介紹

    無(wú)需相機(jī)內(nèi)參、極致輕量的前端(前端模型大小僅為同類35%),實(shí)時(shí)單目視覺(jué)SLAM,ViSTA-SLAM。與現(xiàn)有方法相比,ViSTA-SLAM不僅更輕、更快,在相機(jī)跟蹤和密集3D重建質(zhì)量方面也均表現(xiàn)出色。
    的頭像 發(fā)表于 09-22 15:53 ?940次閱讀
    全新<b class='flag-5'>輕量級(jí)</b>ViSTA-SLAM系統(tǒng)介紹

    Crypto核心庫(kù):顛覆傳統(tǒng)的數(shù)據(jù)安全輕量級(jí)加密方案

    傳統(tǒng)加密方案常陷入“安全與性能”的二元悖論。Crypto核心庫(kù)打破這一僵局,通過(guò)輕量級(jí)架構(gòu)與算法優(yōu)化,實(shí)現(xiàn)加密解密的雙向突破:在保障銀行級(jí)安全的同時(shí),將資源消耗壓縮至極致,讓數(shù)據(jù)安全“輕”裝上
    的頭像 發(fā)表于 08-04 14:44 ?732次閱讀
    Crypto核心庫(kù):顛覆傳統(tǒng)的數(shù)據(jù)安全<b class='flag-5'>輕量級(jí)</b>加密方案

    基于米爾瑞芯微RK3576開(kāi)發(fā)板部署運(yùn)行TinyMaix:超輕量級(jí)推理框架

    推理庫(kù),可以讓你在任意低資源MCU上運(yùn)行輕量級(jí)深度學(xué)習(xí)模型。關(guān)鍵特性核心代碼少于 400行(tm_layers.c+tm_model.c+arch_cpu.h), 代碼段(.text)少于3KB 低
    發(fā)表于 07-25 16:35

    如何在RK3576開(kāi)發(fā)板上運(yùn)行TinyMaix :超輕量級(jí)推理框架--基于米爾MYD-LR3576開(kāi)發(fā)板

    讓你在任意低資源MCU上運(yùn)行輕量級(jí)深度學(xué)習(xí)模型。關(guān)鍵特性核心代碼少于400行(tm_layers.c+tm_model.c+arch_cpu.h),代碼段(.tex
    的頭像 發(fā)表于 07-25 08:03 ?4252次閱讀
    如何在RK3576開(kāi)發(fā)板上運(yùn)行TinyMaix :超<b class='flag-5'>輕量級(jí)</b>推理框架--基于米爾MYD-LR3576開(kāi)發(fā)板

    輕量級(jí)≠低效能:RK3506J核心板如何用性價(jià)比感動(dòng)用戶?

    瑞芯微 RK3506J憑借多核異構(gòu)架構(gòu)設(shè)計(jì)與國(guó)產(chǎn)化供應(yīng)鏈整合,以輕量級(jí)硬件資源實(shí)現(xiàn)工業(yè)級(jí)性能輸出,重新定義了控制芯片的性價(jià)比邊界,為工業(yè)控制芯片領(lǐng)域帶來(lái)了全新的解決方案與發(fā)展方向。
    的頭像 發(fā)表于 06-17 09:20 ?2807次閱讀
    <b class='flag-5'>輕量級(jí)</b>≠低效能:RK3506J核心板如何用性價(jià)比感動(dòng)用戶?

    成本狂降90%!國(guó)產(chǎn)芯片+開(kāi)源模型如何改寫AI玩具規(guī)則

    電子發(fā)燒友網(wǎng)綜合報(bào)道,在AI技術(shù)持續(xù)突破的當(dāng)下,AI玩具正在經(jīng)歷一場(chǎng)靜默的變革,而變革的核心,在于輕量級(jí)模型的技術(shù)突破,即通過(guò)算法壓縮與硬件協(xié)同,AI玩具得以在方寸之間承載復(fù)雜的智能交互,以更低
    的頭像 發(fā)表于 05-29 00:52 ?3879次閱讀

    如何使用Docker部署大模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個(gè)重要的挑戰(zhàn)。Docker 作為一種輕量級(jí)的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境打包成一個(gè)可移植的容器,極大地簡(jiǎn)化了部署流程
    的頭像 發(fā)表于 05-24 16:39 ?1145次閱讀

    樹(shù)莓派替代臺(tái)式計(jì)算機(jī)?樹(shù)莓派上七款最佳的輕量級(jí)操作系統(tǒng)!

    替代臺(tái)式計(jì)算機(jī)。好吧,它可以,但您需要以下專為RaspberryPi設(shè)計(jì)的輕量級(jí)操作系統(tǒng)的幫助。注意:RaspberryPi市場(chǎng)上有許多不同的型號(hào)。對(duì)于本文,我們將
    的頭像 發(fā)表于 03-25 09:43 ?1319次閱讀
    樹(shù)莓派替代臺(tái)式計(jì)算機(jī)?樹(shù)莓派上七款最佳的<b class='flag-5'>輕量級(jí)</b>操作系統(tǒng)!

    ?VLM(視覺(jué)語(yǔ)言模型)?詳細(xì)解析

    視覺(jué)語(yǔ)言模型(Visual Language Model, VLM)是一種結(jié)合視覺(jué)(圖像/視頻)和語(yǔ)言(文本)處理能力的多模態(tài)人工智能模型,能夠理解并生成與
    的頭像 發(fā)表于 03-17 15:32 ?8917次閱讀
    ?VLM(<b class='flag-5'>視覺(jué)</b>語(yǔ)言<b class='flag-5'>模型</b>)?詳細(xì)解析

    ??低暟l(fā)布視覺(jué)模型周界攝像機(jī)

    上周,我們發(fā)布了視覺(jué)模型系列攝像機(jī),其中有大模型加持的周界系列攝像機(jī),誤報(bào)率下降90%以上。
    的頭像 發(fā)表于 03-11 18:12 ?1821次閱讀