91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

蘋果A系列SoC可作為新的AI算力范式,成為新的摩爾定律

454398 ? 來源:機(jī)器之心 ? 作者: 半導(dǎo)體行業(yè)觀察 ? 2020-10-28 11:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近蘋果在發(fā)布會(huì)上公開了新的A14 SoC。根據(jù)發(fā)布會(huì),該SoC將用于新的iPad上,而根據(jù)行業(yè)人士的推測(cè)該SoC也將會(huì)用在新的iPhone系列中。除了常規(guī)的CPUGPU升級(jí)之外,A14最引人注目的就是Neural Engine的算力提升。我們認(rèn)為,蘋果A系列SoC在近幾年內(nèi)Neural Engine的算力增長(zhǎng)可以作為一種新的AI算力范式,成為新的摩爾定律。

A14上的新Neural Engine

蘋果公布的A14 SoC使用5nm工藝,而新的Neural Engine則使用16核心設(shè)計(jì),其峰值算力可達(dá)11 TOPS,遠(yuǎn)超上一代的Neural Engine(6TOPS)。在發(fā)布會(huì)上,蘋果明確表示該Neural Engine主要支持加速矩陣相乘。此外,蘋果還表示新的Neural Engine結(jié)合CPU上的機(jī)器學(xué)習(xí)加速,可以將實(shí)際的AI應(yīng)用體驗(yàn)相對(duì)于前代提升十倍。

新的Neural Engine的峰值算力大大提升可以說是有些意料之外,但是又是情理之中。意料之外是因?yàn)锳14的其它關(guān)鍵指標(biāo),例如CPU和GPU等相對(duì)于前一代A13的提升并不多(發(fā)布會(huì)上給出的30%提升對(duì)比的是再前一代的A12 SoC,如果直接和上一代A13相比則CPU性能提升是16%而GPU則是10%左右),但是Neural Engine的性能提升則接近100%。而Neural Engine性能提升大大超過SoC其他部分是情理之中則是因?yàn)槲覀冋J(rèn)為如果仔細(xì)分析SoC性能提升背后的推動(dòng)力,則可以得出Neural Engine性能大幅提升是非常合理的。一方面,從應(yīng)用需求側(cè)來說,對(duì)應(yīng)CPU和GPU的相關(guān)應(yīng)用,例如游戲、網(wǎng)頁瀏覽、視頻等在未來可預(yù)見的幾年內(nèi)都沒有快速的需求增長(zhǎng),唯有人工智能有這樣的需求。另一方面,CPU和GPU的性能在給定架構(gòu)下的性能提升也較困難,很大一部分提升必須靠半導(dǎo)體工藝,而事實(shí)上半導(dǎo)體工藝的升級(jí)在未來幾年內(nèi)可預(yù)期將會(huì)越來越慢,每代工藝升級(jí)更注重于晶體管密度以及功耗,在晶體管性能方面的提升將越來越小。而AI加速器則還有相當(dāng)大的設(shè)計(jì)提升空間,相信在未來幾年仍將會(huì)有算力快速增長(zhǎng)。

Neural Engine算力增長(zhǎng)趨勢(shì)

我們不妨回顧一下過去幾代A系列SoC中Neural Engine的算力增長(zhǎng)。

最早加入Neural Engine的SoC是2017年發(fā)布的A11。該SoC使用10nm工藝,搭載第一代Neural Engine峰值算力為0.6TOPS,Neural Engine的芯片面積為1.83mm2。當(dāng)時(shí)Neural Engine主要針對(duì)的應(yīng)用是iPhone新推出的人臉識(shí)別鎖屏FaceID以及人臉關(guān)鍵點(diǎn)追蹤Animoji,且Neural Engine的算力并不對(duì)第三方應(yīng)用開放。

第二代Neural Engine則是在2018年的A12 SoC上。該SoC使用7nm工藝,Neural Engine面積為5.8mm2,而其峰值算力則達(dá)到了5TOPS,相比前一代的Neural Engine翻了近10倍。而根據(jù)7nm和10nm工藝的晶體管密度折算則可以估計(jì)出Neural Engine的晶體管數(shù)量大約也是增加了6-7倍,基本和算力提升接近。

第三代Neural Engine是2019年的A13,使用第二代N7工藝,其面積相比上一代減少到了4.64mm2,而算力則增加到了6TOPS。我們認(rèn)為這一代的Neural Engine是上一代的小幅改良版本,并沒有做大幅升級(jí)。

最近公布的A14則搭載了最新一代的Neural Engine,使用5nm工藝,Neural Engine的具體面積尚沒有具體數(shù)字,但是其算力則是達(dá)到了11TOPS,是上一代的接近兩倍。

從上面的分析可以看出Neural Engine每次主要升級(jí)都伴隨著算力的大幅上升,第一次上升了近十倍,而第二次則上升了近兩倍。如果按照目前兩年一次主要升級(jí)的節(jié)奏,我們認(rèn)為在未來數(shù)年內(nèi)Neural Engine乃至于廣義的AI芯片市場(chǎng)都會(huì)有每?jī)赡晷阅芴嵘齼杀兜囊?guī)律,類似半導(dǎo)體的摩爾定律。我們認(rèn)為,這樣的規(guī)律可以認(rèn)為是AI芯片算力的新摩爾定律。

為什么AI芯片算力增長(zhǎng)會(huì)成為新的摩爾定律

AI芯片算力指數(shù)上升的主要驅(qū)動(dòng)力還是主流應(yīng)用對(duì)于AI的越來越倚重,以及AI神經(jīng)網(wǎng)絡(luò)模型對(duì)于算力需求的快速提升。

應(yīng)用側(cè)對(duì)于AI的需求正在越來越強(qiáng)。就拿智能設(shè)備為例,2017年蘋果A11中AI的主要應(yīng)用還是面部關(guān)鍵點(diǎn)識(shí)別和追蹤,而到了2018年開始越來越多的應(yīng)用開始使用AI,包括圖像增強(qiáng)、拍攝虛化效果等,在下一代智能設(shè)備中AI則更加普及,首先從人機(jī)交互來看,下一代智能設(shè)備中常見的人機(jī)交互方式手勢(shì)追蹤、眼動(dòng)追蹤、語音輸入等都需要AI,這就大大增加了AI算法的運(yùn)行頻率以及算力需求。此外,下一代智能設(shè)備中有可能會(huì)用到的一系列新應(yīng)用都倚重AI,包括游戲、增強(qiáng)現(xiàn)實(shí)等應(yīng)用中,都需要運(yùn)行大量的AI模型例如SLAM,關(guān)鍵點(diǎn)識(shí)別、物體檢測(cè)和追蹤、姿勢(shì)識(shí)別和追蹤等等。

另一方面,AI對(duì)于算力的需求也在快速提升。根據(jù)HOT CHIPS 2020上的特邀演講,AI模型每年對(duì)于算力需求的提升在10倍左右,因此可以說AI模型對(duì)于硬件加速的需求非常強(qiáng)。

如果我們從另一個(gè)角度考慮,這其實(shí)就意味著AI加速芯片的算力提升在賦能新的場(chǎng)景和應(yīng)用——因?yàn)榭偸怯行碌男阅芨叩腁I模型需要更強(qiáng)的硬件去支持,而一旦支持了這樣的新模型則又能賦能新的應(yīng)用。從目前主流的計(jì)算機(jī)視覺相關(guān)的AI,到以BERT為代表的大規(guī)模自然語言處理算法,以及未來可能出現(xiàn)的將BERT和計(jì)算機(jī)視覺相結(jié)合的視覺高階語義理解等等,我們?cè)谖磥韼啄陜?nèi)尚未看到AI模型進(jìn)步的停止以及可能的新應(yīng)用場(chǎng)景的出現(xiàn),相反目前的瓶頸是AI加速硬件性能跟不上。這也就意味著,AI加速硬件才是AI模型落地的最終賦能者,這就像當(dāng)年摩爾定律大躍進(jìn)的PC時(shí)代,當(dāng)時(shí)每一次CPU處理器的進(jìn)步都意味著PC上能運(yùn)行更多的應(yīng)用,因此我們看到了CPU性能在當(dāng)時(shí)的突飛猛進(jìn);今天這一幕又重現(xiàn)了,只是今天的主角換成了AI加速芯片。

AI算力增長(zhǎng)來自何方?

分析完了AI加速芯片的需求側(cè),我們不妨再來看看供給側(cè)——即目前的技術(shù)還能支持AI芯片多少算力提升。

首先,AI加速器芯片和傳統(tǒng)CPU的一個(gè)核心差異在于,CPU要處理的通用程序中往往很大一部分難以并行化,因此即使增加CPU的核心數(shù)量,其性能的增加與核心數(shù)也并非線性關(guān)系;而AI模型的計(jì)算通常較為規(guī)整,且很容易就可以做并行化處理,因此其算力提升往往與計(jì)算單元數(shù)量呈接近線性的關(guān)系。這在我們之前對(duì)比A11和A12 Neural Engine的晶體管數(shù)量和算力提升之間的關(guān)系也有類似的結(jié)論。目前,以Neural Engine為代表的AI加速器占芯片總面積約為5%,未來如果AI加速器的面積能和GPU有類似的面積(20%左右),則AI加速器的計(jì)算單元數(shù)量也即算力至少還有4倍的提升空間。此外,如果考慮兩年兩倍的節(jié)奏并考慮未來幾年內(nèi)可能會(huì)落地的3nm工藝,則我們認(rèn)為AI加速器算力兩年兩倍的提升速度從這方面至少還有5-6年的空間可挖。

除了單純?cè)黾佑?jì)算單元數(shù)目之外,另一個(gè)AI加速器算力重要的提升空間來自于算法和芯片的協(xié)同設(shè)計(jì)。從算法層面,目前主流的移動(dòng)端模型使用的是8-bit計(jì)算精度,而在學(xué)術(shù)界已經(jīng)有許多對(duì)于4-bit甚至1-bit計(jì)算的研究都取得了大幅降低計(jì)算量和參數(shù)量的同時(shí)幾乎不降低模型精度。另外,模型的稀疏化處理也是一個(gè)重要的方向,目前許多模型經(jīng)過稀疏化處理可以降低50-70%的等效計(jì)算量而不降低精度。因此如果考慮模型和芯片和協(xié)同設(shè)計(jì)并在加速器中加入相關(guān)的支持(如低精度計(jì)算和稀疏化計(jì)算),我們預(yù)計(jì)還能在計(jì)算單元之外額外帶來至少10倍等效算力提升。

最后,當(dāng)峰值算力的潛力已經(jīng)被充分挖掘之后,還有一個(gè)潛力方向是針對(duì)不同AI模型的專用化設(shè)計(jì),也即異構(gòu)設(shè)計(jì)。AI模型中,常用于機(jī)器視覺的卷積神經(jīng)網(wǎng)絡(luò)和常用于機(jī)器翻譯/語音識(shí)別的循環(huán)卷積網(wǎng)絡(luò)無論是在計(jì)算方法還是內(nèi)存訪問等方面都大相徑庭,因此如果能做專用化設(shè)計(jì),則有可能在峰值算力不變的情況下,實(shí)際的計(jì)算速度仍然取得數(shù)倍的提升。

結(jié)合上面討論的一些方向,我們認(rèn)為AI加速芯片的算力在未來至少還有數(shù)十倍甚至上百倍的提升空間,再結(jié)合之前討論的應(yīng)用側(cè)對(duì)于算力的強(qiáng)烈需求,我們認(rèn)為在未來數(shù)年內(nèi)都會(huì)看到AI加速芯片的算力一兩年翻倍地指數(shù)上升。在這一領(lǐng)域,事實(shí)上中國的半導(dǎo)體行業(yè)有很大的機(jī)會(huì)。如前所述,AI芯片性能提升主要來自于設(shè)計(jì)的提升而非工藝提升,而中國無論是在半導(dǎo)體電路設(shè)計(jì)領(lǐng)域還是AI模型領(lǐng)域都并不落后,因此有機(jī)會(huì)能抓住這個(gè)機(jī)會(huì)。
編輯;hfy

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11285

    瀏覽量

    225134
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5199

    瀏覽量

    135527
  • 5nm
    5nm
    +關(guān)注

    關(guān)注

    1

    文章

    342

    瀏覽量

    26649
  • A14處理器
    +關(guān)注

    關(guān)注

    0

    文章

    15

    瀏覽量

    2248
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    邊緣AI臨界點(diǎn):深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價(jià)值

    310P芯片的底層架構(gòu),深度剖析這款產(chǎn)品的技術(shù)細(xì)節(jié)、門檻及其在實(shí)際產(chǎn)業(yè)落地中的真實(shí)價(jià)值。 一、176TOPS的產(chǎn)業(yè)門檻:為何這是邊緣的新起點(diǎn)?
    發(fā)表于 03-10 14:19

    摩爾線程×小馬智行|以國產(chǎn)AI加速中國自動(dòng)駕駛規(guī)?;涞?/a>

    ,共同探索“AI算法+AI”深度融合的合作新范式,以安全可靠的AI
    的頭像 發(fā)表于 02-06 10:14 ?374次閱讀
    <b class='flag-5'>摩爾</b>線程×小馬智行|以國產(chǎn)<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>加速中國自動(dòng)駕駛規(guī)?;涞? />    </a>
</div><div   id=

    AI送上太空,是終極方案還是瘋狂幻想?評(píng)論區(qū)說出你的陣營!

    AI
    江蘇易安聯(lián)
    發(fā)布于 :2026年01月06日 09:43:34

    AI開發(fā)更簡(jiǎn)單!摩爾線程發(fā)布AI本MTT AIBOOK

    12月20日,在首屆MUSA開發(fā)者大會(huì)現(xiàn)場(chǎng),摩爾線程正式發(fā)布其戰(zhàn)略級(jí)終端產(chǎn)品——AI本 MTT AIBOOK。 該產(chǎn)品專為AI學(xué)習(xí)與開發(fā)
    的頭像 發(fā)表于 12-30 17:00 ?707次閱讀
    讓<b class='flag-5'>AI</b>開發(fā)更簡(jiǎn)單!<b class='flag-5'>摩爾</b>線程發(fā)布<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>本MTT AIBOOK

    EDA?新范式能否成為打通“協(xié)同設(shè)計(jì)”的關(guān)鍵樞紐?

    進(jìn)制程與 3D 封裝上形成緊密合作,把工藝規(guī)則直接嵌入設(shè)計(jì)工具之中。 這一系列動(dòng)作清晰地揭示了一個(gè)深層趨勢(shì):在摩爾定律逼近極限、先進(jìn)封裝成為
    的頭像 發(fā)表于 12-09 10:16 ?578次閱讀
    EDA?新<b class='flag-5'>范式</b>能否<b class='flag-5'>成為</b>打通“協(xié)同設(shè)計(jì)”的關(guān)鍵樞紐?

    湘軍,讓變成生產(chǎn)?

    腦極體
    發(fā)布于 :2025年11月25日 22:56:58

    AI邊緣盒子TS-ATL-A200系列產(chǎn)品規(guī)格書

    盒子,是基于華為昇騰A200I嵌入式ARM架構(gòu)、高SoC芯片開發(fā)的
    發(fā)表于 10-27 17:02 ?0次下載

    摩爾定律時(shí)代,3D-CIM+RISC-V打造國產(chǎn)存一體新范式

    電子發(fā)燒友網(wǎng)報(bào)道(文 / 吳子鵬)當(dāng)前,AI 技術(shù)已深度融入生產(chǎn)生活,從 AI 手機(jī)、AI?PC 到云端大模型推理,再到未來的具身智能機(jī)器人,對(duì)
    發(fā)表于 09-17 09:31 ?5931次閱讀
    后<b class='flag-5'>摩爾定律</b>時(shí)代,3D-CIM+RISC-V打造國產(chǎn)存<b class='flag-5'>算</b>一體新<b class='flag-5'>范式</b>

    AI狂飆, FPGA會(huì)掉隊(duì)嗎? (上)

    摩爾定律說,集成電路上的晶體管數(shù)量大約每?jī)赡攴环?。隨著晶體管尺寸接近物理極限,摩爾定律的原始含義已不再適用,但計(jì)算能力的提升并沒有停止。英偉達(dá)的SOC在過去幾年的發(fā)展中,AI
    的頭像 發(fā)表于 08-07 09:03 ?1287次閱讀
    <b class='flag-5'>AI</b>狂飆, FPGA會(huì)掉隊(duì)嗎? (上)

    借勢(shì) RISC-V與 AI 浪潮,元石智打造范式

    AI技術(shù)飛速發(fā)展的當(dāng)下,需求呈指數(shù)級(jí)增長(zhǎng),成為推動(dòng)行業(yè)前行的核心動(dòng)力。與此同時(shí),RISC-V架構(gòu)憑借其開源、靈活、可定制等特性,正逐漸嶄露頭角,為
    的頭像 發(fā)表于 07-25 14:51 ?696次閱讀
    借勢(shì) RISC-V與 <b class='flag-5'>AI</b> 浪潮,元石智<b class='flag-5'>算</b>打造<b class='flag-5'>算</b><b class='flag-5'>力</b>新<b class='flag-5'>范式</b>

    一文看懂AI集群

    最近這幾年,AI浪潮席卷全球,成為整個(gè)社會(huì)的關(guān)注焦點(diǎn)。大家在討論AI的時(shí)候,經(jīng)常會(huì)提到AI
    的頭像 發(fā)表于 07-23 12:18 ?1636次閱讀
    一文看懂<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>集群

    奇異摩爾邀您相約2025中國AI大會(huì)

    在2025中國AI大會(huì)上,奇異摩爾首席網(wǎng)絡(luò)架構(gòu)專家葉棟將帶來“AI原生時(shí)代 —共筑超節(jié)點(diǎn)的網(wǎng)絡(luò)基礎(chǔ)架構(gòu)”的主題演講,分享國內(nèi)外超節(jié)點(diǎn)解決
    的頭像 發(fā)表于 06-17 17:49 ?1539次閱讀

    摩爾線程與AI平臺(tái)AutoDL達(dá)成深度合作

    近日,摩爾線程與國內(nèi)領(lǐng)先的AI平臺(tái)AutoDL宣布達(dá)成深度合作,雙方聯(lián)合推出面向個(gè)人開發(fā)者的“摩爾線程專區(qū)”,首次將國產(chǎn)GPU
    的頭像 發(fā)表于 05-23 16:10 ?1736次閱讀

    電力電子中的“摩爾定律”(1)

    本文是第二屆電力電子科普征文大賽的獲獎(jiǎng)作品,來自上海科技大學(xué)劉賾源的投稿。著名的摩爾定律中指出,集成電路每過一定時(shí)間就會(huì)性能翻倍,成本減半。那么電力電子當(dāng)中是否也存在著摩爾定律呢?1965年,英特爾
    的頭像 發(fā)表于 05-10 08:32 ?903次閱讀
    電力電子中的“<b class='flag-5'>摩爾定律</b>”(1)

    DeepSeek推動(dòng)AI需求:800G光模塊的關(guān)鍵作用

    集群的部署過程中,帶寬瓶頸成為制約發(fā)揮的關(guān)鍵因素,而光模塊的速率躍升成為突破這一瓶頸的核心驅(qū)動(dòng)力。 光模塊速率躍升 隨著
    發(fā)表于 03-25 12:00