91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

黑馬Groq單挑英偉達(dá),AI芯片要變天?

科技云報(bào)到 ? 來源:jf_60444065 ? 作者:jf_60444065 ? 2024-02-26 12:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

科技云報(bào)道原創(chuàng)。

近一周來,大模型領(lǐng)域重磅產(chǎn)品接連推出:OpenAI發(fā)布“文字生視頻”大模型Sora;Meta發(fā)布視頻預(yù)測(cè)大模型 V-JEPA;谷歌發(fā)布大模型 Gemini 1.5 Pro,更毫無預(yù)兆地發(fā)布了開源模型Gemma......

難怪網(wǎng)友們感嘆:“一開年AI發(fā)展的節(jié)奏已經(jīng)如此炸裂了么!”

但更令人意想不到的是,AI芯片領(lǐng)域處于絕對(duì)霸主地位的英偉達(dá),竟然也遇到了挑戰(zhàn),而且挑戰(zhàn)者還是一家初創(chuàng)公司。

在這家名叫Groq的初創(chuàng)芯片及模型公司官網(wǎng)上,它號(hào)稱是世界最快大模型,比GPT-4快18倍,測(cè)試中最快達(dá)到破紀(jì)錄的每秒吞吐500 tokens。

這閃電般的速度,來源于Groq自研的LPU(語言處理單元),是一種名為張量流處理器(TSP)的新型處理單元,自然語言處理速度是英偉達(dá)GPU 10倍,做到了推理的最低延遲。

“快”字當(dāng)頭,Groq可謂賺足眼球。Groq還喊話各大公司,揚(yáng)言在三年內(nèi)超越英偉達(dá)。

事實(shí)上,在這一波AI熱潮中,“天下苦英偉達(dá)久矣”。英偉達(dá)GPU芯片價(jià)格一再被炒高,而Groq的LPU架構(gòu)能“彎道超車”,顯然是眾望所歸。

因此,不少輿論驚呼Groq要顛覆英偉達(dá),也有業(yè)內(nèi)人士認(rèn)為Groq想要“平替”英偉達(dá)還有很長的路要走。

但無論持哪種觀點(diǎn),Groq的出現(xiàn)不僅是對(duì)現(xiàn)有芯片架構(gòu)和市場(chǎng)格局的挑戰(zhàn),也預(yù)示著AI芯片及其支撐的大模型發(fā)展方向正在發(fā)生變化——聚焦AI推理。

Groq LPU:快字當(dāng)頭

據(jù)介紹,Groq的芯片采用14nm制程,搭載了230MB大靜態(tài)隨機(jī)存儲(chǔ)器(SRAM)以保證內(nèi)存帶寬,片上內(nèi)存帶寬達(dá)80TB/s。在算力方面,該芯片的整型(8位)運(yùn)算速度為750TOPs,浮點(diǎn)(16位)運(yùn)算速度為188TFLOPs。

Anyscale的LLMPerf排行顯示,在Groq LPU推理引擎上運(yùn)行的Llama 2 70B,輸出tokens吞吐量快了18倍,優(yōu)于其他所有云推理供應(yīng)商。

據(jù)網(wǎng)友測(cè)試,面對(duì)300多個(gè)單詞的“巨型”prompt(AI模型提示詞),Groq在不到一秒鐘的時(shí)間里,就為一篇期刊論文創(chuàng)建了初步大綱和寫作計(jì)劃。此外,Groq還完全實(shí)現(xiàn)了遠(yuǎn)程實(shí)時(shí)的AI對(duì)話。

電子郵件初創(chuàng)企業(yè)Otherside AI的首席執(zhí)行官兼聯(lián)合創(chuàng)始人馬特·舒默(Matt Shumer)在體驗(yàn)Groq后稱贊其快如閃電,能夠在不到一秒鐘的時(shí)間內(nèi)生成數(shù)百個(gè)單詞的事實(shí)性、引用性答案。

更令人驚訝的是,其超過3/4的時(shí)間用于搜索信息,而生成答案的時(shí)間卻短到只有幾分之一秒。

Groq之所以“快如閃電”,其創(chuàng)新的核心在于LPU。

據(jù)官方信息顯示,LPU推理引擎是一種新型的端到端處理單元系統(tǒng),它為計(jì)算密集型應(yīng)用提供最快的推理能力,這些應(yīng)用具有序列組件,例如AI語言應(yīng)用程序(LLM)。

LPU旨在克服LLM的兩個(gè)瓶頸:計(jì)算密度和內(nèi)存帶寬。

就LLM而言,LPU比GPU和CPU具有更大的計(jì)算能力。這減少了每個(gè)單詞的計(jì)算時(shí)間,從而可以更快地生成文本序列。

同時(shí),與利用高帶寬內(nèi)存(HBM)的GPU不同,Groq的LPU利用SRAM進(jìn)行數(shù)據(jù)處理,比HBM快約20倍,從而顯著降低能耗并提高效率。

GroqChip的獨(dú)特架構(gòu)與其時(shí)間指令集相結(jié)合,可實(shí)現(xiàn)自然語言和其他順序數(shù)據(jù)的理想順序處理。

消除外部內(nèi)存瓶頸,不僅使LPU推理引擎能夠在LLM上提供比GPU高幾個(gè)數(shù)量級(jí)的性能。

而且由于LPU只進(jìn)行推理計(jì)算,需要的數(shù)據(jù)量遠(yuǎn)小于模型訓(xùn)練,從外部內(nèi)存讀取的數(shù)據(jù)更少,消耗的電量也低于GPU。

此外,LPU芯片設(shè)計(jì)實(shí)現(xiàn)了多個(gè)TSP的無縫連接,避免了GPU集群中的瓶頸問題,顯著地提高了可擴(kuò)展性。

因此,Groq公司宣稱,其LPU所帶來的AI推理計(jì)算是革命性的。

在AI推理領(lǐng)域挑戰(zhàn)GPU

盡管Groq高調(diào)喊話,但想要“平替”英偉達(dá)GPU并不容易。從各方觀點(diǎn)來看,Groq的芯片還無法與之分庭抗禮。

原Facebook人工智能科學(xué)家、原阿里技術(shù)副總裁賈揚(yáng)清算了一筆賬,因?yàn)镚roq小得可憐的內(nèi)存容量,在運(yùn)行Llama 2 70B模型時(shí),需要305張Groq卡才足夠,而用英偉達(dá)的H100則只需要8張卡。

從目前的價(jià)格來看,這意味著在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。

但跳出單純的價(jià)格對(duì)比,Groq LPU的解決方案依然展現(xiàn)出了不小的應(yīng)用潛力。

根據(jù)機(jī)器學(xué)習(xí)算法步驟,AI芯片可以劃分為訓(xùn)練AI芯片和推理AI芯片。

訓(xùn)練芯片是用于構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,需要高算力和通用性,追求的是高計(jì)算性能(高吞吐率)、低功耗。

推理芯片是對(duì)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型進(jìn)行運(yùn)算,利用輸入的新數(shù)據(jù)來一次性獲得正確結(jié)論。

因此完成推理過程的時(shí)間要盡可能短、低功耗,更關(guān)注用戶體驗(yàn)方面的優(yōu)化。

雖然現(xiàn)階段GPU利用并行計(jì)算的優(yōu)勢(shì)在AI領(lǐng)域大獲全勝,但由于英偉達(dá)GPU的獨(dú)有架構(gòu),英偉達(dá)H100等芯片在推理領(lǐng)域算力要求遠(yuǎn)不及訓(xùn)練端,這也就給Groq等競(jìng)爭(zhēng)對(duì)手留下了機(jī)會(huì)。

因此,專注于AI推理的Groq LPU,得以在推理這個(gè)特定領(lǐng)域挑戰(zhàn)英偉達(dá)GPU的地位。從測(cè)試結(jié)果上看,Groq能夠達(dá)到令人滿意的“秒回”效果。

這也在一定程度上顯示了通用芯片與專用芯片的路徑分歧。

隨著AI和深度學(xué)習(xí)的不斷發(fā)展,對(duì)專用芯片的需求也在增長。

各種專用加速器如FPGAASIC以及其他初創(chuàng)公司的AI芯片已經(jīng)不斷涌現(xiàn),它們?cè)诟髯陨瞄L的領(lǐng)域內(nèi)展現(xiàn)出了挑戰(zhàn)GPU的可能性。

相比于英偉達(dá)通用型AI芯片,自研AI芯片也被稱作ASIC,往往更適合科技公司本身的AI工作負(fù)載需求且成本較低。

比如,云巨頭AWS就推出了為生成式AI和機(jī)器學(xué)習(xí)訓(xùn)練而設(shè)計(jì)全新自研AI芯片AWS Trainium2,性能比上一代芯片提高到4倍,可提供65ExaFlops超算性能。

微軟也推出第一款定制的自研CPU系列Azure Cobalt和AI加速芯片Azure Maia,后者是微軟首款A(yù)I芯片,主要針對(duì)大語言模型訓(xùn)練,預(yù)計(jì)將于明年初開始在微軟Azure數(shù)據(jù)中心推出。

谷歌云也推出了新版本的TPU芯片TPU v5p,旨在大幅縮減訓(xùn)練大語言模型時(shí)間投入。

無論是大廠自研的AI芯片,還是像Groq LPU這樣的專用芯片,都是為了優(yōu)化特定AI計(jì)算任務(wù)的性能和成本效率,同時(shí)減少對(duì)英偉達(dá)等外部供應(yīng)商的依賴。

作為GPU的一個(gè)重要補(bǔ)充,專用芯片讓面對(duì)緊缺昂貴的GPU芯片的企業(yè)有了一個(gè)新的選擇。

AI芯片聚焦推理

隨著AI大模型的快速發(fā)展,尤其是Sora以及即將推出的GPT-5,都需要更強(qiáng)大高效的算力。但GPU在推理方面的不夠高效,已經(jīng)影響到了大模型業(yè)務(wù)的發(fā)展。

從產(chǎn)業(yè)發(fā)展趨勢(shì)來看,AI算力負(fù)載大概率將逐步從訓(xùn)練全面向推理端遷移。

華爾街大行摩根士丹利在2024年十大投資策略主題中指出,隨著消費(fèi)類邊緣設(shè)備在數(shù)據(jù)處理、存儲(chǔ)端和電池續(xù)航方面的大幅改進(jìn),2024年將有更多催化劑促使邊緣AI這一細(xì)分領(lǐng)域迎頭趕上,AI行業(yè)的發(fā)展重點(diǎn)也將從“訓(xùn)練”全面轉(zhuǎn)向“推理”。

高通CEO Amon也指出,芯片制造商們的主要戰(zhàn)場(chǎng)不久后將由“訓(xùn)練”轉(zhuǎn)向“推理”。

Amon在采訪時(shí)表示:“隨著AI大模型變得更精簡、能夠在設(shè)備上運(yùn)行并專注于推理任務(wù),芯片制造商的主要市場(chǎng)將轉(zhuǎn)向‘推理’,即模型應(yīng)用。預(yù)計(jì)數(shù)據(jù)中心也將對(duì)專門用于已訓(xùn)練模型推理任務(wù)的處理器產(chǎn)生興趣,一切都將助力推理市場(chǎng)規(guī)模超越訓(xùn)練市場(chǎng)。”

在最新的財(cái)報(bào)電話會(huì)上,英偉達(dá)CFO Colette Kress表示,大模型的推理場(chǎng)景已經(jīng)占據(jù)英偉達(dá)數(shù)據(jù)中心40%的營收比例。這也是判斷大模型行業(yè)落地前景的重要信號(hào)。

事實(shí)上,巨頭們的一舉一動(dòng)也在印證這一趨勢(shì)的到來。

據(jù)路透社報(bào)道,Meta將推新款自研AI推理芯片Artemis。預(yù)計(jì)Meta可于年內(nèi)完成該芯片在自有數(shù)據(jù)中心的部署,與英偉達(dá)GPU協(xié)同提供算力。

而英偉達(dá)也通過強(qiáng)化推理能力,鞏固自身通用GPU市占率。

在下一代芯片H200中,英偉達(dá)在H100的基礎(chǔ)上將存儲(chǔ)器HBM進(jìn)行了一次升級(jí),為的也是提升芯片在推理環(huán)節(jié)中的效率。

不僅如此,隨著各大科技巨頭、芯片設(shè)計(jì)獨(dú)角獸企業(yè)都在研發(fā)更具效率、部分替代GPU的芯片,英偉達(dá)也意識(shí)到這一點(diǎn),建立起了定制芯片的業(yè)務(wù)部門。

總的來說,以現(xiàn)在AI芯片供不應(yīng)求的現(xiàn)狀,GPU的增長暫時(shí)還不會(huì)放緩。但隨著AI發(fā)展趨勢(shì)的快速變化,英偉達(dá)不可能是永遠(yuǎn)的王者,而Groq也絕對(duì)不是唯一的挑戰(zhàn)者。

【關(guān)于科技云報(bào)道】

專注于原創(chuàng)的企業(yè)級(jí)內(nèi)容行家——科技云報(bào)道。成立于2015年,是前沿企業(yè)級(jí)IT領(lǐng)域Top10媒體。獲工信部權(quán)威認(rèn)可,可信云、全球云計(jì)算大會(huì)官方指定傳播媒體之一。深入原創(chuàng)報(bào)道云計(jì)算、大數(shù)據(jù)、人工智能、區(qū)塊鏈等領(lǐng)域。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4108

    瀏覽量

    99387
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2135

    瀏覽量

    36816
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3689

    瀏覽量

    5215
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    豪言自家芯片英偉達(dá)GPU強(qiáng)10倍,這家AI公司再獲融資

    的 “復(fù)仇者聯(lián)盟” 正在硅谷悄然集結(jié),他們創(chuàng)立的 MatX 公司剛剛完成 5 億美元 B 輪融資,豪言打造性能 10 倍于英偉達(dá) GPU 的專用 AI
    的頭像 發(fā)表于 03-01 06:41 ?1.1w次閱讀

    中國AI芯片市場(chǎng):華為將占半壁江山,英偉達(dá)跌落,這家第二

    2026年華為將占據(jù)中國AI芯片市場(chǎng)50%的份額,成為該領(lǐng)域的絕對(duì)領(lǐng)導(dǎo)者。 ? 目前,英偉達(dá)(NVIDIA)以39%的市場(chǎng)份額位居中國AI
    的頭像 發(fā)表于 12-07 11:04 ?9491次閱讀
    中國<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>市場(chǎng):華為將占半壁江山,<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>跌落,這家第二

    GPU不是AI的唯一解:英偉達(dá)Groq LPU證明,推理賽道需要“另一條腿”

    大會(huì)上,英偉達(dá)CEO黃仁勛正式發(fā)布了Vera Rubin AI超級(jí)計(jì)算機(jī)平臺(tái)。這一平臺(tái)的問世,不僅標(biāo)志著英偉達(dá)戰(zhàn)略從單一的GPU主導(dǎo)轉(zhuǎn)向涵蓋
    的頭像 發(fā)表于 03-24 11:27 ?3191次閱讀
    GPU不是<b class='flag-5'>AI</b>的唯一解:<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>用<b class='flag-5'>Groq</b> LPU證明,推理賽道需要“另一條腿”

    企業(yè)級(jí)AI Agent王炸! 英偉達(dá)GTC將開源 NemoClaw

    消息人士透露,英偉達(dá)計(jì)劃在下周在美國圣荷西舉行的年度開發(fā)者大會(huì)前后正式公布 NemoClaw。據(jù)知情人士向 WIRED 透露,該平臺(tái)允許企業(yè)部署 AI 代理為內(nèi)部團(tuán)隊(duì)執(zhí)行任務(wù),且不限于使用英偉
    的頭像 發(fā)表于 03-10 11:35 ?9052次閱讀
    企業(yè)級(jí)<b class='flag-5'>AI</b> Agent王炸! <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>GTC將開源 NemoClaw

    英偉達(dá)電話會(huì)看Agentic AI推理與FPGA價(jià)值

    2026年2月,英偉達(dá)發(fā)布2026財(cái)年Q4財(cái)報(bào):營收681億美元,同比增長73%,數(shù)據(jù)中心業(yè)務(wù)增長75%——預(yù)期中的超預(yù)期。更值得關(guān)注的,是電話會(huì)中反復(fù)出現(xiàn)的幾個(gè)關(guān)鍵詞:Agentic AI、推理
    的頭像 發(fā)表于 03-04 17:07 ?1132次閱讀
    從<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>電話會(huì)看Agentic <b class='flag-5'>AI</b>推理與FPGA價(jià)值

    英偉達(dá)重磅出手!AI 推理存儲(chǔ)全面覺醒

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃晶晶)近日,有消息稱,英偉達(dá)將以大約200億美元收購人工智能芯片初創(chuàng)公司Groq,這將是英偉
    的頭像 發(fā)表于 12-26 08:44 ?1.2w次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>重磅出手!<b class='flag-5'>AI</b> 推理存儲(chǔ)全面覺醒

    黃仁勛:英偉達(dá)AI芯片訂單排到2026年 英偉達(dá)上季營收加速增長62%再超預(yù)期

    AI芯片總龍頭英偉達(dá)的財(cái)報(bào)終于帶來了驚喜;英偉達(dá)公司發(fā)布財(cái)報(bào)數(shù)據(jù)顯示,上季營收加速增長62%;再
    的頭像 發(fā)表于 11-20 11:36 ?1324次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    的我我們講解了這幾種芯片的應(yīng)用場(chǎng)景,設(shè)計(jì)流程、結(jié)構(gòu)等。 CPU: 還為我們講解了一種算法:哈希表算法 GPU: 介紹了英偉達(dá)H100GPU芯片。使用了一下關(guān)鍵技術(shù): ①張量
    發(fā)表于 09-12 16:07

    英偉達(dá)被傳暫停生產(chǎn)H20芯片 外交部回應(yīng)

    韓國三星電子、美國安靠科技、富士康等關(guān)鍵零部件供應(yīng)商。 據(jù)悉,美國安靠科技(Amkor)負(fù)責(zé)H20芯片的封裝,而三星電子負(fù)責(zé)提供高帶寬的內(nèi)存芯片。 業(yè)界人士分析稱,一方面英偉達(dá)H20
    的頭像 發(fā)表于 08-22 15:58 ?2888次閱讀

    外媒:英偉達(dá)正開發(fā)新款中國特供芯片B30A 或?yàn)槠炫?b class='flag-5'>AI芯品B300的閹割版

    ;或?yàn)槠炫?b class='flag-5'>AI芯品B300的閹割版 ;估計(jì)性能只有B300的50%--70%。 據(jù)外媒路透社報(bào)道,為了中國市場(chǎng);英偉達(dá)正在加速研發(fā)基于最新Blackwell架構(gòu)的AI
    的頭像 發(fā)表于 08-20 15:19 ?3752次閱讀
    外媒:<b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b>正開發(fā)新款中國特供<b class='flag-5'>芯片</b>B30A 或?yàn)槠炫?b class='flag-5'>AI</b>芯品B300的閹割版

    英偉達(dá)AI人才,去了華為

    電子發(fā)燒友網(wǎng)綜合報(bào)道 近日,英偉達(dá)首席科學(xué)家比爾·戴利(Bill Dally)表示,美國對(duì)中國實(shí)施的人工智能出口管制禁令,讓中國獲得很大的發(fā)展空間,過去替英偉達(dá)撰寫程序的中國人工智能研
    的頭像 發(fā)表于 06-06 00:05 ?7395次閱讀

    今日看點(diǎn)丨英偉達(dá)將為中國市場(chǎng)推出新AI芯片 售價(jià)大幅低于H20;中科曙光與海光信息宣布戰(zhàn)略重組

    1. 英偉達(dá)將為中國市場(chǎng)推出新AI 芯片 售價(jià)大幅低于H20 ? 近日,外媒報(bào)道稱,美國芯片巨頭英偉
    發(fā)表于 05-26 11:06 ?1664次閱讀

    特朗普叫停英偉達(dá)對(duì)華特供版 英偉達(dá)H20出口限制 或損失55億美元

    是“中國特供版”人工智能芯片;是英偉達(dá)公司為符合美國出口規(guī)定專門為中國市場(chǎng)開發(fā)的定制芯片,H20芯片在訓(xùn)練
    的頭像 發(fā)表于 04-16 16:59 ?2136次閱讀

    英偉達(dá)、高通布局AI投資版圖,這些明星企業(yè)被收入囊中!

    的模型并不會(huì)減少芯片的需求,相反,未來的計(jì)算需求只會(huì)增加,尤其是對(duì)計(jì)算基礎(chǔ)設(shè)施的需求。 英偉達(dá)也在利用其雄厚的資金大幅增加了對(duì)各種初創(chuàng)公司的投資,尤其是對(duì)AI初創(chuàng)公司的投資。根據(jù)Pit
    的頭像 發(fā)表于 03-25 09:22 ?2189次閱讀