91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI推理的存儲,看好SRAM?

晶芯觀察 ? 來源:電子發(fā)燒友網(wǎng) ? 作者:黃晶晶 ? 2025-03-03 08:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/黃晶晶)近幾年,生成式AI引領(lǐng)行業(yè)變革,AI訓(xùn)練率先崛起,帶動高帶寬內(nèi)存HBM一飛沖天。但我們知道AI推理的廣泛應(yīng)用才能推動AI普惠大眾。在AI推理方面,業(yè)內(nèi)巨頭、初創(chuàng)公司等都看到了其前景并提前布局。AI推理也使得存儲HBM不再是唯一熱門,更多存儲芯片與AI推理芯片結(jié)合,擁有了市場機會。

已經(jīng)有不少AI推理芯片、存算一體芯片將SRAM替代DRAM,從而獲得更快的訪問速度、更低的刷新延遲等。

靜態(tài)隨機存取存儲器(Static Random-Access Memory,SRAM)是隨機存取存儲器的一種。這種存儲器只要保持通電,里面儲存的數(shù)據(jù)就可以恒常保持。相對之下,動態(tài)隨機存取存儲器(DRAM)里面所儲存的數(shù)據(jù)就需要周期性地更新。但當(dāng)電力供應(yīng)停止時,SRAM儲存的數(shù)據(jù)還是會消失,這與在斷電后還能儲存資料的ROM或閃存不同。

SRAM具有較高的性能,但SRAM的集成度較低,功耗較DRAM大,SRAM需要很大的面積。同樣面積的硅片可以做出更大容量的DRAM,因此SRAM顯得更貴。SRAM可作為置于CPU與主存間的高速緩存,不需要定期刷新,響應(yīng)速度非???,可用于CPU的一級緩沖、二級緩沖。

GroqLPU近存計算

在AI推理大潮下,Groq公司開發(fā)的語言處理單元(Language Processing Unit,即LPU),以其獨特的架構(gòu),帶來了極高的推理性能的表現(xiàn)。

Groq的芯片采用14nm制程,搭載了230MB SRAM以保證內(nèi)存帶寬,片上內(nèi)存帶寬達(dá)80TB/s。
SRAM 的訪問速度比 DRAM 快得多,這使得它在某些計算密集型應(yīng)用中表現(xiàn)得非常出色。Groq LPU 芯片采用大容量 SRAM內(nèi)存有助于提高機器學(xué)習(xí)人工智能等計算密集型工作負(fù)載的效率。

Groq成立于 2016 年,總部位于美國加利福尼亞州山景城,是一家 AI 推理芯片廠商。該公司核心團(tuán)隊來源于谷歌最初的張量處理單元(TPU)工程團(tuán)隊。Groq 創(chuàng)始人兼CEO Jonathan Ross是谷歌TPU項目的核心研發(fā)人員。

2024年8月,Groq 在最新一輪融資中籌集了 6.4 億美元,由 BlackRock Inc. 基金領(lǐng)投,并得到了思科和三星投資部門的支持。

2024 年 12 月Groq在沙特阿拉伯達(dá)曼構(gòu)建了中東地區(qū)最大的推理集群,該集群包括了 19000 個Groq LPU,并在 8 天內(nèi)上線。

今年2月,Groq成功從沙特阿拉伯籌集 15 億美元融資,用于擴(kuò)展其位于沙特阿拉伯的 AI 基礎(chǔ)設(shè)施。

AxeleraAIPU芯片:內(nèi)存計算+RISC-V架構(gòu)

Axelera公司介紹,內(nèi)存計算是一種完全不同的數(shù)據(jù)處理方法,在這種方法中,存儲器設(shè)備的橫桿陣列可以用來存儲矩陣,并在沒有中間數(shù)據(jù)移動的情況下“就地”執(zhí)行矩陣向量乘法。專有的數(shù)字內(nèi)存計算(D-IMC)技術(shù)是實現(xiàn)高能效和卓越性能的關(guān)鍵?;赟RAM(靜態(tài)隨機訪問存儲器)和數(shù)字計算相結(jié)合,每個存儲單元有效地成為一個計算單元。這從根本上增加了每個計算機周期的操作數(shù)(每個存儲單元每個周期一次乘法和一次累加),而不受噪音或較低精度等問題的影響。

Axelera的AIPU芯片采用了創(chuàng)新的內(nèi)存計算技術(shù)。與傳統(tǒng)的磁盤存儲相比,內(nèi)存計算將數(shù)據(jù)存儲在主內(nèi)存(RAM)中,從而加快了數(shù)據(jù)處理速度。這一技術(shù)使得Axelera的芯片在提供高計算性能的同時,能以更低的成本和能耗來進(jìn)行邊緣AI計算。該芯片還采用了開源的RISC-V指令集架構(gòu)(ISA)。RISC-V作為一種低成本、高效且靈活的ISA,允許根據(jù)特定的應(yīng)用需求進(jìn)行定制。它為Axelera提供了極大的設(shè)計自由度和創(chuàng)新空間。

去年,Axelera獲得了來自三星電子風(fēng)險投資部門三星Catalyst的大力支持,成功籌集了6800萬美元,至此Axelera的總?cè)谫Y額已達(dá)到1.2億美元。新投資者包括三星基金、歐洲創(chuàng)新委員會基金、創(chuàng)新產(chǎn)業(yè)戰(zhàn)略伙伴關(guān)系基金和Invest-NL。

EnCharge AI模擬存內(nèi)計算

AI 芯片初創(chuàng)公司 EnCharge AI表示,已開發(fā)出一種用于 AI 推理的新型內(nèi)存計算架構(gòu),EnCharge AI的核心技術(shù)是基于模擬存內(nèi)計算的AI芯片。這種創(chuàng)新的芯片設(shè)計采用"基于電荷的存儲器",通過讀取存儲平面上的電流而非單個比特單元來處理數(shù)據(jù),使用更精確的電容器替代了傳統(tǒng)的半導(dǎo)體。

GPU等數(shù)字加速器相比,每瓦性能提高了 20 倍。EnCharge AI的推理芯片僅需一瓦的功率就能以8位元精度提供150 TOPS的AI運算。

EnCharge AI源自普林斯頓大學(xué),該公司創(chuàng)始人兼CEO Naveen Verma的相關(guān)研究項目涉及到內(nèi)存計算。用于機器學(xué)習(xí)計算的內(nèi)存計算采用在RAM中運行計算的方式,以減少存儲設(shè)備帶來的延遲。

今年初,EnCharge AI完成超額認(rèn)購的1億美元b輪融資。此輪超額認(rèn)購融資使EnCharge AI的總?cè)谫Y額超過1.44億美元,將推動其首款以客戶端運算為主的AI加速器產(chǎn)品,并在2025年實現(xiàn)商業(yè)化。

d-Matrix數(shù)字內(nèi)存計算DIMC架構(gòu)

d-Matrix采用數(shù)字內(nèi)存計算(DIMC)的引擎架構(gòu)將計算移動到RAM(內(nèi)存)附近,該數(shù)字存算一體技術(shù)將存儲器與計算單元中的乘法累加器(MAC)進(jìn)行了合并,獲得了更大的計算帶寬和效率,降低延遲,減少能耗。首批采用d-Matrix的DIMC架構(gòu)的產(chǎn)品Jayhawk II處理器,包含約165億晶體管的Chiplet。每個Jayhawk II Chiplet都包含一個RISC-V核心對Chiplet進(jìn)行管理,每個核心有八個并行操作的DIMC單元。

去年底d-Matrix首款人工智能芯片Corsair開始出貨。每張Corsair卡由多個DIMC計算核心驅(qū)動,具有2400 TFLOP的8位峰值計算能力、2GBSRAM和高達(dá)256GB的LPDDR6。

d-Matrix公司是一家位于加利福尼亞州圣克拉拉市的初創(chuàng)公司,專注于人工智能芯片的研發(fā)。該公司的主要產(chǎn)品是針對數(shù)據(jù)中心云計算中的AI服務(wù)器設(shè)計的芯片,旨在優(yōu)化人工智能推理工作負(fù)載。d-Matrix公司已經(jīng)獲得了多家知名投資機構(gòu)的支持,包括微軟風(fēng)險投資部門、新加坡投資公司淡馬錫、Palo Alto Networks等,D-Matrix曾在2022年4月獲得了4400萬美元融資,由 M12 和韓國半導(dǎo)體制造商 SK 海力士公司領(lǐng)投。累計融資超過1.6億美元。

雖然說SRAM的擁有成本比較高,但其在AI推理運算中能夠減少數(shù)據(jù)來回傳輸?shù)难舆t,避免拖慢整個AI處理的速度。在AI推理的浪潮下,SRAM將發(fā)揮更大的作用。還有哪些存儲芯片因AI推理而贏得機會,我們將持續(xù)關(guān)注報道。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 存儲
    +關(guān)注

    關(guān)注

    13

    文章

    4793

    瀏覽量

    90071
  • sram
    +關(guān)注

    關(guān)注

    6

    文章

    820

    瀏覽量

    117480
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39812

    瀏覽量

    301479
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    華為破解HBM依賴!AI推理黑科技UCM上線,9月正式開源

    8月12日,在2025金融AI推理應(yīng)用落地與發(fā)展論壇上,華為公司副總裁、數(shù)據(jù)存儲產(chǎn)品線總裁周越峰宣布,華為此次和銀聯(lián)聯(lián)合創(chuàng)新,推出AI推理創(chuàng)
    的頭像 發(fā)表于 08-13 08:58 ?1.1w次閱讀
    華為破解HBM依賴!<b class='flag-5'>AI</b><b class='flag-5'>推理</b>黑科技UCM上線,9月正式開源

    低功耗同步SRAM擴(kuò)展存儲器結(jié)構(gòu)特點

    作為存儲解決方案中的關(guān)鍵成員,SRAM(靜態(tài)隨機存取存儲器)憑借其卓越的性能和可靠性,在眾多應(yīng)用場景中占據(jù)不可替代的地位。SRAM的應(yīng)用領(lǐng)域極為廣泛,從個人電腦、工作站到網(wǎng)絡(luò)路由器和各
    的頭像 發(fā)表于 03-06 16:46 ?986次閱讀

    從英偉達(dá)電話會看Agentic AI推理與FPGA價值

    2026年2月,英偉達(dá)發(fā)布2026財年Q4財報:營收681億美元,同比增長73%,數(shù)據(jù)中心業(yè)務(wù)增長75%——預(yù)期中的超預(yù)期。更值得關(guān)注的,是電話會中反復(fù)出現(xiàn)的幾個關(guān)鍵詞:Agentic AI、推理
    的頭像 發(fā)表于 03-04 17:07 ?1065次閱讀
    從英偉達(dá)電話會看Agentic <b class='flag-5'>AI</b><b class='flag-5'>推理</b>與FPGA價值

    AI推理芯片需求爆發(fā),OpenAI欲尋求新合作伙伴

    電子發(fā)燒友網(wǎng)綜合報道,在人工智能迅猛發(fā)展的當(dāng)下,AI推理芯片需求正呈爆發(fā)式增長。 ? AI推理,即支撐如ChatGPT這類AI模型響應(yīng)用戶問
    的頭像 發(fā)表于 02-03 17:15 ?2012次閱讀

    使用NORDIC AI的好處

    原始傳感器數(shù)據(jù),可顯著降低功耗、延長電池壽命。[Edge AI 概述; Nordic Edge AI 技術(shù)頁] 降低云依賴與時延 直接在設(shè)備上做推理,很多決策可以“本地實時”完成,不必等云端響應(yīng)
    發(fā)表于 01-31 23:16

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V3)2026版

    Stack模型推理指南 11分55秒 https://t.elecfans.com/v/28526.html *附件:文檔:Fibo AI Stack模型推理指南_V2.0.pdf *附件:工程源碼:模型
    發(fā)表于 01-15 10:31

    華為數(shù)據(jù)存儲與「DaoCloud 道客」發(fā)布AI推理加速聯(lián)合解決方案

    AI產(chǎn)業(yè)已從“追求模型能力極限”轉(zhuǎn)向“追求推理體驗最優(yōu)化”,推理體驗決定用戶與AI的交互質(zhì)感。當(dāng)前推理應(yīng)用快速發(fā)展,Token調(diào)用量爆發(fā)式增
    的頭像 發(fā)表于 11-28 10:03 ?407次閱讀
    華為數(shù)據(jù)<b class='flag-5'>存儲</b>與「DaoCloud 道客」發(fā)布<b class='flag-5'>AI</b><b class='flag-5'>推理</b>加速聯(lián)合解決方案

    雙口SRAM靜態(tài)隨機存儲存儲原理

    在各類存儲設(shè)備中,SRAM(靜態(tài)隨機存儲器)因其高速、低功耗和高可靠性,被廣泛應(yīng)用于高性能計算、通信和嵌入式系統(tǒng)中。其中,雙口SRAM靜態(tài)隨機存儲
    的頭像 發(fā)表于 11-25 14:28 ?556次閱讀

    PSRAM融合SRAM與DRAM優(yōu)勢的存儲解決方案

    PSRAM(偽靜態(tài)隨機存儲器)是一種兼具SRAM接口協(xié)議與DRAM內(nèi)核架構(gòu)的特殊存儲器。它既保留了SRAM無需復(fù)雜刷新控制的易用特性,又繼承了DRAM的高密度低成本優(yōu)勢。這種獨特的設(shè)計
    的頭像 發(fā)表于 11-11 11:39 ?747次閱讀

    高速存儲sram,帶ECC的異步SRAM系列存儲方案

    在要求高性能與高可靠性的電子系統(tǒng)中,存儲器的選擇往往成為設(shè)計成敗的關(guān)鍵。Netsol推出的高速異步SRAM系列,憑借其出色的性能表現(xiàn)與獨有的錯誤校正(ECC)能力,為工業(yè)控制、通信設(shè)備及高精度計算等應(yīng)用提供了值得信賴的存儲解決方
    的頭像 發(fā)表于 11-05 16:21 ?404次閱讀

    什么是AI模型的推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?1279次閱讀

    華為亮相2025金融AI推理應(yīng)用落地與發(fā)展論壇

    近日,2025金融AI推理應(yīng)用落地與發(fā)展論壇在上海舉行。中國銀聯(lián)執(zhí)行副總裁涂曉軍、華為數(shù)字金融軍團(tuán)CEO曹沖出席本次論壇并發(fā)表致辭。論壇上,華為公司副總裁、數(shù)據(jù)存儲產(chǎn)品線總裁周躍峰博士發(fā)布AI
    的頭像 發(fā)表于 08-15 09:45 ?1233次閱讀

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    DeepSeek-R1:強大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司開發(fā)的新一代AI大模型。其核心優(yōu)勢在于強大的推理引擎能力,融合了自然語言處理(
    發(fā)表于 07-16 15:29

    曙光存儲全新升級AI存儲方案

    近日,曙光存儲全新升級AI存儲方案,秉持“AI加速”理念,面向AI訓(xùn)練、AI
    的頭像 發(fā)表于 03-31 11:27 ?1348次閱讀

    NVIDIA 與行業(yè)領(lǐng)先的存儲企業(yè)共同推出面向 AI 時代的新型企業(yè)基礎(chǔ)設(shè)施

    存儲提供商構(gòu)建搭載 AI 查詢智能體的基礎(chǔ)設(shè)施,利用 NVIDIA 計算、網(wǎng)絡(luò)和軟件,針對復(fù)雜查詢進(jìn)行推理并快速生成準(zhǔn)確響應(yīng) ? 美國加利福尼亞州圣何塞 —— GTC —— 太平洋時間 2025 年
    發(fā)表于 03-19 10:11 ?499次閱讀
    NVIDIA 與行業(yè)領(lǐng)先的<b class='flag-5'>存儲</b>企業(yè)共同推出面向 <b class='flag-5'>AI</b> 時代的新型企業(yè)基礎(chǔ)設(shè)施