91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

緩解AI推理算力焦慮,高帶寬GDDR6成殺手锏?

Rambus 藍鉑世科技 ? 來源:芯東西 ? 2023-06-02 15:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

芯東西 5 月 22 日報道,生成式 AI 的日益火爆,正對數(shù)據(jù)中心內(nèi)存性能提出更加苛刻的要求。無論是云端 AI 訓(xùn)練還是向網(wǎng)絡(luò)邊緣轉(zhuǎn)移的 AI 推理,都需要高帶寬、低時延的內(nèi)存。邁向高性能 GDDR6 內(nèi)存接口已是大勢所趨。

近日,推出業(yè)界領(lǐng)先 24Gb/s GDDR6 PHY 的美國半導(dǎo)體 IP 和芯片供應(yīng)商 Rambus,其兩位高管與芯東西等媒體進行線上交流,分享了 Rambus 在 GDDR6 領(lǐng)域的技術(shù)創(chuàng)新及行業(yè)發(fā)展趨勢。

"ChatGPT 等 AIGC 應(yīng)用與我們公司的產(chǎn)品組合是非常契合的。"Rambus 大中華區(qū)總經(jīng)理蘇雷說,Rambus China 立足于中國市場,愿意更多、更緊密地支持中國公司在 ChatGPT 產(chǎn)業(yè)的發(fā)展,為他們保駕護航,"Rambus 面對中國客戶的需求,有最好的技術(shù)、最快的響應(yīng)和最好的技術(shù)支持來服務(wù)中國市場。"

據(jù) Rambus IP 核產(chǎn)品營銷高級總監(jiān) Frank Ferro 分享,AI 推理應(yīng)用對帶寬的需求通常在 200 到 500Gb/s 的范圍之間波動,每一個 GDDR6 設(shè)備的帶寬都可以達到 96Gb/s,因此通過將 4-5 個 GDDR6 設(shè)備組合在一起,就能輕松滿足 500Gb/s 及以下的帶寬需求。

他談道,如果用到一個 HBM3 設(shè)備,基本上會把這個帶寬需求的數(shù)字翻倍,能夠達到接近 800Gb/s 的帶寬,而這超過了 AI 推理本身所需要的 400 到 500Gb/s 帶寬,會使成本增加 3~4 倍。在這種條件下,HBM 并非一個經(jīng)濟高效的選擇,GDDR6 則是一個更好的替代。

他建議按需選擇 HBM 或是 GDDR6 內(nèi)存,對于對高帶寬和低延遲有很高要求的 AI 訓(xùn)練場景,HBM 可能是更好的選擇;對于需要更大容量、更高帶寬的 AI 推理場景,GDDR6 會是更合適的選擇。

高性能內(nèi)存和互連方案,支持下一代數(shù)據(jù)中心發(fā)展

Rambus 大中華區(qū)總經(jīng)理蘇雷談道,Rambus 主要業(yè)務(wù)包含基礎(chǔ)專利授權(quán)、芯片 IP 授權(quán)和內(nèi)存接口芯片。其中芯片 IP 又主要分為接口 IP 和安全 IP。其技術(shù)和產(chǎn)品面向數(shù)據(jù)密集型市場,包括數(shù)據(jù)中心、5G、物聯(lián)網(wǎng) IoT、汽車等細分市場,后續(xù)還將推出 CXL 家族各產(chǎn)品組合芯片。

b3cf8354-fbd7-11ed-90ce-dac502259ad0.jpg

面向數(shù)據(jù)中心,Rambus 非常注重產(chǎn)品和方案的易用性,通過一站式的解決方案以及完善的服務(wù)機制,使產(chǎn)品方案變得更易在客戶端集成使用。Rambus 陸續(xù)推出了各內(nèi)存子系統(tǒng)、接口子系統(tǒng),提供業(yè)界領(lǐng)先、可靠的數(shù)據(jù)傳輸。其 GDDR6 接口子系統(tǒng)率先實現(xiàn)高達 24Gb/s 的內(nèi)存接口數(shù)據(jù)速率,并能為每個 GDDR6 內(nèi)存設(shè)備提供最高達到 96Gb/s 的帶寬。

Rambus 的內(nèi)存接口芯片產(chǎn)品不斷提高數(shù)據(jù)中心內(nèi)存模塊的速度和容量,同時它擁有非常豐富而全面的安全 IP 產(chǎn)品線,對用于靜態(tài)數(shù)據(jù)以及動態(tài)數(shù)據(jù)安全保護都有著專門安全的產(chǎn)品方案。

總體來說,Rambus 通過領(lǐng)先的高性能內(nèi)存和互聯(lián)解決方案以及硬件級安全,支持下一代數(shù)據(jù)中心的發(fā)展。其產(chǎn)品應(yīng)用領(lǐng)域聚焦于服務(wù)器主內(nèi)存、人工智能和網(wǎng)絡(luò)加速器、智能網(wǎng)卡、網(wǎng)絡(luò)存儲、網(wǎng)絡(luò)交換機以及內(nèi)存擴展和池化等。

b3f79e98-fbd7-11ed-90ce-dac502259ad0.jpg

內(nèi)存是未來 AI 性能的關(guān)鍵

Rambus IP 核產(chǎn)品營銷高級總監(jiān) Frank Ferro 著重分享了迄今市場推動高性能需求的主要驅(qū)動力,以及未來如何更好滿足 AI 性能需求。

數(shù)據(jù)需求依舊呈現(xiàn)上漲趨勢。ChatGPT 等 AI 相關(guān)應(yīng)用快速發(fā)展,對內(nèi)存帶寬需求旺盛,因此市面上越來越多公司開始專注于開發(fā)自己個性化、定制化的處理器產(chǎn)品,以更好地滿足神經(jīng)網(wǎng)絡(luò)以及專屬應(yīng)用的需求。

Frank Ferro 強調(diào)說,盡管算力增長非常顯著,但帶寬的進步與之并不匹配,即現(xiàn)有高算力的基礎(chǔ)之上,很多的 GPU 資源其實并沒有得到充分的占用和利用,這造成了現(xiàn)在的困境。

AI 訓(xùn)練環(huán)節(jié)需要錄入大量數(shù)據(jù)進行分析,需要消耗大量算力。AI 推理環(huán)節(jié)對算力的需求會大幅下降,但對成本和功耗更加敏感。Frank Ferro 談道,一個重要趨勢是 AI 推理越來越多地向邊緣設(shè)備上進行集成和轉(zhuǎn)移。在這個變化過程中,擁有更高帶寬、更低時延特性的 GDDR6 方案,能夠幫助邊緣端更好地處理數(shù)據(jù)。

對帶寬需求進一步的增加,驅(qū)動了像 Rambus 這樣的公司不斷地在去打造更加新一代的產(chǎn)品,不斷地提高內(nèi)存帶寬以及接口帶寬的相關(guān)速度。

GDDR6 能夠提供 AI 推理所需的內(nèi)存性能

Rambus 有著豐富的接口 IP 產(chǎn)品組合,同時也提供像 DDR、LPDDR 以及 HBM 等產(chǎn)品,并非常關(guān)注 SerDes 產(chǎn)品的開發(fā),主要聚焦于 PCIe 和 CXL 接口,會開發(fā)配套的 PHY 及控制器。Rambus 的 HBM 產(chǎn)品擁有領(lǐng)先的市占率,同時其 HBM3 產(chǎn)品已經(jīng)能夠提供高達 8.4Gbps/s 的數(shù)據(jù)傳輸速率。

b43677c6-fbd7-11ed-90ce-dac502259ad0.jpg

其全新 GDDR6 PHY 及控制器的配套產(chǎn)品已達到業(yè)界領(lǐng)先的 24Gb/s 的數(shù)據(jù)傳輸速率,可為 AI 推理等應(yīng)用場景帶來巨大性能優(yōu)勢和收益。此外,該產(chǎn)品在功耗管理方面優(yōu)勢明顯,并實現(xiàn)了 PHY 以及控制器的完整集成,即客戶收到產(chǎn)品后,可以直接對其子系統(tǒng)進行定制化應(yīng)用。

b4563b92-fbd7-11ed-90ce-dac502259ad0.jpg

如圖是 GDDR6 內(nèi)存接口系統(tǒng),Rambus 提供的是中間標(biāo)藍的兩個重要環(huán)節(jié),也就是完整的子系統(tǒng)。Rambus 會根據(jù)客戶具體應(yīng)用場景和實際的訴求對子系統(tǒng)來進行優(yōu)化,并將其作為完整的子系統(tǒng)來交付給客戶。

clamshell 模式指每個信道可支持兩個 GDDR6 的設(shè)備。換句話說,在 clamshell 模式之下,整個容量是直接翻倍乘以 2 的。值得一提的是,GDDR6 現(xiàn)已支持先進的 FinFET 工藝節(jié)點環(huán)境。

此外,Rambus 也會針對 PCB 以及封裝提供相關(guān)的參考設(shè)計,同時內(nèi)部有信號完整度和邊緣完整性方面的專家,來幫助客戶完成整個設(shè)計工作。

市面上很多 GPU 加速器都已經(jīng)用到 GDDR6。由于在成本和性能之間達到不錯的平衡,GDDR6 成為在 AI 應(yīng)用場景下比較合理的產(chǎn)品和選擇。而 Rambus 擁有領(lǐng)先的 SI/PI 專業(yè)知識,可以進行早期的協(xié)同設(shè)計和開發(fā),確保 GDDR6 產(chǎn)品的性能表現(xiàn),也能更好地去縮短產(chǎn)品的上市時間。

結(jié)語:在帶寬、成本、方案復(fù)雜性之間實現(xiàn)平衡

隨著 AI 應(yīng)用趨于盛行,蘇雷談道,下游廠商首先關(guān)注高帶寬,并開始關(guān)注方案的成本和復(fù)雜性,"GDDR 技術(shù)是在帶寬、成本和方案復(fù)雜性的各因素之間提供了一個非常完美的折中技術(shù)方案。" 他預(yù)計到 2025 年或 2026 年市場上會出現(xiàn)使用 GDDR6 IP 的芯片。

進入全新的 GDDR6 時代,相關(guān)產(chǎn)品已開始采用 16 位的雙讀寫通道。雙讀寫通道加起來是 32 位的數(shù)據(jù)寬度,而 GDDR6 內(nèi)存有 8 個雙讀寫通道,總共可實現(xiàn) 256 位的數(shù)據(jù)傳輸寬度,所以能夠顯著提高數(shù)據(jù)傳輸?shù)乃俣群托?,系統(tǒng)層效率和功耗管理也能得到進一步的優(yōu)化。

除了適用于 AI 推理場景外,F(xiàn)rank Ferro 說,GDDR6 也會在圖形領(lǐng)域和一些網(wǎng)絡(luò)應(yīng)用場景中起到重要作用,能夠大幅降低網(wǎng)絡(luò)邊緣設(shè)備對 DDR 數(shù)量的需求。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    463

    文章

    54017

    瀏覽量

    466319
  • 控制器
    +關(guān)注

    關(guān)注

    114

    文章

    17795

    瀏覽量

    193362
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39820

    瀏覽量

    301495

原文標(biāo)題:【媒體報道】緩解 AI 推理算力焦慮,高帶寬 GDDR6 成殺手锏?

文章出處:【微信號:Rambus 藍鉑世科技,微信公眾號:Rambus 藍鉑世科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    R480-X8面向下一代AI集群的高密度算模塊:技術(shù)架構(gòu)與應(yīng)用分析

    基于開放計算標(biāo)準(OCP OAI/OAM)設(shè)計的高密度AI加速器組,通過模塊化集成,在單一節(jié)點內(nèi)聚合高達1 PFLOPS(FP16)與2 POPS(INT8)的峰值算。其配備大容量GDDR6內(nèi)存
    的頭像 發(fā)表于 12-14 13:15 ?1252次閱讀
    R480-X8面向下一代<b class='flag-5'>AI</b>集群的高密度算<b class='flag-5'>力</b>模塊:技術(shù)架構(gòu)與應(yīng)用分析

    昆侖芯R200 AI加速卡技術(shù)規(guī)格解析

    昆侖芯R200加速卡基于7nm XPU-R架構(gòu),在150W功耗下提供256 TOPS INT8算,側(cè)重高性能推理。配備最高32GB GDDR6內(nèi)存(512GB/s帶寬)及108路視頻
    的頭像 發(fā)表于 12-14 13:12 ?1593次閱讀
    昆侖芯R200 <b class='flag-5'>AI</b>加速卡技術(shù)規(guī)格解析

    積木+3D堆疊!GPNPU架構(gòu)創(chuàng)新,應(yīng)對AI推理需求

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)2025年,人工智能正式邁入應(yīng)用推理時代。大模型從實驗室走向千行百業(yè),推理需求呈指數(shù)級爆發(fā)。然而,高昂的推理成本與有限的算供給之間的矛盾日益凸顯,成為制
    的頭像 發(fā)表于 12-11 08:57 ?7847次閱讀

    2025昇騰AI技術(shù)研討會·杭州站盛大開啟!小眼睛科技誠邀您共同見證AI+FPGA賦能昇騰新生態(tài)!

    ”合二為一,打造邊緣實時、低功耗、算法快速迭代場景下的“殺手锏”組合,推出“訓(xùn)練在云端、推理在邊緣、算法可熱插拔”的端到端異構(gòu)加速平臺。近期,由華為技術(shù)有限公司&華強半
    的頭像 發(fā)表于 12-11 08:03 ?690次閱讀
    2025昇騰<b class='flag-5'>AI</b>技術(shù)研討會·杭州站盛大開啟!小眼睛科技誠邀您共同見證<b class='flag-5'>AI</b>+FPGA賦能昇騰新生態(tài)!

    搶灘AI MCU增量市場,君正新品有何殺手锏破局關(guān)鍵

    為何AI MCU成為君正主要發(fā)的增量市場?在邊緣AI MCU賦能AI設(shè)備的需求當(dāng)中,算和算法是當(dāng)下芯片設(shè)計的兩大挑戰(zhàn),北京君正如何解決這
    的頭像 發(fā)表于 11-05 09:17 ?1.5w次閱讀
    搶灘<b class='flag-5'>AI</b> MCU增量市場,君正新品有何<b class='flag-5'>殺手锏</b><b class='flag-5'>成</b>破局關(guān)鍵

    AI推理需求爆發(fā)!通首秀重磅產(chǎn)品,國產(chǎn)GPU的自主牌怎么打?

    10月29日,在安博會的2025智能算應(yīng)用及產(chǎn)業(yè)發(fā)展論壇上,超聚變數(shù)字技術(shù)有限公司深圳解決方案總監(jiān)丁元釗表示,原來我們預(yù)計2026年是AI推理爆發(fā)元年,2025年DeepSeek-R1,V3模型
    的頭像 發(fā)表于 10-30 00:46 ?1.4w次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>需求爆發(fā)!<b class='flag-5'>高</b>通首秀重磅產(chǎn)品,國產(chǎn)GPU的自主牌怎么打?

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    建立的基礎(chǔ): ①算支柱②數(shù)據(jù)支柱③計算支柱 1)算AI有關(guān)的因素: ①晶體管數(shù)量②晶體管速度③芯片架構(gòu)④芯片面積⑤制造工藝⑥芯片內(nèi)部擴展⑦內(nèi)存
    發(fā)表于 09-18 15:31

    商湯大裝置躋身中國大模型推理算廠商第一梯隊

    近日,IDC發(fā)布首個《2025中國大模型推理算市場分析報告》。
    的頭像 發(fā)表于 08-14 09:29 ?4925次閱讀

    今日看點丨華為發(fā)布AI推理創(chuàng)新技術(shù)UCM;比亞迪汽車出口暴增130%

    緩存加速算法工具,分級管理推理過程中產(chǎn)生的KV Cache記憶數(shù)據(jù),可擴大推理上下文窗口,實現(xiàn)吞吐、低時延的推理體驗,降低每Token推理
    發(fā)表于 08-13 09:45 ?5363次閱讀

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡(luò)智能診斷邁向 “自愈”時代

    、資源分配的最優(yōu)策略建議,減少資源浪費,提升整體網(wǎng)絡(luò)效率。 客戶實證:AI推理引擎的精準力量某大型政務(wù)云平臺遭遇核心業(yè)務(wù)運行緩慢問題,初步懷疑網(wǎng)絡(luò)帶寬不足。在利用信而泰xnSight網(wǎng)絡(luò)應(yīng)用性能管理系統(tǒng)
    發(fā)表于 07-16 15:29

    瑞之辰傳感器:從“卡脖子”到“殺手锏”的技術(shù)突圍

    壓力傳感器的國產(chǎn)化替代,將這一“卡脖子”難題逐步轉(zhuǎn)變?yōu)樽陨淼募夹g(shù)“殺手锏”。破解“卡脖子”的技術(shù)密碼當(dāng)動力電池安全監(jiān)測需要精度達1%FS的微型壓力傳感器時,當(dāng)工業(yè)自動化
    的頭像 發(fā)表于 07-01 17:06 ?2081次閱讀
    瑞之辰傳感器:從“卡脖子”到“<b class='flag-5'>殺手锏</b>”的技術(shù)突圍

    革命:RoCE實測推理時延比InfiniBand低30%的底層邏輯

    AI 訓(xùn)練與推理中的網(wǎng)絡(luò)效率瓶頸,助力數(shù)據(jù)中心在帶寬、低延遲、高可靠性的需求下實現(xiàn)算資源的最優(yōu)配置。
    的頭像 發(fā)表于 05-28 14:08 ?2117次閱讀
    算<b class='flag-5'>力</b>革命:RoCE實測<b class='flag-5'>推理</b>時延比InfiniBand低30%的底層邏輯

    RAKsmart服務(wù)器如何重塑AI并發(fā)算格局

    AI大模型參數(shù)量突破萬億級、實時推理需求激增的當(dāng)下,傳統(tǒng)服務(wù)器架構(gòu)的并發(fā)處理能力已逼近物理極限。RAKsmart通過“硬件重構(gòu)+軟件定義”的雙引擎創(chuàng)新,推出新一代AI服務(wù)器解決方案。下面,A
    的頭像 發(fā)表于 04-03 10:37 ?919次閱讀

    DeepSeek推動AI需求:800G光模塊的關(guān)鍵作用

    類型和功耗選項,是數(shù)據(jù)中心向800G帶寬擴展的理想選擇。 市場前景廣闊: 隨著AI需求的不斷增長,尤其是在超大規(guī)模數(shù)據(jù)中心和AI集群的建設(shè)中,對
    發(fā)表于 03-25 12:00

    國產(chǎn)推理服務(wù)器如何選擇?深度解析選型指南與華頡科技實戰(zhàn)案例

    人工智能技術(shù)的爆發(fā)催生了對推理算的迫切需求,而進口服務(wù)器的成本與技術(shù)依賴性,推動了國產(chǎn)推理服務(wù)器的快速發(fā)展。據(jù)IDC預(yù)測,到2025年,中國AI
    的頭像 發(fā)表于 03-24 17:11 ?1246次閱讀
    國產(chǎn)<b class='flag-5'>推理</b>服務(wù)器如何選擇?深度解析選型指南與華頡科技實戰(zhàn)案例