
該技術(shù)是一款以KV Cache為中心的推理加速套件,UCM集成了多類型緩存加速算法工具,實現(xiàn)推理過程中KV Cache記憶數(shù)據(jù)的分級管理,從而擴大推理上下文窗口,提升推理效率?!般y聯(lián)的實際案例和大量測試顯示,UCM顯著降低首Token的時延,最高降低90%,系統(tǒng)吞吐率最大提升22倍,上下文的推理窗口可以擴展10倍以上,這是對于AI推理系統(tǒng)一個巨大的進步。” 周越峰指出。
華為UCM技術(shù)已率先應(yīng)用在中國銀聯(lián)“客戶之聲”、“營銷策劃”和“辦公助手”三大業(yè)務(wù)場景,開展智慧金融AI推理加速應(yīng)用試點,并且已經(jīng)取得成果。華為表示,計劃于2025年9月正式開源UCM,將在魔擎社區(qū)首發(fā),并共享給業(yè)內(nèi)所有Share Everything(共享架構(gòu))存儲廠商和生態(tài)伙伴。

AI大模型推理給存儲帶來哪些挑戰(zhàn)?UCM的創(chuàng)新之處如何解讀?本文結(jié)合中國信通院人工智能研究平臺與工程化部主任曹峰、華為數(shù)據(jù)存儲產(chǎn)品線AI存儲首席架構(gòu)師李國杰的觀點,進行詳細(xì)分析。
AI大模型推理給存儲帶來三重挑戰(zhàn)
“ChatGPT的訪問量呈現(xiàn)線性增長,最新訪問量達到4億,受益于中國AI大模型DeepSeek爆發(fā),日均調(diào)用量也在快速上升,2025年1月開始,中國AI推理的需求增長20倍,未來三年算力需求爆發(fā)。IDC表示,2024年算力需求60%是訓(xùn)練,40%是推理,到2027年中國用于推理的算力需求——工作負(fù)載將達到72.6%?!?中國信通院人工智能研究平臺與工程化部主任曹峰分析說。

當(dāng)下,AI大模型推理應(yīng)用落地中,遇到推不動、推得慢和推得貴的三大挑戰(zhàn)。首先,長文本越來越多,輸入超過模型上下文窗口的內(nèi)容,推理窗口小就推不動;其次,由于中美在AI基礎(chǔ)設(shè)施的差距,中國互聯(lián)網(wǎng)大模型首Token時延普遍慢于美國頭部廠商的首Token時延,時延長度為后者的兩倍;推得貴,美國大模型的推理吞吐率為中國大模型推理吞吐率的10倍。
華為公司副總裁、數(shù)據(jù)存儲產(chǎn)品線總裁周越峰指出,AI時代,模型訓(xùn)練、推理效率與體驗的量綱都以Token數(shù)為表征,Token經(jīng)濟已經(jīng)到來。

在AI基礎(chǔ)設(shè)施投資,中國和美國有差距,為了保障流暢的推理體驗,企業(yè)要加大算力投入,但是如何改善AI推理的效率和體驗,在推理效率與成本之間找到最佳平衡點?華為推出UCM,以KV Cache和記憶管理為中心提供全場景化系列化推理加速能力。
UCM兩大關(guān)鍵能力和創(chuàng)新算法,破解HBM受困難題
HBM是解決"數(shù)據(jù)搬運"的關(guān)鍵技術(shù)。當(dāng)HBM不足時,用戶使用AI推理的體驗會明顯下降,導(dǎo)致出現(xiàn)任務(wù)卡頓、響應(yīng)慢等問題。華為此次技術(shù)突破有望緩解這一瓶頸。
華為重磅推出UCM推理記憶數(shù)據(jù)管理器,包括對接不同引擎與算力的推理引擎插件(Connector)、支持多級KV Cache管理及加速算法的功能庫(Accelerator)、高性能KV Cache存取適配器(Adapter)三大組件,通過推理框架、算力、存儲三層協(xié)同,實現(xiàn)AI推理“更優(yōu)體驗、更低成本”。

UCM的創(chuàng)新之處,在于可以根據(jù)記憶熱度在HBM、DRAM、SSD等存儲介質(zhì)中實現(xiàn)按需流動,同時融合多種稀疏注意力算法實現(xiàn)存算深度協(xié)同,使長序列場景下TPS(每秒處理token數(shù))提升2至22倍,從而降低每個Token的推理成本。
“實時數(shù)據(jù)放在HBM當(dāng)中,短期記憶數(shù)據(jù)放在DRAM中,其他數(shù)據(jù)就放在共享存儲SSD中,極大提高系統(tǒng)的效率和AI推理能力。針對AI推理平衡成本和效能的挑戰(zhàn),華為推出UCM統(tǒng)一的記憶數(shù)據(jù)管理器,在兩個層面以系統(tǒng)化的方案來解決問題?!?華為數(shù)據(jù)存儲產(chǎn)品線AI存儲首席架構(gòu)師李國杰表示。
一、在底層的框架和機制上提供了多級緩存空間,構(gòu)建智能管理以及智能流動的基礎(chǔ)框架能力。在此基礎(chǔ)之上,華為構(gòu)筑了一系列創(chuàng)新的推理的加速算法和加速特性,包括自適應(yīng)的全局Prefix Cache,降低首Token時延與單位Token成本。
二、采用動態(tài)的Training稀疏加速算法,倍數(shù)級提升長序列吞吐和體驗。還有后綴檢索、預(yù)測加速算法、PD檢索加速和Agent原生記憶加速。
UCM將超長序列Cache分層卸載至外置專業(yè)存儲,通過算法創(chuàng)新突破模型和資源限制,實現(xiàn)推理上下文窗口的10倍級擴展,滿足長文本處理需求。

中國銀聯(lián)執(zhí)行副總裁涂曉軍分享說,華為與中國銀聯(lián)的聯(lián)合創(chuàng)新技術(shù)試點中,在中國銀聯(lián)的“客戶之聲”業(yè)務(wù)場景下,借助UCM技術(shù)及工程化手段,大模型推理速度提升125倍,僅需10秒就可以精準(zhǔn)識別客戶高頻問題,促進服務(wù)質(zhì)量提升。
眾所周知,目前,AI大模型訓(xùn)練對內(nèi)存帶寬需求呈指數(shù)級增長,傳統(tǒng)DDR內(nèi)存已無法滿足需求。HBM(高帶寬內(nèi)存)是一種專用內(nèi)存技術(shù),用于 AI 處理器、GPU 和 HPC 系統(tǒng),這些系統(tǒng)中帶寬和能效比原始容量更為重要。HBM3 每堆??商峁└哌_ 819 GB/s 的傳輸速度,對于支持大型語言模型 (LLM)、神經(jīng)網(wǎng)絡(luò)訓(xùn)練和推理工作負(fù)載至關(guān)重要。
但是去年12月以來美國將HBM2E列入對中國的禁售清單,國產(chǎn)廠商HBM的突破還在推進中,華為推出UCM的重大意義,在于加速推進國產(chǎn)AI推理生態(tài),其核心價值是推進更快的推理響應(yīng)和更長的推理序列,以及更優(yōu)化的成本。
中國信通院人工智能研究平臺與工程化部主任曹峰認(rèn)為,國產(chǎn)化AI推理生態(tài)建設(shè)應(yīng)該加速,KV Cache已經(jīng)成為架構(gòu)優(yōu)化的焦點,以KV Cache為核心的推理方案迭出,背后依賴的高性能存儲、先進調(diào)度策略的重要性愈發(fā)顯現(xiàn)。
李國杰還強調(diào)指出,AI是一個快速發(fā)展的行業(yè),每6個月就會迎來新一輪的技術(shù)革新,UCM不僅定位于當(dāng)下,解決AI推理問題,未來發(fā)展UCM將從KV Cache分層管理走向Agentic AI原生記憶管理和應(yīng)用加速。
本文由電子發(fā)燒友原創(chuàng),轉(zhuǎn)載請注明以上來源。微信號zy1052625525。需入群交流,請?zhí)砑游⑿舉lecfans999,投稿爆料采訪需求,請發(fā)郵箱zhangying@huaqiu.com。
-
華為
+關(guān)注
關(guān)注
218文章
36037瀏覽量
262160 -
UC
+關(guān)注
關(guān)注
2文章
58瀏覽量
61990 -
銀聯(lián)
+關(guān)注
關(guān)注
0文章
13瀏覽量
9603 -
HBM
+關(guān)注
關(guān)注
2文章
431瀏覽量
15838 -
AI大模型
+關(guān)注
關(guān)注
0文章
398瀏覽量
1004
發(fā)布評論請先 登錄
使用NORDIC AI的好處
華為發(fā)布并開源創(chuàng)新AI容器技術(shù)Flex:ai
華為亮相2025金融AI推理應(yīng)用落地與發(fā)展論壇
降低HBM依賴,華為發(fā)布AI推理創(chuàng)新技術(shù)UCM#HBM #華為?
今日看點丨華為發(fā)布AI推理創(chuàng)新技術(shù)UCM;比亞迪汽車出口暴增130%
AI推理芯片賽道猛將,200億市值AI芯片企業(yè)赴港IPO
華為破解HBM依賴!AI推理黑科技UCM上線,9月正式開源
評論