動(dòng)態(tài)
-
發(fā)布了文章 2026-02-27 15:46
2026丙午年 RISC-V 十大進(jìn)展預(yù)測
甲辰計(jì)劃(JiachenProject)誕生于2024年除夕,由國內(nèi)多家RISC-V軟件及芯片團(tuán)隊(duì)聯(lián)合發(fā)起,目標(biāo)是在2036年(即下一個(gè)龍年)前實(shí)現(xiàn)完全成熟的RISC-V軟硬件生態(tài)系統(tǒng),并超越所有主流指令集架構(gòu)(ISA)。過去兩年已吸引超過50家國內(nèi)外從事RISC-V芯片及軟件生態(tài)建設(shè)的企業(yè)、研究機(jī)構(gòu)、社區(qū)加入。作為甲辰計(jì)劃(rv2036.org)的主理人, -
發(fā)布了文章 2026-02-26 15:15
-
發(fā)布了文章 2026-02-25 15:11
為什么內(nèi)存重排是人工智能計(jì)算的隱形稅
走進(jìn)任何現(xiàn)代人工智能實(shí)驗(yàn)室、數(shù)據(jù)中心或自動(dòng)駕駛汽車開發(fā)環(huán)境,你都會(huì)聽到工程師們喋喋不休地談?wù)摳↑c(diǎn)運(yùn)算次數(shù)(FLOPS)、運(yùn)算次數(shù)(TOPS)、稀疏性、量化和模型擴(kuò)展定律。這些指標(biāo)充斥著新聞?lì)^條和產(chǎn)品數(shù)據(jù)手冊。但如果你花時(shí)間與那些實(shí)際構(gòu)建或優(yōu)化這些系統(tǒng)的人交流,你會(huì)發(fā)現(xiàn)一個(gè)截然不同的真相:原始的算術(shù)能力并非決定實(shí)際性能的關(guān)鍵。真正重要的是數(shù)據(jù)移動(dòng)的效率。而對于498瀏覽量 -
發(fā)布了文章 2026-02-13 14:35
-
發(fā)布了文章 2026-02-11 15:05
2026年數(shù)據(jù)中心存儲(chǔ)技術(shù)發(fā)展趨勢
本文編譯自ElectronicDesign隨著行業(yè)邁向2026年,數(shù)據(jù)中心架構(gòu)師與系統(tǒng)設(shè)計(jì)師面臨多重壓力交織的局面,這使得存儲(chǔ)設(shè)計(jì)的重要性前所未有。人工智能工作負(fù)載持續(xù)推動(dòng)著對數(shù)據(jù)傳輸、存儲(chǔ)容量與性能的空前需求,而與此同時(shí),全球供應(yīng)鏈中的電力、散熱、空間及元器件供應(yīng)約束愈發(fā)收緊。存儲(chǔ)再也不能被視作計(jì)算層之后的被動(dòng)組件,它已成為主動(dòng)型系統(tǒng)部件,直接影響系統(tǒng)性能501瀏覽量 -
發(fā)布了文章 2026-02-10 15:58
機(jī)器學(xué)習(xí)特征工程:分類變量的數(shù)值化處理方法
編碼是機(jī)器學(xué)習(xí)流程里最容易被低估的環(huán)節(jié)之一,模型沒辦法直接處理文本形式的分類數(shù)據(jù),尺寸(Small/Medium/Large)、顏色(Red/Blue/Green)、城市、支付方式等都是典型的分類特征,必須轉(zhuǎn)成數(shù)值才能輸入到模型中。那么問題來了:為什么不直接把Red編成1,Blue編成2?這個(gè)做法看起來簡單粗暴,但其實(shí)藏著大坑。下面用一個(gè)小數(shù)據(jù)集來說明。數(shù)據(jù)359瀏覽量 -
發(fā)布了文章 2026-02-09 16:28
在AI基礎(chǔ)設(shè)施中部署大語言模型的三大舉措
文:Gartner研究副總裁周玲中國企業(yè)機(jī)構(gòu)已逐步在生產(chǎn)環(huán)境中運(yùn)行或者計(jì)劃運(yùn)行大語言模型,但在AI基礎(chǔ)設(shè)施的生產(chǎn)部署與高效運(yùn)營方面仍面臨諸多挑戰(zhàn)。目前,中國正加速提升其生成式AI能力,覆蓋大語言模型、軟件開發(fā)、生態(tài)集成與硬件革新。隨著DeepSeek、通義千問(Qwen)等高性價(jià)比模型日益普及和本地部署的深入推進(jìn),越來越多的中國企業(yè)將重心放在數(shù)據(jù)隱私、數(shù)據(jù)主 -
發(fā)布了文章 2026-02-06 10:49
專家觀點(diǎn) | 浮點(diǎn)運(yùn)算的現(xiàn)代發(fā)展趨勢
專家觀點(diǎn)計(jì)算機(jī)支持實(shí)數(shù)的需求自計(jì)算機(jī)誕生起便始終存在,但這一需求始終比表面看起來更為復(fù)雜。原因何在?因?yàn)榛谟?jì)算機(jī)的表示法只能呈現(xiàn)實(shí)數(shù)連續(xù)統(tǒng)中的有限子集。因此,這些表示永遠(yuǎn)只能被視為近似值——這要求我們必須深入理解所需精度與實(shí)際精度之間的差異。浮點(diǎn)運(yùn)算技術(shù)正是為此而生,如今它已成為現(xiàn)代計(jì)算的核心基石,支撐著從科學(xué)數(shù)據(jù)到機(jī)器學(xué)習(xí)模型乃至三維圖形渲染的一切領(lǐng)域。308瀏覽量 -
發(fā)布了文章 2026-02-05 16:07
從訓(xùn)練到推理:大模型算力需求的新拐點(diǎn)已至
在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點(diǎn)主要集中在大模型訓(xùn)練所需的算力投入。一個(gè)萬億參數(shù)大模型的訓(xùn)練可能需要數(shù)千張GPU芯片連續(xù)運(yùn)行數(shù)月,成本高達(dá)數(shù)千萬甚至上億元。但隨著大模型技術(shù)的成熟和應(yīng)用落地,推理算力正在成為市場關(guān)注的新焦點(diǎn)。一、訓(xùn)練算力的"一次性投入"困境大模型訓(xùn)練是典型的"一次性高成本投入"模式。根據(jù)OpenAI的公開數(shù)據(jù),GPT-3.5的訓(xùn)練大約使用 -
發(fā)布了文章 2026-02-04 16:03