91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MLPerf首次GPT大模型推理放榜 墨芯連續(xù)三屆登頂

墨芯人工智能 ? 來源:墨芯人工智能 ? 2023-09-14 14:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著ChatGPT等AIGC應(yīng)用掀起大模型浪潮,算力層作為基礎(chǔ)設(shè)施,成為最先受益的產(chǎn)業(yè)。

然而,算力需求大、費用昂貴等問題,已成為企業(yè)落地大模型的普通痛點,更可能制約AI向前發(fā)展:大模型參數(shù)日益增長,而算力供給瓶頸迫在眉睫,二者形成巨大矛盾。

如何探索更好的大模型算力方案,是業(yè)界共同關(guān)注的焦點。

近日,全球權(quán)威測評MLPerf 公布最新推理測評結(jié)果,這是MLPerf首度引入GPT大模型推理測試,參與熱度再創(chuàng)紀錄,收到了來自英偉達、英特爾、谷歌、高通等企業(yè)提交的13500 多項性能結(jié)果。

4aa1d2b4-52bd-11ee-a25d-92fbcf53809c.png

在MLPerf Inference 3.1中,墨芯人工智能(Moffet AI)S30計算卡在大模型GPT-J(60億參數(shù))上,單卡、4卡、8卡的算力均獲得第一。

這是墨芯在MLPerf上連續(xù)第三次衛(wèi)冕。此前墨芯曾在MLPerf Inference 2.0與2.1上,連續(xù)兩屆獲得第一。

墨芯的成績,為大模型算力方案帶來了可行的創(chuàng)新方向。

事實證明:結(jié)合AI模型與計算平臺的軟硬協(xié)同創(chuàng)新,能夠釋放更大的算力潛力。這也再度印證:以稀疏計算為代表的創(chuàng)新技術(shù),將是大模型時代算力發(fā)展的關(guān)鍵。

墨芯參加的是MLPerf開放分區(qū),據(jù)主辦方MLCommons介紹,該分區(qū)旨在鼓勵創(chuàng)新。因此參賽者可以通過軟硬協(xié)同等方式,探索對算力的提升。在MLPerf中的GPT-J大模型上,與4nm制程的H100純硬件加速方案相比,12nm制程的墨芯S30計算卡通過“原創(chuàng)的雙稀疏算法+硬件協(xié)同”方式,取得了高達1.8倍的優(yōu)勢。

本次測評的GPT-J模型是生成式AI模型,墨芯S30計算卡在8卡、4卡、單卡模式下,性能分別為170.59,91.57,23.28 (Sample/s),達到英偉達H100性能的1.6倍、1.8倍、1.8倍,展現(xiàn)出墨芯產(chǎn)品在AIGC類任務(wù)上的能力。

4b02a418-52bd-11ee-a25d-92fbcf53809c.png

三度奪冠,大模型算力率先“交卷”,軟硬協(xié)同持續(xù)創(chuàng)新——墨芯的產(chǎn)品實力數(shù)次經(jīng)過MLPerf的嚴格檢驗,也探索出大模型算力發(fā)展的新路徑。

1

稀疏計算——大模型“潛力股”

獲得市場認可

墨芯接連的優(yōu)異成績,主要得益于基于稀疏化算法的軟硬協(xié)同設(shè)計。

在大模型時代,稀疏計算的重要性不言而喻:AI模型大小與其稀疏化潛力成正比。

也就是說,當(dāng)模型越大,算法上有更大稀疏的可能性,稀疏計算可加速的幅度也越高。對于一般大型語言模型,稀疏計算可帶來數(shù)十倍加速。

墨芯獨創(chuàng)的雙稀疏算法,結(jié)合軟硬協(xié)同設(shè)計,使墨芯Antoum芯片成為全球首款高稀疏倍率AI芯片,支持高達32倍稀疏——這也正是墨芯在本次MLPerf中創(chuàng)新紀錄的關(guān)鍵。

模型越大,稀疏計算的優(yōu)勢越明顯——尤其是在GPT等大模型參數(shù)動輒上百億、千億的現(xiàn)狀下,這使得墨芯的護城河更為穩(wěn)固。

墨芯的產(chǎn)品實力與稀疏計算的大勢所趨,也獲得了市場的認可:墨芯商業(yè)化進程接連取得重要突破,助力企業(yè)加速AI應(yīng)用。

就在近日,墨芯成為支持Byte MLPerf的供應(yīng)商之一。

4b33ae5a-52bd-11ee-a25d-92fbcf53809c.png

來源:Byte MLPerf網(wǎng)站

當(dāng)前,墨芯AI計算平臺已能夠支持不同參數(shù)級別的大模型,包括 BLOOM, OPT, GPT-J,LLaMA,StableDiffusion等。同時具有高吞吐、低延時、低功耗等特點,緩解算力之困,真正為企業(yè)帶來“好用”、“用得起”的大模型算力方案。

2

帶來根本性的算力變革

稀疏計算助力大模型發(fā)展

墨芯的稀疏計算方案不僅能夠緩解當(dāng)前的算力難題,也為AI的持續(xù)發(fā)展打開新的空間。

稀疏計算減少了AI模型的計算量,這意味著能讓大模型既在參數(shù)量上躍升若干個數(shù)量級的同時,又不產(chǎn)生過大的計算量,大模型參數(shù)增長與算力瓶頸的矛盾有望從根本上得到解決。

同時,由于計算量的減少,大模型的高算力需求、高功耗、高費用等痛點,也一并得到解決,實現(xiàn)“多贏”效果。

墨芯Antoum芯片:全球首款高稀疏倍率AI芯片,支持高達32倍稀疏

連續(xù)三屆MLPerf的優(yōu)異成績,不僅是對墨芯產(chǎn)品實力的證明,也為業(yè)界帶來新啟示:在稀疏計算等技術(shù)的助力下,大模型的發(fā)展與應(yīng)用有望迎來更廣闊的施展空間,加速AIGC等應(yīng)用在各行各業(yè)遍地開花。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16884
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    2130

    瀏覽量

    36798
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1598

    瀏覽量

    10297

原文標題:MLPerf首次GPT大模型推理放榜,墨芯連續(xù)三屆登頂

文章出處:【微信號:墨芯人工智能,微信公眾號:墨芯人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    LLM推理模型是如何推理的?

    這篇文章《(How)DoReasoningModelsReason?》對當(dāng)前大型推理模型(LRM)進行了深刻的剖析,超越了表面的性能宣傳,直指其技術(shù)本質(zhì)和核心局限。以下是基于原文的詳細技術(shù)原理、關(guān)鍵
    的頭像 發(fā)表于 01-19 15:33 ?524次閱讀
    LLM<b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    人工智能千卡集群正式簽約入駐新疆算力中心

    ,通過構(gòu)建“西部訓(xùn)練、東部推理”的協(xié)同范式,推動算力資源在全國范圍內(nèi)的優(yōu)化配置。 當(dāng)下,我國算力格局正向西部進行戰(zhàn)略性遷移。算力解決方案在疆落地,正是對 “西部訓(xùn)練、東部推理” 這
    的頭像 發(fā)表于 12-30 17:27 ?718次閱讀

    GPT-5.1發(fā)布 OpenAI開始拼情商

    -5.1 Thinking:高級推理模型,在簡單任務(wù)上更快,在復(fù)雜任務(wù)上更持久,也更容易理解。 對于新上線的GPT-5.1大模型,OpenAI?官方表示出色的 AI 不僅是要夠聰明,還要讓人與之對
    的頭像 發(fā)表于 11-13 15:49 ?712次閱讀

    商湯日日新V6.5多模態(tài)大模型登頂全球權(quán)威榜單

    Pro)多模態(tài)大模型以82.2的綜合成績登頂榜首,領(lǐng)先Gemini 2.5 Pro以及GPT-5等國際頂尖模型。
    的頭像 發(fā)表于 09-10 09:55 ?809次閱讀

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS推理

    Token (TPS)。 這兩個 gpt-oss 模型是具有鏈式思維和工具調(diào)用能力的文本推理大語言模型 (LLM),采用了廣受歡迎的混合專家模型
    的頭像 發(fā)表于 08-15 20:34 ?2320次閱讀
    NVIDIA從云到邊緣加速OpenAI <b class='flag-5'>gpt</b>-oss<b class='flag-5'>模型</b>部署,實現(xiàn)150萬TPS<b class='flag-5'>推理</b>

    請問如何在RK3588上使用npu,用onnx模型推理

    請問如何在瑞微 RK3588上使用npu,用onnx模型推理。官網(wǎng)上介紹說要把ONNX模型轉(zhuǎn)換成RKNN模型。但是我并不想這么干,請問有
    發(fā)表于 08-09 00:51

    商湯絕影攜手NVIDIA亮相第三屆鏈博會

    近日,第三屆中國國際供應(yīng)鏈促進博覽會(以下簡稱鏈博會)在北京隆重開幕,全球人工智能領(lǐng)軍企業(yè)NVIDIA(英偉達)首次參展鏈博會,絕影亮相NVIDIA展臺。
    的頭像 發(fā)表于 07-30 10:40 ?1248次閱讀

    三屆開放原子大賽正式啟動

    近日,在2025開放原子開源生態(tài)大會開幕式上,第三屆開放原子大賽正式啟動,首批12個賽項同步發(fā)布。
    的頭像 發(fā)表于 07-28 17:03 ?1131次閱讀

    奇異摩爾出席第三屆粒開發(fā)者大會AI芯片與系統(tǒng)分論壇

    近日,第三屆粒開發(fā)者大會圓滿落幕。大會在“集成芯片前沿技術(shù)科學(xué)基礎(chǔ)”重大研究計劃指導(dǎo)下,由中國科學(xué)院計算技術(shù)研究所、中國電子科技集團公司第五十八研究所聯(lián)合主辦,共有50余名嘉賓做報告,吸引了300
    的頭像 發(fā)表于 07-22 11:34 ?1323次閱讀

    科技亮相第三屆粒開發(fā)者大會

    在剛剛于無錫圓滿落幕的第三屆粒開發(fā)者大會——這場匯聚全球頂尖芯片企業(yè)、科研機構(gòu)及產(chǎn)業(yè)鏈專家的盛會上,行科技作為國內(nèi)Signoff領(lǐng)域的領(lǐng)軍企業(yè),受邀發(fā)表了主題演講《面向3DIC的Signoff挑戰(zhàn)與行
    的頭像 發(fā)表于 07-18 10:22 ?984次閱讀

    模型推理顯存和計算量估計方法研究

    估算剪枝后的模型所需的顯存大小。 、計算量估計方法 基于模型結(jié)構(gòu)的計算量估計 根據(jù)深度學(xué)習(xí)模型的層次結(jié)構(gòu)和參數(shù)數(shù)量,可以估算模型
    發(fā)表于 07-03 19:43

    公司入選第三屆能源電力行業(yè)高價值專利及技術(shù)成果轉(zhuǎn)化典型案例

    近日,中國能源研究會公布第三屆能源電力行業(yè)高價值專利及技術(shù)成果轉(zhuǎn)化典型案例評選結(jié)果,智公司牽頭申報的2項專利技術(shù)成果成功入選,其中核心型高價值專利(技術(shù))成果1項、核心型高價值專利(技術(shù))成果轉(zhuǎn)化典型案例1項,這也是智公司
    的頭像 發(fā)表于 06-11 17:09 ?1151次閱讀

    工信部第三屆能源電子產(chǎn)業(yè)創(chuàng)新大賽|御微承辦WIoTa能源物聯(lián)網(wǎng)應(yīng)用專題賽

    》、《新型儲能制造業(yè)高質(zhì)量發(fā)展行動方案》有關(guān)部署,工業(yè)和信息化部產(chǎn)業(yè)發(fā)展促進中心自2022年以來連續(xù)舉辦了三屆先進儲能技術(shù)創(chuàng)新挑戰(zhàn)賽、兩能源電子產(chǎn)業(yè)創(chuàng)新大賽,累計收到
    的頭像 發(fā)表于 06-10 11:28 ?1565次閱讀
    工信部第<b class='flag-5'>三屆</b>能源電子產(chǎn)業(yè)創(chuàng)新大賽|御<b class='flag-5'>芯</b>微承辦WIoTa能源物聯(lián)網(wǎng)應(yīng)用專題賽

    中興通訊星云大模型登頂SuperCLUE推理專項榜單

    近日,中文大模型權(quán)威測評基準SuperCLUE發(fā)布《中文大模型基準測評2025年5月報告》。報告顯示,中興通訊自主研發(fā)的星云大模型NebulaCoder-V6在推理專項榜單中斬獲榜單金
    的頭像 發(fā)表于 06-04 16:44 ?1470次閱讀

    三屆百度文心杯創(chuàng)業(yè)大賽啟動

    近日,第三屆“文心杯”創(chuàng)業(yè)大賽面向全球正式啟動報名。
    的頭像 發(fā)表于 04-30 10:24 ?949次閱讀