91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

最新MLPerf v3.1測試結(jié)果認(rèn)證,Gaudi2在GPT-J模型上推理性能驚人

looger123 ? 來源:looger123 ? 作者:looger123 ? 2023-09-12 17:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

英特爾產(chǎn)品在全新MLCommons AI推理性能測試中盡顯優(yōu)勢

今日,MLCommons公布針對 60 億參數(shù)大語言模型及計算機(jī)視覺與自然語言處理模型GPT-J的 MLPerf推理v3.1 性能基準(zhǔn)測試結(jié)果,其中包括英特爾所提交的基于Habana?Gaudi?2 加速器、第四代英特爾?至強(qiáng)?可擴(kuò)展處理器,以及英特爾?至強(qiáng)?CPU Max 系列的測試結(jié)果。該結(jié)果顯示了英特爾在AI推理方面極具競爭力的表現(xiàn),并進(jìn)一步加強(qiáng)了其對加速從云到網(wǎng)絡(luò)到邊緣再到端的工作負(fù)載中大規(guī)模部署AI的承諾。

英特爾執(zhí)行副總裁兼數(shù)據(jù)中心人工智能事業(yè)部總經(jīng)理Sandra Rivera表示:“正如最新的 MLCommons結(jié)果顯示,我們擁有強(qiáng)大的、具有競爭力的人工智能產(chǎn)品組合以滿足客戶對高性能、高效率的深度學(xué)習(xí)推理及訓(xùn)練的需求,同時,針對各種規(guī)模的人工智能模型,英特爾產(chǎn)品組合均具有領(lǐng)先的性價比優(yōu)勢。”

根據(jù)6月披露的MLCommonsAI訓(xùn)練結(jié)果和Hugging Face性能基準(zhǔn)測試驗證,Gaudi2 在先進(jìn)的視覺語言模型上,性能可以超越英偉達(dá)的H100處理器,而今天的結(jié)果進(jìn)一步證明了英特爾能夠提供滿足AI計算需求的、英偉達(dá)H100和A100的唯一可行的替代方案。

考慮到客戶的個性化需求,英特爾正在通過能夠幫助解決AI工作負(fù)載中推理與訓(xùn)練問題的產(chǎn)品,讓AI無處不在。英特爾的AI產(chǎn)品為客戶提供了可根據(jù)各自性能、效率及目標(biāo)成本進(jìn)行靈活匹配以獲取最佳AI解決方案的理想選擇,同時亦幫助客戶開放生態(tài)系統(tǒng)。

關(guān)于Habana Gaudi2的測試結(jié)果:

Habana Gaudi2在GPT-J模型上的推理結(jié)果強(qiáng)有力地驗證了其具有競爭力的性能。

·Gaudi2 在GPT-J-99 和GPT-J-99.9 上的服務(wù)器查詢和離線樣本的推理性能分別為78.58 次/秒和84.08 次/秒。

·與英偉達(dá)H100相比,Gaudi2提供了令人信服的卓越性能,H100相對于Gaudi2僅表現(xiàn)出 1.09 倍(服務(wù)器)和 1.28 倍(離線)的輕微性能優(yōu)勢。

·Gaudi2 擁有高于英偉達(dá)A100 2.4 倍(服務(wù)器)、 2 倍(離線)的性能。

·Gaudi2 提交的結(jié)果采用 FP8數(shù)據(jù)類型,并在這種新數(shù)據(jù)類型上達(dá)到了 99.9% 的準(zhǔn)確率。

隨著每6-8周公布的 Gaudi2 軟件更新,英特爾將繼續(xù)在 MLPerf 基準(zhǔn)測試中展現(xiàn)其產(chǎn)品的性能提升,以及持續(xù)擴(kuò)大的模型覆蓋范圍。

wKgZomUANVWAY6S7AAJVP79DRaA450.png

Habana Gaudi2 在GPT-J模型上的推理結(jié)果驗證了其具有競爭力的性能

關(guān)于第四代至強(qiáng)可擴(kuò)展處理器的測試結(jié)果:

英特爾提交了基于第四代英特爾至強(qiáng)可擴(kuò)展處理器的7個推理基準(zhǔn)測試,其中包括GPT-J模型。結(jié)果顯示,包括視覺、語言處理、語音和音頻翻譯模型,以及更大的 DLRM v2 深度學(xué)習(xí)推薦模型及ChatGPT-J 模型在內(nèi),第四代至強(qiáng)處理器對于通用 AI 工作負(fù)載擁有出色的性能。此外,截至目前,英特爾仍是唯一一家使用行業(yè)標(biāo)準(zhǔn)的深度學(xué)習(xí)生態(tài)系統(tǒng)軟件提交公開 CPU 結(jié)果的廠商。

·第四代英特爾至強(qiáng)可擴(kuò)展處理器是通過流行的AI框架與庫構(gòu)建及部署通用AI工作負(fù)載的理想選擇。對于GPT-J對約 1000-1500 字新聞稿進(jìn)行100 字總結(jié)的任務(wù),第四代至強(qiáng)可擴(kuò)展處理器可在離線模式下完成每秒兩段的總結(jié)提要,在實時服務(wù)器模式下完成每秒一段的總結(jié)提要。

·英特爾首次提交了英特爾至強(qiáng)CPU Max 系列的MLPerf 結(jié)果,該系列可提供高達(dá)64 GB的高帶寬內(nèi)存。對于 GPT-J而言,它是僅有的能夠達(dá)到 99.9% 準(zhǔn)確度的 CPU,這對于對精度要求極高的應(yīng)用來說至關(guān)重要。

·英特爾與OEM廠商合作提交了測試結(jié)果,進(jìn)一步展示了其AI性能的可擴(kuò)展性,以及基于英特爾至強(qiáng)處理器的通用服務(wù)器的可獲取性,充分滿足客戶服務(wù)水平協(xié)議 (SLA)。

wKgZomUANVeAKtKpAAF_ItEkqC0102.png

第四代至強(qiáng)可擴(kuò)展處理器是構(gòu)建及部署通用AI工作負(fù)載的理想選擇

MLPerf 是業(yè)內(nèi)享有盛名的 AI 性能基準(zhǔn)測試,旨在實現(xiàn)公平、可重復(fù)的產(chǎn)品性能比較。英特爾計劃為下一個 MLPerf測試提交新的AI訓(xùn)練性能結(jié)果。持續(xù)的性能更新彰顯了英特爾致力于幫助客戶、助力AI技術(shù)演進(jìn)所邁出的每一步,無論是低成本的AI處理器,還是面向網(wǎng)絡(luò)、云和企業(yè)用戶的高性能AI硬件加速器或是 GPU

更多內(nèi)容:基于MLPerf v.31 推理的性能指標(biāo)(基準(zhǔn)結(jié)果)|MLCommons公告

說明:相關(guān)配置說明,請查看MLCommons網(wǎng)頁。 結(jié)果可能不同。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20256

    瀏覽量

    252450
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16882
  • MLPerf
    +關(guān)注

    關(guān)注

    0

    文章

    37

    瀏覽量

    972
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    DeepSeek V3.1發(fā)布!擁抱國產(chǎn)算力芯片

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)2025年8月21日,DeepSeek正式官宣發(fā)布DeepSeek-V3.1模型。新版本不僅在技術(shù)架構(gòu)實現(xiàn)重大升級,更通過參數(shù)精度優(yōu)化與國產(chǎn)芯片深度適配。從混合
    的頭像 發(fā)表于 08-23 07:55 ?1.7w次閱讀
    DeepSeek <b class='flag-5'>V3.1</b>發(fā)布!擁抱國產(chǎn)算力芯片

    Powered by XuanTie,Qwen Inside:阿里通義大模型攜手玄鐵 RISC-V開啟“端側(cè)智能”新紀(jì)元

    的優(yōu)勢,深度融合,正式推出“Powered by XuanTie,Qwen Inside”技術(shù)戰(zhàn)略——通義大模型算法與基于開源 RISC-V 架構(gòu)的玄鐵處理器將通過軟硬全鏈路協(xié)同優(yōu)化,實現(xiàn)通義大模型家族
    的頭像 發(fā)表于 01-12 11:49 ?241次閱讀
    Powered by XuanTie,Qwen Inside:阿里通義大<b class='flag-5'>模型</b>攜手玄鐵 RISC-<b class='flag-5'>V</b>開啟“端側(cè)智能”新紀(jì)元

    GPT-5.1發(fā)布 OpenAI開始拼情商

    -5.1 Thinking:高級推理模型簡單任務(wù)更快,復(fù)雜任務(wù)更持久,也更容易理解。 對于新上線的
    的頭像 發(fā)表于 11-13 15:49 ?707次閱讀

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺上的推理性能瓶頸。為實現(xiàn)這一目標(biāo),其構(gòu)建了多維度的核心實現(xiàn)路徑:一方面,針對需
    的頭像 發(fā)表于 10-21 11:04 ?1183次閱讀

    使用NVIDIA NVLink Fusion技術(shù)提升AI推理性能

    本文詳細(xì)闡述了 NVIDIA NVLink Fusion 如何借助高效可擴(kuò)展的 NVIDIA NVLink scale-up 架構(gòu)技術(shù),滿足日益復(fù)雜的 AI 模型不斷增長的需求。
    的頭像 發(fā)表于 09-23 14:45 ?934次閱讀
    使用NVIDIA NVLink Fusion技術(shù)提升AI<b class='flag-5'>推理性能</b>

    使用OpenVINO將PP-OCRv5模型部署Intel顯卡

    是一個用于優(yōu)化和部署人工智能(AI)模型,提升AI推理性能的開源工具集合,不僅支持以卷積神經(jīng)網(wǎng)絡(luò)(CNN)為核心組件的預(yù)測式AI模型(Predictive AI),還支持以Transformer為核心組件的生成式AI
    的頭像 發(fā)表于 09-20 11:17 ?1246次閱讀
    使用OpenVINO將PP-OCRv5<b class='flag-5'>模型</b>部署<b class='flag-5'>在</b>Intel顯卡<b class='flag-5'>上</b>

    亞馬遜云科技宣布推出Qwen3與DeepSeek-V3.1模型的完全托管服務(wù)

    亞馬遜云科技致力于成為運行開放權(quán)重模型的最佳平臺,Amazon Bedrock新增五個模型選項,持續(xù)豐富模型選擇,進(jìn)一步滿足客戶需求。
    的頭像 發(fā)表于 09-19 10:11 ?865次閱讀

    DeepSeek R1 MTPTensorRT-LLM中的實現(xiàn)與優(yōu)化

    TensorRT-LLM NVIDIA Blackwell GPU 創(chuàng)下了 DeepSeek-R1 推理性能的世界紀(jì)錄,Multi-Token Prediction (MTP) 實現(xiàn)了大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4466次閱讀
    DeepSeek R1 MTP<b class='flag-5'>在</b>TensorRT-LLM中的實現(xiàn)與優(yōu)化

    英特爾Gaudi 2E AI加速器為DeepSeek-V3.1提供加速支持

    英特爾? Gaudi 2EAI加速器現(xiàn)已為DeepSeek-V3.1提供深度優(yōu)化支持。憑借出色的性能和成本效益,英特爾Gaudi
    的頭像 發(fā)表于 08-26 19:18 ?3039次閱讀
    英特爾<b class='flag-5'>Gaudi</b> <b class='flag-5'>2</b>E AI加速器為DeepSeek-<b class='flag-5'>V3.1</b>提供加速支持

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS推理

    的發(fā)布持續(xù)深化了雙方的 AI 創(chuàng)新合作。NVIDIA NVIDIA Blackwell 架構(gòu)優(yōu)化了這兩款全新的開放權(quán)重模型并實現(xiàn)了推理性能加速,
    的頭像 發(fā)表于 08-15 20:34 ?2310次閱讀
    NVIDIA從云到邊緣加速OpenAI <b class='flag-5'>gpt</b>-oss<b class='flag-5'>模型</b>部署,實現(xiàn)150萬TPS<b class='flag-5'>推理</b>

    西部數(shù)據(jù)通過 MLPerfa Storage V2 測試結(jié)果,驗證其真實場景下的AI存儲性能

    。西部數(shù)據(jù)(NASDAQ: WDC)近日公布其 MLPerf? Storage V2?測試結(jié)果,驗證了旗下 OpenFlex? Data24 4000?系列?NVMe-oF??存儲平臺
    發(fā)表于 08-05 18:15 ?941次閱讀

    模型推理顯存和計算量估計方法研究

    、顯存估計方法 基于模型結(jié)構(gòu)的顯存估計 根據(jù)深度學(xué)習(xí)模型的層次結(jié)構(gòu)和參數(shù)數(shù)量,可以估算模型推理過程中所需的顯存大小。具體方法如下: (1)
    發(fā)表于 07-03 19:43

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進(jìn)行推理時出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?

    推理量化的 Llama 3.1 8B 模型時遇到錯誤: Runtime error: Bad cast from __int64 to unsigned int
    發(fā)表于 06-25 07:20

    1.9倍性能提升!英特爾至強(qiáng)6MLPerf基準(zhǔn)測試中表現(xiàn)卓越

    與第五代至強(qiáng)處理器相比,英特爾至強(qiáng)6性能核的性能平均提高了1.9倍。 今日,MLCommons公布了最新的MLPerf推理v5.0基準(zhǔn)
    的頭像 發(fā)表于 04-07 10:58 ?683次閱讀

    英偉達(dá)GTC25亮點:NVIDIA Dynamo開源庫加速并擴(kuò)展AI推理模型

    NVIDIA Dynamo 提高了推理性能,同時降低了擴(kuò)展測試時計算 (Scaling Test-Time Compute) 的成本; NVIDIA Blackwell
    的頭像 發(fā)表于 03-20 15:03 ?1247次閱讀