91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Nvidia 正在利用迄今為止最強大的芯片 H200 推動人工智能革命

捷易物聯(lián) ? 2024-01-17 08:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Nvidia 表示,H200 Tensor Core GPU 具有更大的內(nèi)存容量和帶寬,可加快生成 AI 和 HPC 工作負載的速度。

Nvidia H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的內(nèi)存,可加速生成式 AI。

H200 芯片定于 2024 年第二季度發(fā)布,Nvidia 表示將與“全球系統(tǒng)制造商和云服務提供商”合作以實現(xiàn)廣泛可用性。

JAEALOT

Nvidia

OpenAI推出ChatGPT已經(jīng)一段時間了 ,全球對AI芯片的需求比以往任何時候都更加難以滿足。如今,大多數(shù)大型科技公司都將注意力集中在生成式人工智能上。對于制造數(shù)量最多、性能最高的圖形處理單元 (GPU) 的公司 Nvidia 公司來說,現(xiàn)在的情況從未如此好過。在發(fā)布了數(shù)十款芯片以滿足看似呈指數(shù)級增長的人工智能市場之后,這家圖形芯片巨頭展示了迄今為止最強大的 GPU——H200。

NVIDIA H200 Tensor Core GPU 誕生之際,Nvidia 正在努力捍衛(wèi)其 在 AI 計算領域的主導地位 ,面對 英特爾AMD以及眾多芯片初創(chuàng)公司和 Amazon Web Services 等試圖搶占市場份額的云服務提供商。在生成人工智能工作負載驅動的芯片需求激增的情況下,市場份額不斷增加。

為了保持在人工智能和高性能計算 (HPC) 硬件領域的領先地位,英偉達上月初公布了加快新 GPU 架構開發(fā)的計劃。根據(jù)為投資者發(fā)布的路線圖 以及 SemiAnalysis的進一步解釋,這個想法是要恢復到一年一次的產(chǎn)品推出節(jié)奏 。SemiAnalysis 的報告中寫道:“Nvidia 對 AI GPU 進行年度更新的舉動非常重要,并且會產(chǎn)生許多影響?!?/p>

這一切的開始就是 Nvidia 推出的 H200,它利用 Hopper 架構來加速人工智能應用程序。它是去年發(fā)布的H100 GPU的后續(xù)產(chǎn)品 ,也是此前 Nvidia 最強大的 AI GPU 芯片。簡而言之,H200 現(xiàn)在是 Nvidia 產(chǎn)品組合中最強大的 AI 芯片。

Nvidia 超大規(guī)模和 HPC 副總裁 Ian Buck 認為,“借助業(yè)界領先的端到端 AI 超級計算平臺 Nvidia H200,可以更快地解決世界上一些最重要的挑戰(zhàn)。” 一般來說,GPU 在人工智能應用中表現(xiàn)出色,因為它們能夠執(zhí)行大量并行矩陣乘法,這是神經(jīng)網(wǎng)絡運行的關鍵操作。

它們在構建人工智能模型的訓練階段和隨后的“推理”階段都發(fā)揮著至關重要的作用,在“推理”階段,用戶將數(shù)據(jù)輸入到人工智能模型中,并提供相應的結果。Buck 指出:“要通過生成式 AI 和 HPC 應用程序創(chuàng)建智能,必須使用大容量、快速的 GPU 內(nèi)存高速有效地處理大量數(shù)據(jù)?!?/p>

因此,引入 H200 將帶來進一步的性能飛躍,包括與 H100 相比,Llama 2(一個 700 億參數(shù)的 LLM)的推理速度幾乎翻倍。據(jù) Nvidia 稱,未來的軟件更新預計會帶來 H200 的額外性能領先優(yōu)勢和改進。

e89b36c2-b4ce-11ee-aa22-92fbcf53809c.png

e8a9464a-b4ce-11ee-aa22-92fbcf53809c.png

雖然 H200 看起來與 H100 基本相似,但其內(nèi)存的修改有明顯的增強。新的 GPU 引入了一種創(chuàng)新且更快的內(nèi)存規(guī)范,稱為 HBM3e。這將 GPU 的內(nèi)存帶寬提升至每秒 4.8 TB,比 H100 的每秒 3.35 TB 明顯增加。它將總內(nèi)存容量從前代產(chǎn)品的 80GB 擴展至 141GB。

“Nvidia H200 是首款提供 HBM3e 的 GPU,HBM3e 速度更快、內(nèi)存更大,可加速生成式 AI 和大型語言模型 (LLM),同時推進 HPC 工作負載的科學計算。憑借 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 內(nèi)存,與前身 NVIDIA A100 相比,容量幾乎翻倍,帶寬增加 2.4 倍?!痹撔酒揞^ 表示。

結合實際情況來看,OpenAI 經(jīng)常提到面臨 GPU 資源短缺,導致 ChatGPT 性能下降的問題。為了維持任何水平的服務,該公司采取速率限制。理論上,加入H200可以緩解當前運行ChatGPT的AI語言模型的資源限制,使它們能夠有效地迎合更廣泛的客戶群。

Nvidia 還表示,它將提供多種外形規(guī)格的 H200。其中包括四路和八路配置的 Nvidia HGX H200 服務器主板,與 HGX H100 系統(tǒng)的硬件和軟件兼容。它還將在 Nvidia GH200 Grace Hopper Superchip 中提供,它將 CPU 和 GPU 組合到一個封裝中。

e8b86864-b4ce-11ee-aa22-92fbcf53809c.png

“通過這些選項,H200 可以部署在各種類型的數(shù)據(jù)中心中,包括本地、云、混合云和邊緣。NVIDIA 的 全球合作伙伴服務器制造商生態(tài)系統(tǒng) (包括華擎 Rack、華碩、戴爾科技、Eviden、技嘉、惠普企業(yè)、英格拉科技、聯(lián)想、QCT、Supermicro、緯創(chuàng)資通和 Wiwynn)可以使用 H200 更新其現(xiàn)有系統(tǒng)。” 。

據(jù)美國芯片巨頭亞馬遜網(wǎng)絡服務(AWS)稱,除了CoreWeave、Lambda、和烏爾特爾。目前,英偉達在AI GPU市場處于領先地位。

然而,AWS、谷歌、微軟等主要參與者以及 AMD 等傳統(tǒng) AI 和 HPC 實體正在積極準備 其下一代處理器用于訓練和推理。為了應對這種競爭格局,Nvidia 加快了基于 B100 和 X100 的產(chǎn)品進度。

e8cf709a-b4ce-11ee-aa22-92fbcf53809c.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    463

    文章

    54031

    瀏覽量

    466440
  • NVIDIA
    +關注

    關注

    14

    文章

    5598

    瀏覽量

    109810
  • 人工智能
    +關注

    關注

    1817

    文章

    50115

    瀏覽量

    265580
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    H200 解禁!預交付8萬顆,傳阿里砸數(shù)億抄底對手

    電子發(fā)燒友網(wǎng)報道(文/梁浩斌)近日,有多方消息傳出,英偉達計劃在2026年2月中旬在中國交付H200芯片,這意味著此前特朗普發(fā)文表示允許英偉達、AMD等AI芯片公司向中國出售產(chǎn)品的方案已經(jīng)落實
    的頭像 發(fā)表于 12-25 09:33 ?7308次閱讀

    H200解禁了個寂寞?2個月0銷售,審查層層加碼!

    電子發(fā)燒友網(wǎng)報道(文/梁浩斌)“解禁”2個月,0銷量?近日美國商務部出口執(zhí)法助理部長David Peters透露,目前英偉達H200芯片獲批對華銷售的數(shù)量為零。 ? 值得一提的是,英偉達的四季度
    的頭像 發(fā)表于 02-26 09:24 ?5415次閱讀

    美國政府正式批準英偉達H200芯片對華出口

    1月13日,美國正式放行英偉達面向中國的第二強人工智能芯片H200出口,在華盛頓對華強硬派的強烈憂慮聲中,為這款芯片對華出貨打開通道。
    的頭像 發(fā)表于 01-16 16:11 ?707次閱讀

    Magna AI加入NVIDIA Inception計劃,推動生產(chǎn)級人工智能規(guī)?;l(fā)展

    Magna AI是一家由Trend Micro與Wistron的戰(zhàn)略合作成立的全球全價值鏈人工智能轉型領導者。公司今日宣布,已加入NVIDIA Inception計劃,躋身全球率先實現(xiàn)生產(chǎn)級規(guī)?;?/div>
    的頭像 發(fā)表于 01-12 15:46 ?182次閱讀

    美國將允許英偉達H200對華出口,但要抽成25%

    。 ? 據(jù)《紐約時報》信息,H200芯片目前為英偉達“性能第二強”的芯片,特朗普方面表示,美國商務部正在敲定相關安排細節(jié),同樣的安排也將適用于超微半導體公司、英特爾等其他
    的頭像 發(fā)表于 12-10 11:07 ?1155次閱讀

    突發(fā)!特朗普批準英偉達H200芯片對華出口,抽成25%

    據(jù)最新消息,美國總統(tǒng)特朗普已批準英偉達向中國出口其H200人工智能芯片,但要求從銷售額中抽取25%作為分成。這意味著英偉達在游說美國政府放寬對華芯片出口限制方面,取得了關鍵進展。 此
    的頭像 發(fā)表于 12-09 17:58 ?1616次閱讀

    今日看點:特朗普允許英偉達對華出口H200芯片,但要抽成25%;眾擎完成 A1+ 輪與 A2 輪融資

    特朗普允許英偉達對華出口H200芯片,但要抽成25% 12月8日,美國總統(tǒng)特朗普宣布,將允許英偉達對華出口其H200人工智能(AI)芯片。
    發(fā)表于 12-09 11:00 ?1091次閱讀

    今日看點:馬斯克:特斯拉已部署超百萬顆 AI 芯片;長鑫存儲發(fā)布全新 DDR5 內(nèi)存新品

    美國考慮允許英偉達對華出售H200芯片 ? 據(jù)外媒報道,特朗普政府正考慮批準向中國出口美國芯片制造商英偉達的H200人工智能
    發(fā)表于 11-24 11:10 ?919次閱讀

    MediaTek發(fā)布天璣9500旗艦5G智能體AI芯片

    2025年9月22日,MediaTek發(fā)布天璣9500旗艦5G智能體AI芯片,作為迄今為止天璣最強大的移動芯片,其凝聚了MediaTek諸多
    的頭像 發(fā)表于 09-23 16:42 ?2307次閱讀

    STM32N6 開箱實驗:如何快速上手最強大的STM32系列?

    STM32N6是有史以來功能最強大的STM32系列STM32N6嵌入了意法半導體專有的Neural-ART加速器和運行頻率為800MHz的ArmCortex-M55內(nèi)核,提供了迄今為止最高
    的頭像 發(fā)表于 09-17 10:37 ?4268次閱讀
    STM32N6 開箱實驗:如何快速上手<b class='flag-5'>最強大</b>的STM32系列?

    挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器

    科技大學、山東大學青島校區(qū)等眾多高校落地使用,廣受好評。如果你也對人工智能感興趣,或者正在從事相關教學、學習工作,不妨考慮一下比鄰星人工智能綜合實驗箱,真的入股不虧!#比鄰星人工智能
    發(fā)表于 08-07 14:30

    挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!

    科技大學、山東大學青島校區(qū)等眾多高校落地使用,廣受好評。如果你也對人工智能感興趣,或者正在從事相關教學、學習工作,不妨考慮一下比鄰星人工智能綜合實驗箱,真的入股不虧!#比鄰星人工智能
    發(fā)表于 08-07 14:23

    樹莓派發(fā)布了迄今為止最優(yōu)秀的電源解決方案!

    無論是運行樹莓派還是為筆記本電腦充電,電源質(zhì)量都至關重要。樹莓派團隊近日發(fā)布了迄今為止最優(yōu)秀的電源解決方案——售價15美元的45WUSB-C電源適配器,這款產(chǎn)品可完美勝任上述兩種使用場景。高效穩(wěn)壓
    的頭像 發(fā)表于 04-09 18:36 ?997次閱讀
    樹莓派發(fā)布了<b class='flag-5'>迄今為止</b>最優(yōu)秀的電源解決方案!

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應用 Cognizant將在關鍵增長領域提供解決方案,包括企業(yè)級AI智能體、定制化行業(yè)大型語言模型及搭載
    的頭像 發(fā)表于 03-26 14:42 ?749次閱讀
    Cognizant將與<b class='flag-5'>NVIDIA</b>合作部署神經(jīng)<b class='flag-5'>人工智能</b>平臺,加速企業(yè)<b class='flag-5'>人工智能</b>應用