91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卡都去哪了?AI超算成了GPU的無(wú)底黑洞

E4Life ? 來(lái)源:電子發(fā)燒友 ? 作者:周凱揚(yáng) ? 2024-06-26 09:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))AI大模型似乎陷入了一個(gè)怪圈,盡管對(duì)于深度學(xué)習(xí)、數(shù)據(jù)優(yōu)化和爆款應(yīng)用的研究從來(lái)沒(méi)有終止,但大多數(shù)人開(kāi)口問(wèn)的第一句話就是,“你有卡嗎”?從行業(yè)對(duì)GPU的狂熱追求來(lái)看,未來(lái)繼續(xù)擴(kuò)展大模型的機(jī)會(huì),似乎只會(huì)被大公司掌握在手中。

xAI拉攏戴爾和超微打造AI超算,馬斯克繼續(xù)買買買

xAI作為2023年3月才成立的一家初創(chuàng)公司,在構(gòu)建算力基礎(chǔ)設(shè)施的投入上卻一點(diǎn)也不含糊,不過(guò)這也多虧了背后的金主埃隆馬斯克。近日,戴爾CEO Michael Dell宣布他們正在打造一個(gè)由英偉達(dá)GPU驅(qū)動(dòng)的AI工廠,為xAI的Grok模型提供動(dòng)力。不過(guò)馬斯克隨即表示,戴爾只是其中一半服務(wù)器集群的供應(yīng)商,另外一半的超算系統(tǒng)則是由超微打造。

由此推測(cè),這一AI工廠應(yīng)該就是馬斯克在月初提到的10萬(wàn)塊H100液冷訓(xùn)練集群了,盡管有兩家供應(yīng)商同時(shí)為xAI打造服務(wù)器,但市面上的GPU需求依然維持在高位,還需要幾個(gè)月這一集群才會(huì)正式上線,用于Grok的下一代大模型迭代。

H100這張2023年發(fā)布的GPU可以說(shuō)是目前全球大模型算力供應(yīng)的主力,無(wú)論是OpenAI還是xAI,其最新模型都是基于該GPU訓(xùn)練迭代的。H100無(wú)論是顯存容量、帶寬和算力性能都實(shí)現(xiàn)了一輪新的突破,甚至可以說(shuō)H100帶動(dòng)了這一代AI大模型的發(fā)展,然而在GTC之后,馬斯克已經(jīng)開(kāi)始眼饞最新的B200了。他認(rèn)為考慮到目前的技術(shù)演進(jìn)速度,實(shí)在不值得把1GW的電力供應(yīng)給H100。

為此xAI也已經(jīng)開(kāi)始在規(guī)劃下一代系統(tǒng),據(jù)馬斯克透露,該系統(tǒng)將由30萬(wàn)塊B200 GPU組成,但上線時(shí)間需要等到明年夏天了。B200速度高達(dá)H100的4倍,更是可以輕松做到單機(jī)柜1exaflop的算力表現(xiàn),更何況在能耗成本上,B200相比H100改善了20多倍,即便是大規(guī)模部署,也不會(huì)讓廠商面臨供電和碳足跡的雙重困擾。

盡管xAI的AI超算目標(biāo)已經(jīng)明確,但對(duì)于馬斯克旗下的另一家公司特斯拉而言,其技術(shù)路線依舊不算明朗。雖然特斯拉也開(kāi)啟了新一輪的英偉達(dá)GPU采購(gòu)潮,但其內(nèi)部也在繼續(xù)發(fā)展自研的Dojo超算。只不過(guò)近年來(lái)Dojo的情報(bào)越來(lái)越少,就連馬斯克自己也將其列入“遠(yuǎn)景計(jì)劃”之列。

OpenAI與微軟,“鯨級(jí)”超算已在全速運(yùn)轉(zhuǎn)中

相信不少人都還記得去年11月首度上榜TOP500的微軟超算Eagle,這臺(tái)空降第三的AI超算憑借14400個(gè)英偉達(dá)H100和561PFlop/s的算力,不僅讓Azure系統(tǒng)再次闖進(jìn)了前十,還拿下了當(dāng)下云端超算最高的排名。而當(dāng)時(shí)的Azure還未部署完成,雖然最新的排名中Eagle依然維持在第三的位置,但其核心數(shù)已經(jīng)近乎翻倍。

這臺(tái)超算為OpenAI的GPT-4訓(xùn)練和推理提供了極大的助力,但這遠(yuǎn)沒(méi)有達(dá)到微軟的財(cái)力極限。早在3月底,就有消息傳出微軟和OpenAI正在打造一個(gè)代號(hào)名為“星門”的AI超算,耗資高達(dá)1000億美元。微軟CTO Kevin Scott稱不少有關(guān)其超算計(jì)劃的推測(cè)簡(jiǎn)直錯(cuò)得可笑,但也指出他們確實(shí)會(huì)為這一計(jì)劃付出不少努力和成本。

在上個(gè)月舉辦的Microsoft Build中,Kevin Scott公開(kāi)透露了他們未來(lái)的超算擴(kuò)展計(jì)劃。2020年,微軟為OpenAI打造了第一臺(tái)AI超算,正是因?yàn)檫@臺(tái)機(jī)器才孕育了GPT-3。而他們構(gòu)建的下一個(gè)系統(tǒng),也就是Eagle,則用于訓(xùn)練GPT-4。Kevin Scott選擇了用海洋生物來(lái)描述這些超算的規(guī)模,比如首臺(tái)超算可以用鯊魚來(lái)描述,Eagle則是虎鯨,而他們的下一臺(tái)超算規(guī)模則可以比擬藍(lán)鯨。

Kevin Scott更是強(qiáng)調(diào),別看現(xiàn)在Eagle可以排到第三名的位置,從現(xiàn)在開(kāi)始微軟每個(gè)月都會(huì)部署五臺(tái)同樣規(guī)模的超算,也就是說(shuō)每月都有至少搭載72000個(gè)H100 GPU或同等規(guī)模系統(tǒng)投入應(yīng)用,每月帶來(lái)2.8exaflops的算力增長(zhǎng)。同時(shí),他們用來(lái)連接GPU的高速和InfiniBand線纜可以繞地球至少五周,也就是說(shuō)長(zhǎng)度在20萬(wàn)公里以上總線纜長(zhǎng)度。

很明顯,作為已經(jīng)憑借OpenAI獲得成功的微軟來(lái)說(shuō),接下來(lái)需要贏下的就是這場(chǎng)Scaling之戰(zhàn)。

TPU和GPU并用,谷歌的Hypercomputer

盡管不少巨頭都在考慮如何自研芯片來(lái)降低購(gòu)置海量GPU帶來(lái)的成本,但真的成功將其用于大模型的訓(xùn)練中去的,已經(jīng)迭代至第六代的谷歌TPU,恰好就為谷歌解決了這個(gè)問(wèn)題。TPU作為谷歌和博通聯(lián)合設(shè)計(jì)了幾代的產(chǎn)品,在谷歌自己推出的各種新模型訓(xùn)練與推理中,重要性已經(jīng)等同于英偉達(dá)的GPU了。

谷歌本身作為在AI算法和大模型上耕耘了諸多時(shí)間的巨頭,從設(shè)計(jì)芯片之初就知道他們需要何種計(jì)算資源,正因如此,TPU幾乎將所有的面積都分給了低精度的張量計(jì)算單元。這種ASIC方案也讓谷歌大幅降低了打造AI Hypercomputer的成本。

但谷歌作為云服務(wù)廠商巨頭還是逃不開(kāi)通用性的問(wèn)題,谷歌的TPU更多是為Gemini的模型做了優(yōu)化,盡管TPU支持PyTorch、Tensorflow等常見(jiàn)AI模型,但在追求極致性能的選擇上,還是難以媲美GPU。正因如此,在谷歌和其他大模型開(kāi)發(fā)者的眼中,TPU固然性能不弱,但更像是一個(gè)性價(jià)比之選。用于已經(jīng)成功商業(yè)化模型的降本增效屬于不錯(cuò)的選擇,但如果想要在這個(gè)競(jìng)爭(zhēng)激烈的大模型市場(chǎng)殺出重圍,那就只有谷歌能將TPU物盡其用。

在不少AI芯片廠商的宣傳中,為了抬高自己的專用產(chǎn)品定位,將英偉達(dá)的GPU還是定性為圖形處理單元。可在H100這種規(guī)模的GPU上,無(wú)論是性能和能效,也毫不輸某些專用開(kāi)發(fā)環(huán)境下的ASIC,至于未來(lái)更復(fù)雜的圖形處理,英偉達(dá)也推出了L4 GPU這樣的對(duì)應(yīng)方案。

在今年GTC上,谷歌的云服務(wù)部門也宣布和英偉達(dá)達(dá)成深度合作關(guān)系,通過(guò)英偉達(dá)的H100和L4 GPU支持使用其云服務(wù)的AI開(kāi)發(fā)者。同時(shí)谷歌也將購(gòu)置GB200 NVL72系統(tǒng),基于谷歌云的A3實(shí)例為開(kāi)發(fā)者提供DGX Cloud的云端LLM托管方案,這也是對(duì)現(xiàn)有H100機(jī)器的升級(jí)。除此之外,就連谷歌自己的JAX框架,也在雙方的合作之下,在英偉達(dá)的GPU上得到了支持??梢钥闯?,谷歌還是采取兩手抓的策略,TPU和GPU一并重要。

全力追逐Scaling Laws的大廠們

對(duì)于AI大模型而言,模型大小、數(shù)據(jù)集大小和計(jì)算成本之間不僅組成了三元關(guān)系,也代表了模型性能。而Scaling Laws這一擴(kuò)展法則定義了三者之間勢(shì)必會(huì)存在某種比例擴(kuò)展,只不過(guò)如今看來(lái),其邊際效應(yīng)已經(jīng)變得越來(lái)越大。以GPT為例,如果GPT-6繼續(xù)按照這樣的比例擴(kuò)展下去,且不說(shuō)性能提升有限,即便微軟這樣的商業(yè)巨頭也很難撐起成本的劇增。

可就是這樣微不可察的差距,甚至對(duì)于AI大模型的常見(jiàn)應(yīng)用聊天機(jī)器人來(lái)說(shuō)只是速度和精度上的一些差距,卻決定了他們?cè)谥蟮氖畮啄昀锬芊窭^續(xù)制霸下去。微軟作為已經(jīng)在操作系統(tǒng)上實(shí)現(xiàn)霸權(quán)地位的廠商,自然也明白先入為主的重要性。

在邊際效應(yīng)的影響下,即便后入局的巨頭,也有不少迎頭趕上的機(jī)會(huì),比如近期傳出正在秘密研發(fā)Metis聊天機(jī)器人的亞馬遜。亞馬遜同樣擁有自研服務(wù)器芯片的技術(shù)積累,但主要優(yōu)勢(shì)還是在CPU上,AI加速器相關(guān)的產(chǎn)品(Inferentia和Trainium)依舊有比較大的改進(jìn)空間,而且與亞馬遜自己的業(yè)務(wù)還沒(méi)有緊密結(jié)合起來(lái)。如果亞馬遜愿意去打造這樣一個(gè)聊天機(jī)器人應(yīng)用,很有可能后續(xù)也會(huì)加強(qiáng)在GPU上的投入,而不再緊緊作為云托管方案。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5199

    瀏覽量

    135530
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39911

    瀏覽量

    301550
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    邊緣AI力臨界點(diǎn):深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價(jià)值

    檢索。 這一組合帶來(lái)了高達(dá)176TOPS的整型AI力(INT8)。在AI硬件行業(yè)中,力決定應(yīng)用的天花板:
    發(fā)表于 03-10 14:19

    Hailo-8 + RK3588實(shí)測(cè)!26TOPS加持,助力AI視覺(jué)升級(jí)!

    推理、低功耗運(yùn)行”的硬核實(shí)力,為邊緣AI視覺(jué)部署提供可靠高效的力支持。 我們收到Hailo-8 AI力加速
    的頭像 發(fā)表于 03-02 16:46 ?108次閱讀
    Hailo-8<b class='flag-5'>算</b>力<b class='flag-5'>卡</b> + RK3588實(shí)測(cè)!26TOPS加持,助力<b class='flag-5'>AI</b>視覺(jué)升級(jí)!

    中科曙光3套scaleX萬(wàn)集群落地國(guó)家互聯(lián)網(wǎng)鄭州核心節(jié)點(diǎn)

    2月5日,由中科曙光提供的3套萬(wàn)集群系統(tǒng)在國(guó)家互聯(lián)網(wǎng)鄭州核心節(jié)點(diǎn)同時(shí)上線試運(yùn)行,成為全國(guó)首個(gè)實(shí)現(xiàn)3萬(wàn)部署、且實(shí)際投入運(yùn)營(yíng)的最大國(guó)產(chǎn)
    的頭像 發(fā)表于 02-09 10:32 ?511次閱讀

    GPU 利用率<30%?這款開(kāi)源智云平臺(tái)讓力不浪費(fèi) 1%

    作為 AI 開(kāi)發(fā)者,你是否早已受夠這些困境:花數(shù)百萬(wàn)采購(gòu)的 GPU 集群,利用率常年低于 30%,力閑置如同燒錢;跨 CPU/GPU/NPU 異構(gòu)資源調(diào)度難如登天,模型訓(xùn)練卡在資源分
    的頭像 發(fā)表于 01-26 14:20 ?195次閱讀

    華為發(fā)布AI容器技術(shù)Flex:ai,力平均利用率提升30%

    決方案。 ? 當(dāng)前,AI產(chǎn)業(yè)正處于高速發(fā)展的黃金時(shí)期,海量力需求如潮水般涌來(lái)。然而,力資源利用率偏低的問(wèn)題卻成為了產(chǎn)業(yè)發(fā)展的關(guān)鍵桎梏。具體表現(xiàn)為,小模型任務(wù)常常獨(dú)占整,導(dǎo)致大量資
    的頭像 發(fā)表于 11-26 08:31 ?7613次閱讀

    640節(jié)點(diǎn)問(wèn)世:國(guó)產(chǎn)力實(shí)現(xiàn)關(guān)鍵一躍

    單機(jī)柜級(jí)640節(jié)點(diǎn)ScaleX640,為如火如荼的力競(jìng)爭(zhēng)注入了新的變量。 ? 這款被命名為ScaleX640的節(jié)點(diǎn),憑借“一拖二”高密架構(gòu)和單機(jī)柜640
    的頭像 發(fā)表于 11-11 09:26 ?2311次閱讀

    節(jié)點(diǎn)+集群”:華為撞出來(lái)的力之路

    節(jié)點(diǎn)+集群”,成為徹底解決AI力困局的契機(jī)
    的頭像 發(fā)表于 09-24 10:55 ?1193次閱讀
    “<b class='flag-5'>超</b>節(jié)點(diǎn)+集群”:華為撞出來(lái)的<b class='flag-5'>算</b>力之路

    力與電力的終極博弈,填上了AIDC的“電力黑洞

    ),專注于提供人工智能訓(xùn)練與推理所需的力服務(wù)、數(shù)據(jù)服務(wù)和算法服務(wù)。AIDC采用異構(gòu)計(jì)算架構(gòu),結(jié)合GPU、FPGA、ASIC等多種AI加速芯片,形成高并發(fā)分布式系統(tǒng),以滿足大模型訓(xùn)練和推理的極高
    的頭像 發(fā)表于 09-22 02:43 ?8461次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的未來(lái):提升力還是智力

    本章節(jié)作者分析AI的未來(lái)在哪里,就目前而言有來(lái)那個(gè)兩種思想:①繼續(xù)增加大模型②將大模型改為小模型,并將之優(yōu)化使之與大模型性能不不相上下。 一、大模型是一條不可持續(xù)發(fā)展的道路 大模型的不可
    發(fā)表于 09-14 14:04

    睿海光電領(lǐng)航AI光模塊:快交付與全場(chǎng)景兼容賦能智時(shí)代——以創(chuàng)新實(shí)力助力全球客戶構(gòu)建高效力底座

    深圳、北京、香港三大運(yùn)營(yíng)中心,提供本地化技術(shù)服務(wù)網(wǎng)絡(luò)。公司首創(chuàng)“三年質(zhì)保、終身維修”政策,累計(jì)服務(wù)全球1560余家客戶,涵蓋頭部云廠商、電信運(yùn)營(yíng)商及中心。2025年初,睿海光電更推出AI智能診斷
    發(fā)表于 08-13 19:03

    aicube的ngpu索引該如何添加?

    請(qǐng)問(wèn)有人知道aicube怎樣才能讀取ngpu索引呢,我已經(jīng)安裝了cuda和cudnn,在全局的py里添加了torch,能夠調(diào)用gpu,當(dāng)還是只能看到默認(rèn)的gpu0,顯示不了
    發(fā)表于 07-25 08:18

    【「力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】+NVlink技術(shù)從應(yīng)用到原理

    自家GPU 提出的多力互連技術(shù),是早期為了應(yīng)對(duì)深度學(xué)習(xí)對(duì)超高力需求而單卡力不足的局面的解決方案,當(dāng)然這都是官方用來(lái)吹牛的話術(shù)。我自己
    發(fā)表于 06-18 19:31

    加速是什么東西?它真能在AI戰(zhàn)場(chǎng)上干掉GPU和TPU!

    隨著AI技術(shù)火得一塌糊涂,大家都在談"大模型"、"AI加速"、"智能計(jì)算",可真到了落地環(huán)節(jié),力才是硬通貨。你有沒(méi)有發(fā)現(xiàn),現(xiàn)在越來(lái)越多的AI企業(yè)不光用
    的頭像 發(fā)表于 06-05 13:39 ?1688次閱讀
    智<b class='flag-5'>算</b>加速<b class='flag-5'>卡</b>是什么東西?它真能在<b class='flag-5'>AI</b>戰(zhàn)場(chǎng)上干掉<b class='flag-5'>GPU</b>和TPU!

    DeepSeek推動(dòng)AI力需求:800G光模塊的關(guān)鍵作用

    數(shù)據(jù)傳輸速率,減少帶寬瓶頸,成為數(shù)據(jù)中心和AI集群架構(gòu)優(yōu)化的重點(diǎn)。光模塊速率的躍升不僅提升了傳輸效率,也為大規(guī)模并行計(jì)算任務(wù)提供必要的帶寬保障。 800G光模塊如何解決DeepSeek大規(guī)模
    發(fā)表于 03-25 12:00

    力破局:科通技術(shù)以&quot;AI大模型+AI芯片&quot;重構(gòu)智底座

    “科通技術(shù)”)推出的“DeepSeek+AI芯片”全場(chǎng)景方案,在云AI領(lǐng)域取得重大突破。除了GPU力總量,云AI的一大挑戰(zhàn)來(lái)源于
    的頭像 發(fā)表于 03-17 11:14 ?888次閱讀