91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI大語(yǔ)言模型的原理、演進(jìn)及算力測(cè)算專題報(bào)告

jh18616091022 ? 來(lái)源:AIOT大數(shù)據(jù) ? 2023-04-28 10:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

核心觀點(diǎn):

機(jī)器學(xué)習(xí)中模型及數(shù)據(jù)規(guī)模增加有利于提高深度神經(jīng)網(wǎng)絡(luò)性能。人工智能致力于研究能夠模擬、延伸和擴(kuò)展人類智能的理論方法及技術(shù),并開發(fā)相關(guān)應(yīng)用系統(tǒng);其最終目標(biāo)是使計(jì)算機(jī)能夠模擬人的思維方 式和行為。機(jī)器學(xué)習(xí)是一門專門研究計(jì)算機(jī)如何模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為、以獲取新的知識(shí)或技能、重新組織已有的知識(shí)結(jié)構(gòu)使之不斷改 善自身性能的學(xué)科,廣泛應(yīng)用于數(shù)據(jù)挖掘、計(jì)算機(jī)視覺、自然語(yǔ)言處理等領(lǐng)域。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的子集,主要由人工神經(jīng)網(wǎng)絡(luò)組成。與 傳統(tǒng)算法及中小型神經(jīng)網(wǎng)絡(luò)相比,大規(guī)模的神經(jīng)網(wǎng)絡(luò)及海量的數(shù)據(jù)支撐將有效提高深度神經(jīng)網(wǎng)絡(luò)的表現(xiàn)性能。

Transformer模型架構(gòu)是現(xiàn)代大語(yǔ)言模型所采用的基礎(chǔ)架構(gòu)。Transformer模型是一種非串行的神經(jīng)網(wǎng)絡(luò)架構(gòu),最初被用于執(zhí)行基于上下文的機(jī)器翻譯任務(wù)。Transformer模型以Encoder-Decoder架構(gòu)為基 礎(chǔ),能夠并行處理整個(gè)文本序列,同時(shí)引入“注意機(jī)制”(Attention),使其能夠在文本序列中正向和反向地跟蹤單詞之間的關(guān)系,適合在 大規(guī)模分布式集群中進(jìn)行訓(xùn)練,因此具有能夠并行運(yùn)算、關(guān)注上下文信息、表達(dá)能力強(qiáng)等優(yōu)勢(shì)。

Transformer模型以詞嵌入向量疊加位置編碼 作為輸入,使得輸入序列具有位置上的關(guān)聯(lián)信息。編碼器(Encoder)由Self-Attention(自注意力層)和 Feed Forward Network(前饋網(wǎng) 絡(luò))兩個(gè)子層組成,Attention使得模型不僅關(guān)注當(dāng)前位置的詞語(yǔ),同時(shí)能夠關(guān)注上下文的詞語(yǔ)。解碼器(Decoder)通過(guò)Encoder-Decoder Attention層,用于解碼時(shí)對(duì)于輸入端編碼信息的關(guān)注;利用掩碼(Mask)機(jī)制,對(duì)序列中每一位置根據(jù)之前位置的輸出結(jié)果循環(huán)解碼得到當(dāng) 前位置的輸出結(jié)果。

GPT是基于Transformer架構(gòu)的大語(yǔ)言模型,近年迭代演進(jìn)迅速。構(gòu)建語(yǔ)言模型是自然語(yǔ)言處理中最基本和最重要的任務(wù)之一。GPT是基于Transformer架構(gòu)衍生出的生成式預(yù)訓(xùn)練的單向語(yǔ)言模型,通過(guò)對(duì)大 量語(yǔ)料數(shù)據(jù)進(jìn)行無(wú)監(jiān)督學(xué)習(xí),從而實(shí)現(xiàn)文本生成的目的;在結(jié)構(gòu)上僅采用Transformer架構(gòu)的Decoder部分。自2018年6月OpenAI發(fā)布GPT-1模 型以來(lái),GPT模型迭代演進(jìn)迅速。GPT-1核心思想是采用“預(yù)訓(xùn)練+微調(diào)”的半監(jiān)督學(xué)習(xí)方法,服務(wù)于單序列文本的生成式任務(wù);GPT-2在預(yù)訓(xùn) 練階段引入多任務(wù)學(xué)習(xí)機(jī)制,將多樣化的自然語(yǔ)言處理任務(wù)全部轉(zhuǎn)化為語(yǔ)言模型問(wèn)題;GPT-3大幅增加了模型參數(shù),更能有效利用上下文信息, 性能得到跨越式提高;GPT-3.5引入人類反饋強(qiáng)化學(xué)習(xí)機(jī)制,通過(guò)使用人類反饋的數(shù)據(jù)集進(jìn)行監(jiān)督學(xué)習(xí),能夠使得模型輸出與人類意圖一致。

大語(yǔ)言模型的訓(xùn)練及推理應(yīng)用對(duì)算力需求帶來(lái)急劇提升。以GPT-3為例,GPT-3參數(shù)量達(dá)1750億個(gè),訓(xùn)練樣本token數(shù)達(dá)3000億個(gè)??紤]采用精度為32位的單精度浮點(diǎn)數(shù)數(shù)據(jù)來(lái)訓(xùn)練模型及進(jìn)行谷歌級(jí)訪 問(wèn)量推理,假設(shè)GPT-3模型每次訓(xùn)練時(shí)間要求在30天完成,對(duì)應(yīng)GPT-3所需運(yùn)算次數(shù)為3.15*10^23FLOPs,所需算力為121.528PFLOPS,以A100 PCle芯片為例,訓(xùn)練階段需要新增A100 GPU芯片1558顆,價(jià)值量約2337萬(wàn)美元;對(duì)應(yīng)DGX A100服務(wù)器195臺(tái),價(jià)值量約3880.5萬(wàn)美元。假設(shè)推 理階段按谷歌每日搜索量35億次進(jìn)行估計(jì),則每日GPT-3需推理token數(shù)達(dá)7.9萬(wàn)億個(gè),所需運(yùn)算次數(shù)為4.76*10^24FLOPs,所需算力為 55EFLOPs,則推理階段需要新增A100 GPU芯片70.6萬(wàn)顆,價(jià)值量約105.95億美元;對(duì)應(yīng)DGX A100服務(wù)器8.8萬(wàn)臺(tái),價(jià)值量約175.12億美元。

01、人工智能、機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介

機(jī)器學(xué)習(xí)是實(shí)現(xiàn)人工智能的途徑之一

人工智能(Artificial Intelligence,AI)是研究、開發(fā)用于模擬、延伸和擴(kuò)展人類智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的 技術(shù)科學(xué)。人工智能的最終目標(biāo)是使計(jì)算機(jī)能夠模擬人的思維方式和行為。機(jī)器學(xué)習(xí)(Machine Learning,ML)是實(shí)現(xiàn)人工智能的一種途徑,是一門專門研究計(jì)算機(jī)如何模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為、以獲取新 的知識(shí)或技能、重新組織已有的知識(shí)結(jié)構(gòu)使之不斷改善自身性能的學(xué)科。機(jī)器學(xué)習(xí)包括數(shù)據(jù)、模型、算法三要素。從實(shí)踐上來(lái)看,機(jī)器學(xué)習(xí)是在大數(shù)據(jù)的支撐下,通過(guò)各種算法讓機(jī)器對(duì)數(shù)據(jù)進(jìn)行深層次的統(tǒng) 計(jì)分析以進(jìn)行“自學(xué)”(訓(xùn)練模型),使人工智能系統(tǒng)獲得了歸納推理和決策能力。機(jī)器學(xué)習(xí)作為一套數(shù)據(jù)驅(qū)動(dòng)方法,已廣泛應(yīng)用于數(shù)據(jù) 挖掘、自然語(yǔ)言處理、機(jī)器視覺、搜索引擎、醫(yī)學(xué)診斷、生物特征識(shí)別、DNA序列測(cè)序、證券市場(chǎng)分析等領(lǐng)域。

模型及數(shù)據(jù)規(guī)模增加有利于提高深度神經(jīng)網(wǎng)絡(luò)性能

深度學(xué)習(xí)(Deep Learning,DL)是機(jī)器學(xué)習(xí)的子集,由人工神經(jīng)網(wǎng)絡(luò)(ANN)組成。深度學(xué)習(xí)模仿人腦中存在的相似結(jié)構(gòu), 其學(xué)習(xí)是通過(guò)相互關(guān)聯(lián)的“神經(jīng)元”的深層的、多層的“網(wǎng)絡(luò)”來(lái)進(jìn)行的。典型的神經(jīng)網(wǎng)絡(luò)從結(jié)構(gòu)上可以分為三層:輸入層、隱藏層、輸出層。其中,輸入層(input layer)是指輸入特征向量;隱藏 層(hidden layer)是指抽象的非線性中間層;輸出層(output layer)是指輸出預(yù)測(cè)值。深層神經(jīng)網(wǎng)絡(luò)即包含更多隱藏層的神 經(jīng)網(wǎng)絡(luò)。相比于傳統(tǒng)機(jī)器學(xué)習(xí)模型,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)更能在海量數(shù)據(jù)上發(fā)揮作用。若希望獲得更好的性能,不僅需要訓(xùn)練一個(gè)規(guī)模 足夠大的神經(jīng)網(wǎng)絡(luò)(即帶有許多隱藏層的神經(jīng)網(wǎng)絡(luò),及許多參數(shù)及相關(guān)性),同時(shí)也需要海量的數(shù)據(jù)支撐。數(shù)據(jù)的規(guī)模及神經(jīng)網(wǎng) 絡(luò)的計(jì)算性能,需要有強(qiáng)大的算力作為支撐。

CNN和RNN是常見的神經(jīng)網(wǎng)絡(luò)模型

傳統(tǒng)常見的神經(jīng)網(wǎng)絡(luò)模型包括卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)等。其中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)多用于計(jì)算機(jī)視覺、自動(dòng)駕駛、人臉識(shí)別、虛擬現(xiàn)實(shí)、醫(yī)學(xué)領(lǐng)域、人機(jī)交互、智能安防等圖像應(yīng)用;相比于標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò),CNN能夠 更好地適應(yīng)高緯度的輸入數(shù)據(jù),卷積設(shè)計(jì)有效減少了模型的參數(shù)數(shù)量。循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)常用于處理序列數(shù)據(jù),獲取數(shù)據(jù)中的時(shí)間依賴 性。由于語(yǔ)言都是逐個(gè)出現(xiàn)的,同時(shí)語(yǔ)言是時(shí)序前后相互關(guān)聯(lián)的數(shù)據(jù),因此語(yǔ)言作為最自然表達(dá)出來(lái)的 序列數(shù)據(jù),適合應(yīng)用RNN進(jìn)行語(yǔ)音識(shí)別、情感分類、機(jī)器翻譯、語(yǔ)言生成、命名實(shí)體識(shí)別等應(yīng)用。

循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)曾是自然語(yǔ)言處理的首選解決方案。RNN能夠在處理單詞序列時(shí),將處理第一個(gè)詞的結(jié)果反饋到處理下一個(gè)詞的層, 使得模型能夠跟蹤整個(gè)句子而非單個(gè)單詞。但RNN存在缺點(diǎn):由于這種串行結(jié)構(gòu),RNN無(wú)法對(duì)于長(zhǎng)序列文本進(jìn)行有效處理,甚至可能當(dāng)初始 單詞過(guò)遠(yuǎn)時(shí)“遺忘”相關(guān)信息。

02、Transformer模型結(jié)構(gòu)分析

Transformer模型以Encoder-Decoder架構(gòu)為基礎(chǔ)

《Attention is all your need》 by OpenAI 。作為與傳統(tǒng)的CNN、RNN不同的深度學(xué)習(xí)模型架構(gòu),Transformer模型最初是被用于基于 上下文的機(jī)器翻譯模型。由于Transformer模型非串行結(jié)構(gòu),能夠并行處理整個(gè)序列;同 時(shí)引入“注意機(jī)制”(attention),能夠在文本序列中正向和反向地跟蹤單詞之間的關(guān) 系,適合在大規(guī)模分布式集群中進(jìn)行訓(xùn)練。Transformer以Encoder-Decoder架構(gòu)為基礎(chǔ)。其中,編碼組件由多層編碼器(Encoder) 組成。解碼組件也是由相同層數(shù)的解碼器(Decoder)組成。Encoder用于提取源端語(yǔ)言 的語(yǔ)義特征,而用Decoder提取目標(biāo)端語(yǔ)言的語(yǔ)義特征,并生成相對(duì)應(yīng)的譯文。Transformer模型具有能夠并行運(yùn)算、關(guān)注上下文信息、表達(dá)能力強(qiáng)等優(yōu)勢(shì)。

Transformer模型結(jié)構(gòu)分析——詞嵌入(Embedding)

詞嵌入是NLP最基礎(chǔ)的概念之一,表示來(lái)自詞匯表的單詞或者短語(yǔ)被映射成實(shí)數(shù)向量。最早的詞嵌入模型是word2vec等神經(jīng)網(wǎng)絡(luò)模型, 屬于靜態(tài)詞嵌入(不關(guān)注上下文)。例如大模型誕生前常用的RNN模型所用的輸入便是預(yù)訓(xùn)練好的詞嵌入。詞向量能夠?qū)⒄Z(yǔ)義信息與空間 向量關(guān)聯(lián)起來(lái)(例如經(jīng)典的詞類比例子:king、queen、man、woman對(duì)應(yīng)詞向量的關(guān)系)。詞嵌入產(chǎn)生要素及步驟:Vocabulary:所有的token組成集合。詞向量表:token與詞向量的一一對(duì)應(yīng)關(guān)系。詞向量可以由預(yù)訓(xùn)練產(chǎn)生,也可以是模型參數(shù)。查表:輸入的token都對(duì)應(yīng)一個(gè)固定維度的浮點(diǎn)數(shù)向量(詞嵌入向量)。位置編碼:表示序列中詞的順序,具體方法為為每個(gè)輸入的詞添加一個(gè)位置向量。根據(jù)位置編碼對(duì)應(yīng)計(jì)算公式,pos表示位置,i表示維度。位置編碼能夠讓模型學(xué)習(xí)到token之間的相對(duì)位置關(guān)系。

Transformer模型結(jié)構(gòu)分析——Encoder

編碼組件可由多層編碼器(Encoder)組成,同樣解碼組件也由相同層數(shù)的解碼器(Decoder)組成。一般來(lái)講,對(duì)于中間層的輸出向量,底層Encoder輸出的表示淺層含義,頂層Encoder輸出的表示深層含義。每個(gè)Encoder由兩個(gè)子層組成:Self-Attention層(自注意力層)和 Feed Forward Network(FFN,前饋網(wǎng)絡(luò))組成。對(duì)于每一層Encoder,詞嵌入向量輸入會(huì)首先進(jìn)入Self-Attention層,Encoder對(duì)詞向量進(jìn)行編碼時(shí),會(huì)對(duì)整句輸入的上下文均進(jìn)行Attention操作,從而關(guān)注 并使用到輸入句子的上下文的信息。Decoder端存在Cross-Attention層(Encoder-Decoder Attention層),用于解碼時(shí)對(duì)輸入部分的信息進(jìn)行Attention關(guān)注。

經(jīng)過(guò)Self-Attention層的輸入進(jìn)入前饋網(wǎng)絡(luò),前饋網(wǎng)絡(luò)一般是全連接層網(wǎng)絡(luò)(并經(jīng)過(guò)非線性的激活函數(shù),如ReLU函數(shù))。全連接層是最基本的神經(jīng)網(wǎng)絡(luò),每一個(gè)結(jié)點(diǎn)都與上一層的所有結(jié)點(diǎn)相連。ReLU函數(shù):即修正線性單元(Rectified linear unit),又稱線性整流函數(shù),通常指以斜坡函數(shù)及其變種為代表的非線性函數(shù)。激活函數(shù):為使神經(jīng)網(wǎng)絡(luò)具有擬合函數(shù)的能力而引入非線性;如不引入非線性,則無(wú)論多少層神經(jīng)網(wǎng)絡(luò)都相當(dāng)于一個(gè)線性映射。下一個(gè)Encoder的輸入是上一個(gè)Encoder的輸出,以此類推。

Transformer模型結(jié)構(gòu)分析——Multi-head Attention

Multi-head Attention即多頭注意力機(jī)制,采用 多組不同的線性變換對(duì)Q、K、V矩陣進(jìn)行映射并分別 計(jì)算Attention,再將不同的Attention結(jié)果拼接起 來(lái)進(jìn)行線性變換。Multi-head Attention本質(zhì)是在參數(shù)總量保持不 變的情況下,將Q、K、V映射到高維空間的不同子空 間進(jìn)行Attention計(jì)算,防止過(guò)擬合。

03、大規(guī)模語(yǔ)言模型算力需求測(cè)算(以GPT-3為例)

BERT和GPT是基于Transformer架構(gòu)的兩種大規(guī)模語(yǔ)言模型

構(gòu)建語(yǔ)言模型(Language Model,LM)是自然語(yǔ)言處理(Natural Language Processing,NLP)中最基本和最 重要的任務(wù)之一,自然語(yǔ)言處理基于Transformer架構(gòu)衍生出了兩種主流大語(yǔ)言模型(Large Language Model, LLM)——BERT和GPT。二者都是無(wú)監(jiān)督預(yù)訓(xùn)練的大語(yǔ)言模型。BERT(Bidirectional Encoder Representations from Transformer)能夠生成深度雙向語(yǔ)言表征,是采用帶 有掩碼(mask)的大語(yǔ)言模型,類似于完形填空,根據(jù)上下文預(yù)測(cè)空缺處的詞語(yǔ)。結(jié)構(gòu)上,BERT僅采用Transformer 架構(gòu)的Encoder部分。

GPT(Generative Pre-training Transformer)是生成式預(yù)訓(xùn)練的單向語(yǔ)言模型。通過(guò)對(duì)大量語(yǔ)料數(shù)據(jù)進(jìn)行無(wú) 監(jiān)督學(xué)習(xí),從而實(shí)現(xiàn)文本生成的目的。結(jié)構(gòu)上,GPT僅采用Transformer架構(gòu)的Decoder部分。自2018年6月起OpenAI發(fā)布GPT-1模型以來(lái),GPT更新?lián)Q代持續(xù)提升模型及參數(shù)規(guī)模。隨著OpenAI于2022年11月30 日發(fā)布ChatGPT引爆AI領(lǐng)域,海內(nèi)外科技公司紛紛宣布發(fā)布大語(yǔ)言模型。用戶爆發(fā)式增長(zhǎng)對(duì)大語(yǔ)言模型的算力需求帶 來(lái)挑戰(zhàn)。

GPT-1:預(yù)訓(xùn)練+微調(diào)的半監(jiān)督學(xué)習(xí)模型

《Improving Language Understanding by Generative Pre-Training》 by OpenAI。GPT-1是生成式預(yù)訓(xùn)練模型,核心思想是“預(yù)訓(xùn)練+微調(diào)”的半監(jiān)督學(xué)習(xí)方法,目標(biāo)是服務(wù)于單序列文本的生成式任務(wù)。生成式:表示模型建模的是一段句子出現(xiàn)的概率,可以分解為基于語(yǔ)言序列前序已出現(xiàn)單詞條件下后一單詞出現(xiàn)的條件概率之乘積。四大常見應(yīng)用:分類、蘊(yùn)含、相似、選擇,分類:每段文本具有對(duì)應(yīng)標(biāo)號(hào),將文本按標(biāo) 號(hào)進(jìn)行分類 ,蘊(yùn)含:給出一段文本和假設(shè),判斷該段文本 中是否蘊(yùn)含該假設(shè),相似:判斷兩段文本是否相似(用于搜索、 查詢、去重等) ,選擇:對(duì)有多個(gè)選項(xiàng)的問(wèn)題進(jìn)行回答。

GPT-2:強(qiáng)調(diào)多任務(wù)的預(yù)訓(xùn)練模型

《Language Models are Unsupervised Multitask Learners》 by OpenAI,預(yù)訓(xùn)練+微調(diào)的范式只能對(duì)于特定自然語(yǔ)言處理任務(wù)(例如問(wèn)答、機(jī)器翻譯、閱讀理解、提取摘要等)使用特定的數(shù)據(jù)集 進(jìn)行有監(jiān)督學(xué)習(xí),單一領(lǐng)域數(shù)據(jù)集缺乏對(duì)多種任務(wù)訓(xùn)練的普適性。GPT-2在預(yù)訓(xùn)練階段便引入多任務(wù)學(xué)習(xí)機(jī)制,通過(guò)加入各種NLP 任務(wù)所需要的數(shù)據(jù)集,在盡可能多的領(lǐng)域和上下文中收集屬于對(duì) 應(yīng)任務(wù)的自然語(yǔ)言。由此得到的GPT-2模型可以以zero-shot的方 式被直接應(yīng)用于下游任務(wù),而無(wú)需進(jìn)行有監(jiān)督的精調(diào)。GPT-2將多樣化的的NLP任務(wù)全部轉(zhuǎn)化為語(yǔ)言模型問(wèn)題。語(yǔ)言提 供了一種靈活的方式來(lái)將任務(wù),輸入和輸出全部指定為一段文本。對(duì)文本的生成式建模就是對(duì)特定任務(wù)進(jìn)行有監(jiān)督學(xué)習(xí)。

GPT-3:能夠舉一反三的大語(yǔ)言模型

《Language Models are Few-Shot Learners》 by OpenAI。相比GPT-2,GPT-3大幅增加了模型參數(shù)。GPT-3是具有1750億個(gè)參數(shù)的自回歸語(yǔ)言模型,更能有效利用上下文 信息。對(duì)于特定的下游任務(wù),GPT-3無(wú)需進(jìn)行任何梯度更新或微調(diào),僅需通過(guò)與模型交互并提供少量范例即可。特點(diǎn):1、模型規(guī)模急劇增加(使得模型性能提升迅猛);2、實(shí)現(xiàn)few-shot learning。in-context learning:對(duì)模型進(jìn)行引導(dǎo),使其明白應(yīng)輸出什么內(nèi)容。Q:你喜歡吃蘋果嗎?A1:我喜歡吃。A2:蘋果是什么?A3:今天天氣真好。A4:Do you like eating apples? 采用prompt提示語(yǔ):漢譯英:你喜歡吃蘋果嗎?請(qǐng)回答:你喜歡吃蘋果嗎?

GPT-3模型對(duì)GPU與AI服務(wù)器需求展望

根據(jù)結(jié)論,1個(gè)參數(shù)量為1750億個(gè)的GPT-3模型在訓(xùn)練階段需要新增1558顆A100 GPU芯片,對(duì)應(yīng)價(jià)值為2337萬(wàn)美元,需要195臺(tái) DGX A100服務(wù)器;在推理階段需要新增70.6萬(wàn)顆A100 GPU芯片,對(duì)應(yīng)價(jià)值為105.95億美元,需要8.8萬(wàn)臺(tái)DGX A100服務(wù)器??紤] 一臺(tái)DGX A100服務(wù)器售價(jià)19.9萬(wàn)美元,則在訓(xùn)練階段DGX A100服務(wù)器價(jià)值量為3880.5萬(wàn)美元,推理階段DGX A100服務(wù)器價(jià)值量 為175.12億美元。英偉達(dá)(Nvidia)是一家人工智能計(jì)算公司,其GPU產(chǎn)品和架構(gòu)為科學(xué)計(jì)算、人工智能(AI)、數(shù)據(jù)科學(xué)、自動(dòng)駕駛汽車 (AV)、機(jī)器人、元宇宙和3D互聯(lián)網(wǎng)應(yīng)用創(chuàng)建平臺(tái)。FY23英偉達(dá)收入為269.74億美元。若按上述結(jié)論,GPT-3新增GPU價(jià)值達(dá)到英 偉達(dá)公司FY23收入的39.4%。

據(jù)IDC數(shù)據(jù),受益于全球經(jīng)濟(jì)的快速?gòu)?fù)蘇,2021年用戶對(duì)數(shù)據(jù)中心基礎(chǔ)設(shè)施的投資持續(xù)上漲,全球服務(wù)器市場(chǎng)出貨量為1353.9 萬(wàn)臺(tái)。據(jù)TrendForce數(shù)據(jù),截至2022年底預(yù)計(jì)搭載GPGPU(General Purpose GPU)的AI服務(wù)器年出貨量占整體服務(wù)器比例近1%。若采用上述數(shù)據(jù)大致估算,GPT-3新增AI服務(wù)器數(shù)量達(dá)到2021年全球AI服務(wù)器數(shù)量的65.35%。

報(bào)告節(jié)選:

e77057fa-e567-11ed-ab56-dac502259ad0.jpg

e78029c8-e567-11ed-ab56-dac502259ad0.jpg

e7984c9c-e567-11ed-ab56-dac502259ad0.jpg

e7b64af8-e567-11ed-ab56-dac502259ad0.jpg

e7d8a012-e567-11ed-ab56-dac502259ad0.jpg

e7ec9f0e-e567-11ed-ab56-dac502259ad0.jpg

e7fe12f2-e567-11ed-ab56-dac502259ad0.jpg

e8161f0a-e567-11ed-ab56-dac502259ad0.jpg

e823c560-e567-11ed-ab56-dac502259ad0.jpg

e83e6028-e567-11ed-ab56-dac502259ad0.jpg

e857bbc2-e567-11ed-ab56-dac502259ad0.jpg

e868534c-e567-11ed-ab56-dac502259ad0.jpg

e87bee84-e567-11ed-ab56-dac502259ad0.jpg

e891e96e-e567-11ed-ab56-dac502259ad0.jpg

e8b6ddc8-e567-11ed-ab56-dac502259ad0.jpg

e8d5573a-e567-11ed-ab56-dac502259ad0.jpg

e8ec21fe-e567-11ed-ab56-dac502259ad0.jpg

e90162f8-e567-11ed-ab56-dac502259ad0.jpg

e9168fca-e567-11ed-ab56-dac502259ad0.jpg

e92ba996-e567-11ed-ab56-dac502259ad0.jpg

e93e922c-e567-11ed-ab56-dac502259ad0.jpg

e95619c4-e567-11ed-ab56-dac502259ad0.jpg

e96c366e-e567-11ed-ab56-dac502259ad0.jpg

e97dc668-e567-11ed-ab56-dac502259ad0.jpg

e9921050-e567-11ed-ab56-dac502259ad0.jpg

e9b51550-e567-11ed-ab56-dac502259ad0.jpg

e9c6e992-e567-11ed-ab56-dac502259ad0.jpg

e9dc0c64-e567-11ed-ab56-dac502259ad0.jpg

e9fc0154-e567-11ed-ab56-dac502259ad0.jpg

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107834
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39820

    瀏覽量

    301496
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    571

    瀏覽量

    11322
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8554

    瀏覽量

    136980

原文標(biāo)題:AI大語(yǔ)言模型的原理、演進(jìn)及算力測(cè)算專題報(bào)告

文章出處:【微信號(hào):AIOT大數(shù)據(jù),微信公眾號(hào):AIOT大數(shù)據(jù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    天合光能入選財(cái)新智庫(kù)2025中國(guó)企業(yè)新型全球化專題報(bào)告

    近日,由財(cái)新智庫(kù)出品的《發(fā)展“中國(guó)人經(jīng)濟(jì)”,共享高水平開放機(jī)遇——2025中國(guó)企業(yè)“新型全球化”專題報(bào)告》(以下簡(jiǎn)稱《報(bào)告》)正式發(fā)布。報(bào)告首次從“中國(guó)人經(jīng)濟(jì)”視角系統(tǒng)梳理了中國(guó)企業(yè)在全球布局中
    的頭像 發(fā)表于 12-30 10:02 ?422次閱讀

    湘軍,讓變成生產(chǎn)

    腦極體
    發(fā)布于 :2025年11月25日 22:56:58

    國(guó)產(chǎn)AI芯片真能扛住“內(nèi)卷”?海思昇騰的這波操作藏了多少細(xì)節(jié)?

    最近行業(yè)都在說(shuō)“AI的命門”,但國(guó)產(chǎn)芯片真的能接住這波需求嗎? 前陣子接觸到海思昇騰910B,實(shí)測(cè)下來(lái)有點(diǎn)超出預(yù)期——7nm工藝下
    發(fā)表于 10-27 13:12

    華為聯(lián)合發(fā)布智能網(wǎng)研究報(bào)告

    2.0)研究報(bào)告》(以下簡(jiǎn)稱“報(bào)告”)。報(bào)告闡述了AI時(shí)代數(shù)據(jù)中心網(wǎng)絡(luò)的演進(jìn)趨勢(shì)與挑戰(zhàn),并從AI
    的頭像 發(fā)表于 09-25 09:37 ?715次閱讀

    什么是AI模組?

    未來(lái),騰視科技將繼續(xù)深耕AI模組領(lǐng)域,全力推動(dòng)AI邊緣計(jì)算行業(yè)的深度發(fā)展。隨著AI技術(shù)的不斷演進(jìn)
    的頭像 發(fā)表于 09-19 15:26 ?1745次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    什么是AI模組?

    未來(lái),騰視科技將繼續(xù)深耕AI模組領(lǐng)域,全力推動(dòng)AI邊緣計(jì)算行業(yè)的深度發(fā)展。隨著AI技術(shù)的不斷演進(jìn)
    的頭像 發(fā)表于 09-19 15:25 ?833次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    科技上線赤兔推理引擎服務(wù),創(chuàng)新解鎖FP8大模型

    模型輕量化部署方案。用戶通過(guò)遠(yuǎn)程平臺(tái)預(yù)置的模型鏡像與AI工具,僅需50%的GPU
    的頭像 發(fā)表于 07-30 21:44 ?920次閱讀

    一文看懂AI集群

    最近這幾年,AI浪潮席卷全球,成為整個(gè)社會(huì)的關(guān)注焦點(diǎn)。大家在討論AI的時(shí)候,經(jīng)常會(huì)提到AI集群。AI
    的頭像 發(fā)表于 07-23 12:18 ?1633次閱讀
    一文看懂<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>集群

    網(wǎng)絡(luò)的“神經(jīng)突觸”:AI互聯(lián)技術(shù)如何重構(gòu)分布式訓(xùn)練范式

    ? 電子發(fā)燒友網(wǎng)綜合報(bào)道 隨著AI技術(shù)迅猛發(fā)展,尤其是大型語(yǔ)言模型的興起,對(duì)于的需求呈現(xiàn)出爆炸性增長(zhǎng)。這不僅推動(dòng)了智
    的頭像 發(fā)表于 06-08 08:11 ?7455次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>網(wǎng)絡(luò)的“神經(jīng)突觸”:<b class='flag-5'>AI</b>互聯(lián)技術(shù)如何重構(gòu)分布式訓(xùn)練范式

    明晚開播 | 數(shù)據(jù)智能系列講座第6期:大模型革命背后的架構(gòu)創(chuàng)新

    背后的架構(gòu)創(chuàng)新報(bào)告簡(jiǎn)介本報(bào)告回顧了AI技術(shù)演進(jìn)的歷程。隨著人工智能技術(shù)的迅猛發(fā)展,特別是大
    的頭像 發(fā)表于 05-20 08:04 ?468次閱讀
    明晚開播 | 數(shù)據(jù)智能系列講座第6期:大<b class='flag-5'>模型</b>革命背后的<b class='flag-5'>算</b><b class='flag-5'>力</b>架構(gòu)創(chuàng)新

    直播預(yù)約 | 數(shù)據(jù)智能系列講座第6期:大模型革命背后的架構(gòu)創(chuàng)新

    模型革命背后的架構(gòu)創(chuàng)新報(bào)告簡(jiǎn)介本報(bào)告回顧了AI技術(shù)演進(jìn)
    的頭像 發(fā)表于 05-12 14:05 ?587次閱讀
    直播預(yù)約 | 數(shù)據(jù)智能系列講座第6期:大<b class='flag-5'>模型</b>革命背后的<b class='flag-5'>算</b><b class='flag-5'>力</b>架構(gòu)創(chuàng)新

    RAKsmart高性能服務(wù)器集群:驅(qū)動(dòng)AI語(yǔ)言模型開發(fā)的引擎

    RAKsmart高性能服務(wù)器集群憑借其創(chuàng)新的硬件架構(gòu)與全棧優(yōu)化能力,成為支撐大語(yǔ)言模型開發(fā)的核心算引擎。下面,AI部落小編帶您了解RAKsmart如何為
    的頭像 發(fā)表于 04-15 09:40 ?707次閱讀

    DeepSeek推動(dòng)AI需求:800G光模塊的關(guān)鍵作用

    隨著人工智能技術(shù)的飛速發(fā)展,AI需求正以前所未有的速度增長(zhǎng)。DeepSeek等大模型的訓(xùn)練與推理任務(wù)對(duì)
    發(fā)表于 03-25 12:00

    接棒,慧榮科技以主控技術(shù)突破AI存儲(chǔ)極限

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃山明)在AI的高速增長(zhǎng)下,尤其是以DeepSeek為代表的AI模型推動(dòng)存儲(chǔ)需求激增,增長(zhǎng)倒逼存
    的頭像 發(fā)表于 03-19 01:29 ?2852次閱讀
    存<b class='flag-5'>力</b>接棒<b class='flag-5'>算</b><b class='flag-5'>力</b>,慧榮科技以主控技術(shù)突破<b class='flag-5'>AI</b>存儲(chǔ)極限