91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用多個推理芯片需要仔細(xì)規(guī)劃

zhongnian ? 來源:zhongnian ? 作者:zhongnian ? 2022-07-21 10:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

過去兩年,推理芯片業(yè)務(wù)異常忙碌。有一段時間,似乎每隔一周就有另一家公司推出一種新的更好的解決方案。盡管所有這些創(chuàng)新都很棒,但問題是大多數(shù)公司不知道如何利用各種解決方案,因?yàn)樗麄儫o法判斷哪一個比另一個表現(xiàn)更好。由于在這個新市場中沒有一套既定的基準(zhǔn),他們要么必須快速掌握推理芯片的速度,要么必須相信各個供應(yīng)商提供的性能數(shù)據(jù)。

大多數(shù)供應(yīng)商都提供了某種類型的性能數(shù)據(jù),通常是任何讓它們看起來不錯的基準(zhǔn)。一些供應(yīng)商談?wù)?TOPS 和 TOPS/Watt 時沒有指定型號、批量大小或工藝/電壓/溫度條件。其他人使用了 ResNet-50 基準(zhǔn),這是一個比大多數(shù)人需要的簡單得多的模型,因此它在評估推理選項(xiàng)方面的價值值得懷疑。

從早期開始,我們已經(jīng)走了很長一段路。公司已經(jīng)慢慢發(fā)現(xiàn),在衡量推理芯片的性能時真正重要的是 1) 高 MAC 利用率,2) 低功耗和 3) 你需要保持一切都很小。

我們知道如何衡量——下一步是什么?

既然我們對如何衡量一個推理芯片相對于另一個的性能有了相當(dāng)好的了解,公司現(xiàn)在正在詢問在同一設(shè)計(jì)中同時使用多個推理芯片的優(yōu)點(diǎn)(或缺點(diǎn))是什么。簡單的答案是,使用多個推理芯片,當(dāng)推理芯片設(shè)計(jì)正確時,可以實(shí)現(xiàn)性能的線性增長。當(dāng)我們考慮使用多個推理芯片時,高速公路的類比并不遙遠(yuǎn)。公司想要單車道高速公路還是四車道高速公路的性能?

顯然,每家公司都想要一條四向高速公路,所以現(xiàn)在的問題變成了“我們?nèi)绾卧诓辉斐山煌ê推款i的情況下交付這條四車道的高速公路?” 答案取決于選擇正確的推理芯片。為了解釋,讓我們看一個神經(jīng)網(wǎng)絡(luò)模型。

神經(jīng)網(wǎng)絡(luò)被分解成層。ResNet-50 等層有 50 層,YOLOv3 有超過 100 層,每一層都接受前一層的激活。因此,在第 N 層中,它的輸出是進(jìn)入第 N+1 層的激活。它等待該層進(jìn)入,計(jì)算完成,輸出是進(jìn)入第 n+2 層的激活。這會持續(xù)到層的長度,直到你最終得到結(jié)果。請記住,此示例的初始輸入是圖像或模型正在處理的任何數(shù)據(jù)集。

當(dāng)多個芯片發(fā)揮作用時

現(xiàn)實(shí)情況是,如果您的芯片具有一定的性能水平,總會有客戶想要兩倍或四倍的性能。如果你分析神經(jīng)網(wǎng)絡(luò)模型,在某些情況下是可以實(shí)現(xiàn)的。您只需要查看如何在兩個芯片或四個芯片之間拆分模型。

多年來,這一直是并行處理的一個問題,因?yàn)楹茈y弄清楚如何對您正在執(zhí)行的任何處理進(jìn)行分區(qū)并確保它們?nèi)肯嗉?,而不是在性能方面被減去。

與并行處理和通用計(jì)算不同,推理芯片的好處是客戶通常會提前知道他們是否要使用兩個芯片,這樣編譯器就不必在運(yùn)行時弄清楚——它是在編譯時完成的。使用神經(jīng)網(wǎng)絡(luò)模型,一切都是完全可預(yù)測的,因此我們可以分析并準(zhǔn)確確定如何拆分模型,以及它是否能在兩個芯片上運(yùn)行良好。

為了確保模型可以在兩個或更多芯片上運(yùn)行,重要的是逐層查看激活大小和 MAC 數(shù)量。通常發(fā)生的情況是,最大的激活發(fā)生在最早的層中。這意味著隨著層數(shù)的增加,激活大小會慢慢下降。

查看 MAC 的數(shù)量以及每個周期中完成的 MAC 數(shù)量也很重要。在大多數(shù)模型中,每個循環(huán)中完成的 MAC 數(shù)量通常與激活大小相關(guān)。這很重要,因?yàn)槿绻袃蓚€芯片并且想要以最大頻率運(yùn)行,則需要為每個芯片分配相同的工作負(fù)載。如果一個芯片完成模型的大部分工作,而另一個芯片只完成模型的一小部分,那么您將受到第一個芯片的吞吐量的限制。

如何在兩個芯片之間拆分模型也很重要。您需要查看 MAC 的數(shù)量,因?yàn)檫@決定了工作負(fù)載的分布。您還必須查看芯片之間傳遞的內(nèi)容。在某些時候,您需要在您傳遞的激活盡可能小的地方對模型進(jìn)行切片,以便所需的通信帶寬量和傳輸延遲最小。如果在激活非常大的點(diǎn)對模型進(jìn)行切片,激活的傳輸可能會成為限制雙芯片解決方案性能的瓶頸。

下圖顯示了 YOLOv3、Winograd、2 百萬像素圖像的激活輸出大小和累積的 Mac 操作逐層(繪制了卷積層)。為了平衡兩個芯片之間的工作負(fù)載,該模型將減少大約 50% 的累積 MAC 操作——此時從一個芯片傳遞到另一個芯片的激活為 1MB 或 2MB。要在 4 個籌碼之間進(jìn)行拆分,削減率約為 25%、50% 和 75%;請注意,激活大小在開始時最大,因此 25% 的切點(diǎn)有 4 或 8MB 的激活要通過。

poYBAGLXT6aAZ_6sAAGPBlpZGUY044.png

單擊此處查看大圖
YOLOv3/Winograd/2Mpixel 圖像的激活輸出大?。ㄋ{(lán)條)和逐層累積 MAC 操作(紅線),顯示工作負(fù)載如何在多個芯片之間分配(圖片:Flex Logix)

性能工具

幸運(yùn)的是,現(xiàn)在可以使用性能工具來確保高吞吐量。事實(shí)上,模擬單個芯片性能的同一工具可以推廣到模擬兩個芯片的性能。雖然任何給定層的性能完全相同,但問題是數(shù)據(jù)傳輸如何影響性能。建模工具需要考慮這一點(diǎn),因?yàn)槿绻璧膸挷粔颍搸拰⑾拗仆掏铝俊?/p>

如果您正在做四個芯片,您將需要更大的帶寬,因?yàn)槟P偷谝患径鹊募せ钔笥谀P秃笃诘募せ?。因此,您投資的通信資源量將允許您使用流水線連接的大量芯片,但這將是所有芯片都必須承擔(dān)的間接成本,即使它們是獨(dú)立芯片。

結(jié)論

使用多個推理芯片可以顯著提高性能,但前提是如上所述正確設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)。如果我們回顧一下高速公路的類比,有很多機(jī)會通過使用錯誤的芯片和錯誤的神經(jīng)網(wǎng)絡(luò)模型來建立交通。如果你從正確的芯片開始,你就走在了正確的軌道上。請記住,最重要的是吞吐量,而不是 TOPS 或 Res-Net50 基準(zhǔn)。然后,一旦您選擇了正確的推理芯片,您就可以設(shè)計(jì)一個同樣強(qiáng)大的神經(jīng)網(wǎng)絡(luò)模型,為您的應(yīng)用需求提供最大的性能。

— Geoff Tate 是 Flex Logix 的首席執(zhí)行官

、審核編輯 黃昊宇
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    463

    文章

    54056

    瀏覽量

    466841
  • Mac
    Mac
    +關(guān)注

    關(guān)注

    0

    文章

    1128

    瀏覽量

    55381
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    堪稱史上最強(qiáng)推理芯片!英偉達(dá)發(fā)布 Rubin CPX,實(shí)現(xiàn)50倍ROI

    的一款A(yù)I芯片,Rubin CPX采用了成本效益極高的單芯片設(shè)計(jì),集成強(qiáng)大的NVFP4計(jì)算資源,其GPU專為AI推理任務(wù)優(yōu)化,可以
    的頭像 發(fā)表于 09-11 08:25 ?1.1w次閱讀
    堪稱史上最強(qiáng)<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>!英偉達(dá)發(fā)布 Rubin CPX,實(shí)現(xiàn)50倍ROI

    把大模型“刻進(jìn)”芯片,AI芯片推理速度17000 tokens/秒

    電子發(fā)燒友網(wǎng)綜合報道 近期,加拿大多倫多初創(chuàng)公司Taalas正式發(fā)布首款A(yù)I推理芯片HC1,將大模型權(quán)重直接蝕刻到芯片的金屬互連層中,實(shí)現(xiàn)推理速度達(dá)17000 tokens/秒。 ?
    的頭像 發(fā)表于 03-01 06:45 ?7223次閱讀
    把大模型“刻進(jìn)”<b class='flag-5'>芯片</b>,AI<b class='flag-5'>芯片</b><b class='flag-5'>推理</b>速度17000 tokens/秒

    AI推理芯片需求爆發(fā),OpenAI欲尋求新合作伙伴

    電子發(fā)燒友網(wǎng)綜合報道,在人工智能迅猛發(fā)展的當(dāng)下,AI推理芯片需求正呈爆發(fā)式增長。 ? AI推理,即支撐如ChatGPT這類AI模型響應(yīng)用戶問題和請求的計(jì)算過程。過去,英偉達(dá)在訓(xùn)練大型AI模型所需
    的頭像 發(fā)表于 02-03 17:15 ?2974次閱讀

    曦望發(fā)布新一代推理GPU芯片,單位Token推理成本降低90%

    電子發(fā)燒友網(wǎng)報道 1月27日,國產(chǎn)GPU廠商曦望(Sunrise)重磅發(fā)布新一代推理GPU芯片——啟望S3。這是曦望在近一年累計(jì)完成約30億元戰(zhàn)略融資后的首次集中公開亮相。2025年,曦望芯片交付量
    的頭像 發(fā)表于 01-28 17:38 ?9269次閱讀

    今日看點(diǎn):消息稱 AMD、高通考慮導(dǎo)入 SOCAMM 內(nèi)存;曦望發(fā)布新一代推理GPU芯片啟望S3

    曦望發(fā)布新一代推理GPU芯片啟望S3 近日,浙江杭州GPU創(chuàng)企曦望(Sunrise)發(fā)布新一代推理GPU芯片啟望S3,并推出面向大模型推理
    發(fā)表于 01-28 11:09 ?1186次閱讀

    LLM推理模型是如何推理的?

    這篇文章《(How)DoReasoningModelsReason?》對當(dāng)前大型推理模型(LRM)進(jìn)行了深刻的剖析,超越了表面的性能宣傳,直指其技術(shù)本質(zhì)和核心局限。以下是基于原文的詳細(xì)技術(shù)原理、關(guān)鍵
    的頭像 發(fā)表于 01-19 15:33 ?545次閱讀
    LLM<b class='flag-5'>推理</b>模型是如何<b class='flag-5'>推理</b>的?

    歐洲之光!5nm,3200 TFLOPS AI推理芯片即將量產(chǎn)

    電子發(fā)燒友網(wǎng)綜合報道 今年10月,歐洲芯片公司VSORA(總部位于法國巴黎)宣布開始生產(chǎn)其AI推理芯片Jotunn8,這也令VSORA成為歐洲唯一一家推出高性能AI推理
    的頭像 發(fā)表于 11-29 13:52 ?5926次閱讀
    歐洲之光!5nm,3200 TFLOPS AI<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>即將量產(chǎn)

    使用NVIDIA Grove簡化Kubernetes上的復(fù)雜AI推理

    過去幾年,AI 推理的部署已經(jīng)從單一模型、單一 Pod 演變?yōu)閺?fù)雜的多組件系統(tǒng)。如今,一個模型部署可能包含多個不同的組件——預(yù)填充 (prefill)、解碼 (decode)、視覺編碼
    的頭像 發(fā)表于 11-14 10:25 ?5298次閱讀
    使用NVIDIA Grove簡化Kubernetes上的復(fù)雜AI<b class='flag-5'>推理</b>

    AI推理芯片賽道猛將,200億市值A(chǔ)I芯片企業(yè)赴港IPO

    7月30日,AI芯片龍頭企業(yè)云天勵飛正式向港交所遞交招股說明書。 ? 云天勵飛成立于2014年8月,于2023年4月在上交所科創(chuàng)板掛牌,截至8月1日的市值為216億元。專注于AI推理芯片的研發(fā)
    的頭像 發(fā)表于 08-04 09:22 ?4728次閱讀
    AI<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>賽道猛將,200億市值A(chǔ)I<b class='flag-5'>芯片</b>企業(yè)赴港IPO

    大模型推理顯存和計(jì)算量估計(jì)方法研究

    過程中需要占用大量顯存,導(dǎo)致推理速度變慢,甚至無法進(jìn)行。 計(jì)算量過大:大模型的計(jì)算量較大,導(dǎo)致推理速度慢,難以滿足實(shí)時性要求。 為了解決這些問題,本文將針對大模型推理顯存和計(jì)算量的估計(jì)
    發(fā)表于 07-03 19:43

    PTR54L15藍(lán)牙模組的引腳規(guī)劃——電源域

    更加的強(qiáng)大,使用上也有些不同,關(guān)于這個模組的引腳該如何規(guī)劃使用呢,現(xiàn)在我們來說下電源域: “電源域”是芯片的一部分,可以獨(dú)立開機(jī)或關(guān)機(jī)以優(yōu)化能耗 引腳規(guī)劃需注意,PTR54L15架構(gòu)分 MCU、無線電、外設(shè)、低功耗四個電源域,各
    發(fā)表于 06-25 19:13

    邏輯推理AI智能體的實(shí)際應(yīng)用

    由大語言模型 (LLM) 驅(qū)動的 AI 智能體,已經(jīng)從最初解答常見問題的聊天機(jī)器人進(jìn)化為真正的數(shù)字伙伴,它們不僅能夠進(jìn)行規(guī)劃、邏輯推理并自主行動,還能在過程中持續(xù)接受糾錯反饋。
    的頭像 發(fā)表于 05-20 16:28 ?999次閱讀

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    Cloud 客戶開放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項(xiàng)。 ? 在核心亮點(diǎn)層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設(shè)計(jì)的 TPU 芯片
    的頭像 發(fā)表于 04-12 00:57 ?3785次閱讀

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展推理時間計(jì)算、運(yùn)用強(qiáng)化學(xué)習(xí)、開展監(jiān)督微調(diào)和進(jìn)行提煉等。本文將深入探討LLM
    的頭像 發(fā)表于 04-03 12:09 ?1659次閱讀
    詳解 LLM <b class='flag-5'>推理</b>模型的現(xiàn)狀

    新品 | Module LLM Kit,離線大語言模型推理模塊套裝

    推理與數(shù)據(jù)交互需求。ModuleLLM是一款集成化的離線大語言模型(LLM)推理模塊,專為需要高效、智能交互的終端設(shè)備設(shè)計(jì)。Module13.2LLMMate模塊
    的頭像 發(fā)表于 03-28 18:49 ?1241次閱讀
    新品 | Module LLM Kit,離線大語言模型<b class='flag-5'>推理</b>模塊套裝