91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

英偉達:5nm實驗芯片用INT4達到INT8的精度

半導體產業(yè)縱橫 ? 來源:量子位 ? 作者:量子位 ? 2022-12-12 15:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

IEEE計算機運算研討會。

32位與16位格式的混合精度訓練,正是當前深度學習的主流。

最新的英偉達核彈GPU H100,剛剛添加上對8位浮點數格式FP8的支持。

英偉達首席科學家Bill Dally現(xiàn)在又表示,他們還有一個“秘密武器”:

在IEEE計算機運算研討會上,他介紹了一種實驗性5nm芯片,可以混合使用8位與4位格式,并且在4位上得到近似8位的精度。

目前這種芯片還在開發(fā)中,主要用于深度學習推理所用的INT4和INT8格式,對于如何應用在訓練中也在研究了。

相關論文已發(fā)表在2022 IEEE Symposium on VLSI Technology上。

7c5c2558-7950-11ed-8abf-dac502259ad0.png

新的量化技術

降低數字格式而不造成重大精度損失,要歸功于按矢量縮放量化(per-vector scaled quantization,VSQ)的技術。

具體來說,一個INT4數字只能精確表示從-8到7的16個整數。

其他數字都會四舍五入到這16個值上,中間產生的精度損失被稱為量化噪聲。

傳統(tǒng)的量化方法給每個矩陣添加一個縮放因子來減少噪聲,VSQ則在這基礎之上給每個向量都添加縮放因子,進一步減少噪聲。

7c8c5386-7950-11ed-8abf-dac502259ad0.png

關鍵之處在于,縮放因子的值要匹配在神經網絡中實際需要表示的數字范圍。

英偉達研究人員發(fā)現(xiàn),每64個數字為一組賦予獨立調整過的縮放因子可以最小化量化誤差。

計算縮放因子的開銷可以忽略不計,從INT8降為INT4則讓能量效率增加了一倍。

7cbba276-7950-11ed-8abf-dac502259ad0.png

Bill Dally認為,結合上INT4計算、VSQ技術和其他優(yōu)化方法后,新型芯片可以達到Hopper架構每瓦運算速度的10倍。

還有哪些降低計算量的努力

除了英偉達之外,業(yè)界還有更多降低計算量的工作也在這次IEEE研討會上亮相。

馬德里康普頓斯大學的一組研究人員設計出基于Posits格式的處理器核心,與Float浮點數相比準確性提高了多達4個數量級。

Posits與Float相比,增加了一個可變長度的Regime區(qū)域,用來表示指數的指數。

對于0附近的較小數字只需要占用兩個位,而這類數字正是在神經網絡中大量使用的。

適用Posits格式的新硬件基于FPGA開發(fā),研究人員發(fā)現(xiàn)可以用芯片的面積和功耗來提高精度,而不用增加計算時間。

7cf8a87e-7950-11ed-8abf-dac502259ad0.png

ETH Zurich一個團隊的研究基于RISC-V,他們把兩次混合精度的積和熔加計算(fused multiply-add,F(xiàn)MA)放在一起平行計算。

這樣可以防止兩次計算之間的精度損失,還可以提高內存利用率。

FMA指的是d = a * b + c這樣的操作,一般情況下輸入中的a和b會使用較低精度,而c和輸出的d使用較高精度。

研究人員模擬了新方法可以使計算時間減少幾乎一半,同時輸出精度有所提高,特別是對于大矢量的計算。

相應的硬件實現(xiàn)正在開發(fā)中。

7d2a0536-7950-11ed-8abf-dac502259ad0.png

巴塞羅那超算中心英特爾團隊的研究也和FMA相關,致力于神經網絡訓練可以完全使用BF16格式完成。

BF16格式已在DALL·E 2等大型網絡訓練中得到應用,不過還需要與更高精度的FP32結合,并且在兩者之間來回轉換。

這是因為神經網絡訓練中只有一部分計算不會因BF16而降低精度。

最新解決辦法開發(fā)了一個擴展的格式BF16-N,將幾個BF16數字組合起來表示一個數,可以在不顯著犧牲精度的情況下更有效進行FMA計算

7d5cadce-7950-11ed-8abf-dac502259ad0.png

關鍵之處在于,F(xiàn)MA計算單元的面積只受尾數位影響。

比如FP32有23個尾數位,需要576個單位的面積,而BF16-2只需要192個,減少了2/3。

另外這項工作的論文題目也很有意思,BF16 is All You Need。

7d784610-7950-11ed-8abf-dac502259ad0.png

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    463

    文章

    54024

    瀏覽量

    466355
  • 英偉達
    +關注

    關注

    23

    文章

    4090

    瀏覽量

    99234

原文標題:英偉達首席科學家:5nm實驗芯片用INT4達到INT8的精度

文章出處:【微信號:ICViews,微信公眾號:半導體產業(yè)縱橫】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    黑芝麻智能華山A2000芯片通過美國審查,正式推向全球市場

    智能駕駛的商業(yè)化落地提供核心算力支持。 華山A2000芯片基于7nm先進工藝打造,集成高性能CPU、GPU、NPU及多種專用計算單元,實測性能媲美當前全球頂尖的智駕芯片。該芯片支持全F
    的頭像 發(fā)表于 01-05 17:15 ?381次閱讀
    黑芝麻智能華山A2000<b class='flag-5'>芯片</b>通過美國審查,正式推向全球市場

    AI算力模組TS-SG-SM9系列產品規(guī)格書

    騰視科技AI算力模組TS-SG-SM9系列搭載算能高集成度處理器CV186AH/BM1688片,功耗低、算力強、接口豐富、兼容性好。7.2-16TOPS INT8算力,兼容INT4/INT8
    發(fā)表于 10-27 17:12 ?0次下載

    小白必讀:到底什么是FP32、FP16、INT8?

    網上關于算力的文章,如果提到某個芯片或某個智算中心的算力,都會寫:在FP32精度下,英偉H100的算力大約為0.9PFlops。在FP16精度
    的頭像 發(fā)表于 10-20 14:34 ?1316次閱讀
    小白必讀:到底什么是FP32、FP16、<b class='flag-5'>INT8</b>?

    英偉下一代Rubin芯片已流片

    為進入市場做準備,Rubin架構將會有6個芯片,這些芯片都已經流片。這一消息在半導體和人工智能領域引起了廣泛關注,預示著英偉芯片技術上的
    的頭像 發(fā)表于 09-12 17:15 ?1702次閱讀

    CCS 報錯:unkown int8_t

    我使用的是嘉立創(chuàng)天猛星(MSPM0G3507),CCS環(huán)境,原本工程里的stdint.h就有藍色波浪線警告,但是不影響debug和燒錄,今天上午也是好好地,下午突然int8_t,int16_t都用
    發(fā)表于 08-01 19:02

    雷卯針對靈眸科技RV1106G3開發(fā)板防雷防靜電方案

    ? 一、應用場景 人臉識別、危險駕駛、工地安全監(jiān)測、智慧餐桌 二、 功能概述 1 CPU 單核ARM Cortex-A7 32位內核,1.2GHz集成了NEON和FPU 2 支持INT4/INT8
    的頭像 發(fā)表于 07-14 10:22 ?484次閱讀
    雷卯針對靈眸科技RV1106G3開發(fā)板防雷防靜電方案

    計算精度對比:FP64、FP32、FP16、TF32、BF16、int8

    、BF16、int8以及混合精度等。本文將淺顯易懂地介紹這些精度計算方式及其差別。什么是精度?精度,是數據表示的一個重要參數,它決定了數據的
    的頭像 發(fā)表于 06-26 11:09 ?2855次閱讀
    計算<b class='flag-5'>精度</b>對比:FP64、FP32、FP16、TF32、BF16、<b class='flag-5'>int8</b>

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進行推理時出現(xiàn)“從 __Int64 轉換為無符號 int 的錯誤”,怎么解決?

    /Meta-Llama-3.1-8B --weight-format int4 --sym --group-size 128 --ratio 1.0 INT4-llama-3.1-8B 使用 NPU 插件
    發(fā)表于 06-25 07:20

    將Whisper大型v3 fp32模型轉換為較低精度后,推理時間增加,怎么解決?

    將 openai/whisper-large-v3 FP32 模型轉換為 FP16、INT8INT4。 推理所花費的時間比在 FP32 上花費的時間要多
    發(fā)表于 06-24 06:23

    迅為iTOP-3588S開發(fā)板核心板引腳240PIN全部引出8GB內存32GBEMMC存儲

    ,8GB內存,32GBEMMC。 四核心架構GPU內置GPU可以完全兼容0penGLES1.1、2.0和3.2。 內置NPU RK3588S內置NPU,支持INT4/INT8/INT1
    發(fā)表于 06-23 11:19

    為什么無法在GPU上使用INT8INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉換為 int 4int8,并在 GPU 上使用 OpenVINO? 運行推理。 沒有可用的
    發(fā)表于 06-23 07:11

    美國限制英偉向華出售H20芯片

    出口H20芯片,以及任何其他性能達到H20內存帶寬、互連帶寬或其組合的芯片,都必須獲得出口許可。 公告披露,美國政府稱,這旨在解決相關產品可能被用于或被轉用于中國超級計算機的風險。4
    的頭像 發(fā)表于 04-16 17:28 ?1050次閱讀

    i.mx95的EIQ轉換器將int8更改為uint8后出現(xiàn)報錯怎么解決?

    我有一個大型量化 tensorflow lite 模型。它包括輸入和輸出類型為 “int8” 的 “Softmax”作。 我正在運行 eIQ 模型工具版本 1.14.0 將模型轉換為 i.MX95
    發(fā)表于 04-14 07:15

    QuarkPi-CA2 RK3588S卡片電腦:6.0Tops NPU+8K視頻編解碼+接口豐富,高性能嵌入式開發(fā)!

    支持INT4/INT8/INT16/FP16,支持TensorFlow、PyTorch等主流框架,支持8K@60fps視頻解碼和8K@30f
    發(fā)表于 04-11 16:03