91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

摩爾線程發(fā)布Torch-MUSA v2.0.0版本 支持原生FP8和PyTorch 2.5.0

摩爾線程 ? 來源:摩爾線程 ? 2025-05-11 16:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,摩爾線程正式發(fā)布Torch-MUSA v2.0.0版本,這是其面向PyTorch深度學(xué)習(xí)框架的MUSA擴(kuò)展庫的重要升級。新版本基于MUSA Compute Capability 3.1計(jì)算架構(gòu),支持原生FP8數(shù)據(jù)類型,支持PyTorch 2.5.0,并通過多項(xiàng)針對MUSA計(jì)算平臺的性能優(yōu)化,進(jìn)一步提升了對AI模型和大規(guī)模數(shù)據(jù)處理的支持能力。

FP8原生支持,國產(chǎn)GPU的技術(shù)突破

作為本次升級的核心亮點(diǎn),Torch-MUSA v2.0.0率先在國產(chǎn)GPU上實(shí)現(xiàn)了對FP8數(shù)據(jù)類型的完整支持。FP8是當(dāng)前AI計(jì)算的一種前沿低精度格式,在支持原生FP8的GPU上,大語言模型(LLM)訓(xùn)練采用FP8混合精度可大幅提高GPU算力,顯著降低顯存占用。摩爾線程基于新一代 MUSA Compute Capability 3.1 計(jì)算架構(gòu)的全功能 GPU 原生支持 FP8 計(jì)算,這為 Torch-MUSA v2.0.0 實(shí)現(xiàn) FP8 矩陣乘法和分布式通信優(yōu)化提供了堅(jiān)實(shí)的基礎(chǔ)。依托這一底層架構(gòu)優(yōu)勢,Torch-MUSA v2.0.0 能夠充分發(fā)揮 FP8 的計(jì)算效能,顯著提升大語言模型訓(xùn)練和推理的效率。

三大關(guān)鍵優(yōu)化,提升AI計(jì)算效率

Torch-MUSA v2.0.0在MUSA計(jì)算平臺引入多項(xiàng)創(chuàng)新功能,進(jìn)一步提升深度學(xué)習(xí)任務(wù)的執(zhí)行效率:

新增虛擬內(nèi)存管理支持:

MUSA虛擬內(nèi)存管理技術(shù)能夠有效緩解GPU內(nèi)存碎片化問題,降低模型訓(xùn)練過程中的峰值內(nèi)存占用,特別適用于FSDP、DeepSpeed和Megatron-LM等主流大模型訓(xùn)練框架。

新增MUSA Graph支持:

MUSA Graph技術(shù)將多個MUSA內(nèi)核整合到一個圖中,通過單次CPU調(diào)度大幅減少啟動開銷,提升計(jì)算效率,同時與CUDA Graph接口高效兼容。

torch.compile增加Triton后端支持:

為torch.compile提供了Triton-MUSA后端支持,開發(fā)者可以直接使用PyTorch原生接口,獲得更高效的性能表現(xiàn)。

支持PyTorch 2.5.0,生態(tài)兼容性更強(qiáng)

Torch-MUSA v2.0.0在完整支持PyTorch 2.2.0的基礎(chǔ)上,新增了對PyTorch 2.5.0的支持,使開發(fā)者能夠在基于MUSA Compute Capability 3.1計(jì)算架構(gòu)的全功能GPU上,無縫運(yùn)行新版本的PyTorch,享受更高效的AI計(jì)算體驗(yàn)。

Torch-MUSA已完全開源,開發(fā)者可通過訪問GitHub獲取源代碼。摩爾線程鼓勵開發(fā)者積極參與該項(xiàng)目的開發(fā)與改進(jìn),通過提交問題報告(issue)或代碼修改申請(pull request)等方式,共同推動Torch-MUSA以及MUSA軟件生態(tài)的持續(xù)進(jìn)步與創(chuàng)新。

Torch-MUSA開源地址:

https://github.com/MooreThreads/torch_musa

功能特性:

在Torch-MUSA中,用戶只需指定torch.device("musa"),即可輕松將現(xiàn)有的PyTorch模型遷移到MUSA架構(gòu)的GPU上運(yùn)行,無需大幅修改代碼。Torch-MUSA完全兼容PyTorch的自動微分和動態(tài)圖機(jī)制,支持多種常用的神經(jīng)網(wǎng)絡(luò)模塊及優(yōu)化算法,并加速了關(guān)鍵深度學(xué)習(xí)算子的計(jì)算。此外,Torch-MUSA還支持多種PyTorch特性,包括DDP、JIT、FSDP、Profiler、Extension等。

版本迭代:

MUSA Graph技術(shù)將多個MUSA內(nèi)核整合到一個圖中,通過單次CPU調(diào)度大幅減少啟動開銷,提升計(jì)算效率,同時與CUDA Graph接口高效兼容。

v1.1.0:初次發(fā)布,支持PyTorch 2.0,提供基礎(chǔ)張量操作和常見神經(jīng)網(wǎng)絡(luò)層的MUSA加速。

v1.2.0:進(jìn)一步擴(kuò)展算子支持,支持了完整功能的Profiler、MUSA Extension,并增加了Torch-MUSA專有特性如compare_tool、musa_converter,幫助用戶更快的定位模型精度問題。

v1.3.0:支持PyTorch 2.2.0,性能進(jìn)一步提升,支持FSDP,支持更復(fù)雜的模型和更大規(guī)模的數(shù)據(jù)處理。

v2.0.0:在MUSA Compute Capability 3.1計(jì)算架構(gòu)上,原生支持FP8數(shù)據(jù)類型,支持PyTorch 2.5.0,新增MUSA虛擬內(nèi)存管理技術(shù)優(yōu)化大模型訓(xùn)練內(nèi)存效率,通過集成Triton-MUSA后端顯著提升torch.compile編譯效率,支持MUSA Graph技術(shù)。

未來計(jì)劃:

Torch-MUSA將繼續(xù)跟進(jìn)PyTorch的版本更新,計(jì)劃支持更高版本的PyTorch。摩爾線程期待與廣大開發(fā)者和研究人員共同完善Torch-MUSA的功能,持續(xù)優(yōu)化性能,為基于MUSA架構(gòu)的國產(chǎn)全功能GPU構(gòu)建更強(qiáng)大的深度學(xué)習(xí)生態(tài)。

關(guān)于摩爾線程

摩爾線程成立于2020年10月,以全功能GPU為核心,致力于向全球提供加速計(jì)算的基礎(chǔ)設(shè)施和一站式解決方案,為各行各業(yè)的數(shù)智化轉(zhuǎn)型提供強(qiáng)大的AI計(jì)算支持。

我們的目標(biāo)是成為具備國際競爭力的GPU領(lǐng)軍企業(yè),為融合人工智能和數(shù)字孿生的數(shù)智世界打造先進(jìn)的加速計(jì)算平臺。我們的愿景是為美好世界加速。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    813

    瀏覽量

    14856
  • 摩爾線程
    +關(guān)注

    關(guān)注

    2

    文章

    279

    瀏覽量

    6466

原文標(biāo)題:支持原生FP8和PyTorch 2.5.0,摩爾線程發(fā)布Torch-MUSA v2.0.0

文章出處:【微信號:moorethreads,微信公眾號:摩爾線程】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    PyTorch 中RuntimeError分析

    \')# 執(zhí)行上采樣 x = x.to(torch.bfloat16)# 轉(zhuǎn)換回 BFloat16 方案2:升級 PyTorch 版本 該問題在 PyTorch 2.1.0 及更高
    發(fā)表于 03-06 06:02

    摩爾線程MTT S5000全面適配Qwen3.5三款新模型

    第一時間做出極速響應(yīng),宣布已在旗艦級AI訓(xùn)推一體全功能GPU MTT S5000上,完成對這三款全新模型的全方位適配。 ? 此次高效支持充分展示了摩爾線程MUSA生態(tài)的成熟度與完備性。
    的頭像 發(fā)表于 02-26 16:23 ?396次閱讀

    摩爾線程快速完成對Qwen3.5模型全面適配

    MUSA C編程語言及Triton-MUSA工具鏈高效完成模型部署與優(yōu)化。 在Qwen3.5的適配過程中,摩爾線程驗(yàn)證了MUSA生態(tài)的兩大核
    發(fā)表于 02-18 08:32 ?176次閱讀

    摩爾線程MTT S5000率先完成對GLM-5的適配

    的算子覆蓋與強(qiáng)大的生態(tài)兼容能力,摩爾線程成功打通了模型推理全鏈路,并深度釋放MTT S5000的原生FP8加速能力,在確保模型精度的同時顯著降低了顯存占用,實(shí)現(xiàn)了GLM-5的高性能推理
    的頭像 發(fā)表于 02-12 10:34 ?689次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>MTT S5000率先完成對GLM-5的適配

    Day-0支持摩爾線程MTT S5000率先完成對GLM-5的適配

    的算子覆蓋與強(qiáng)大的生態(tài)兼容能力,摩爾線程成功打通了模型推理全鏈路,并深度釋放MTT S5000的原生FP8加速能力,在確保模型精度的同時顯著降低了顯存占用,實(shí)現(xiàn)了GLM-5的高性能推理
    發(fā)表于 02-12 09:15 ?517次閱讀
    Day-0<b class='flag-5'>支持</b>|<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>MTT S5000率先完成對GLM-5的適配

    摩爾線程正式開源TileLang-MUSA項(xiàng)目

    近日,摩爾線程正式開源TileLang-MUSA項(xiàng)目,實(shí)現(xiàn)對TileLang編程語言的完整支持。該項(xiàng)目已成功在摩爾
    的頭像 發(fā)表于 02-11 16:57 ?1280次閱讀

    摩爾線程發(fā)布Torch-MUSA v2.7.0版本

    近日,摩爾線程正式發(fā)布PyTorch深度學(xué)習(xí)框架的MUSA擴(kuò)展庫——Torch-MUSA
    的頭像 發(fā)表于 12-04 09:05 ?1136次閱讀

    全新升級 | 匠芯創(chuàng)AiUIBuilder V2.0.0發(fā)布

    。本次更新在界面設(shè)計(jì)、功能集成和開發(fā)體驗(yàn)上實(shí)現(xiàn)了全面突破,為嵌入式UI開發(fā)帶來新一輪效率革命。界面全新升級操作體驗(yàn)優(yōu)化V2.0.0版本對操作界面進(jìn)行了全新設(shè)計(jì),布局更
    的頭像 發(fā)表于 10-29 10:03 ?906次閱讀
    全新升級 | 匠芯創(chuàng)AiUIBuilder <b class='flag-5'>V2.0.0</b><b class='flag-5'>發(fā)布</b>

    摩爾線程發(fā)布Torch-MUSA v2.1.1版本

    近日,摩爾線程發(fā)布其面向PyTorch深度學(xué)習(xí)框架的MUSA擴(kuò)展庫——Torch-MUSA
    的頭像 發(fā)表于 09-10 11:02 ?1045次閱讀

    摩爾線程發(fā)布圖形顯卡驅(qū)動程序v310.120

    8月20日,摩爾線程發(fā)布版本號為v310.120的圖形顯卡驅(qū)動程序。本次更新帶來多項(xiàng)重大技術(shù)升級
    的頭像 發(fā)表于 08-21 16:07 ?1401次閱讀

    摩爾線程Linux驅(qū)動v3.0.0發(fā)布

    近日,摩爾線程正式推出Linux驅(qū)動程序v3.0.0,全面支持圖形顯卡MTT S80和高性能專業(yè)顯卡MTT X300。作為v2.7.0RC4
    的頭像 發(fā)表于 05-08 11:38 ?1394次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>Linux驅(qū)動<b class='flag-5'>v</b>3.0.0<b class='flag-5'>發(fā)布</b>

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發(fā)布Qwen3系列的8款開源混合推理模型。摩爾線程團(tuán)隊(duì)在模型發(fā)布當(dāng)天,率先完成了Qwen3全系列模型在全功能GPU上的高效
    的頭像 發(fā)表于 05-07 15:24 ?1032次閱讀

    摩爾線程GPU成功適配Deepseek-V3-0324大模型

    近日,DeepSeek正式發(fā)布了其大語言模型的全新小版本迭代——DeepSeek-V3-0324,這一版本在推理能力、代碼生成、中文寫作以及搜索能力等多個維度實(shí)現(xiàn)了顯著提升。憑借其先進(jìn)
    的頭像 發(fā)表于 03-31 11:34 ?1287次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>GPU成功適配Deepseek-<b class='flag-5'>V</b>3-0324大模型

    摩爾線程發(fā)布圖形顯卡驅(qū)動v290.100.1

    3月20日,摩爾線程發(fā)布版本號為v290.100.1的圖形顯卡驅(qū)動程序。在DirectX 12模式下,新驅(qū)動對《戰(zhàn)地風(fēng)云5》《幽靈行者2》進(jìn)
    的頭像 發(fā)表于 03-21 14:26 ?913次閱讀

    摩爾線程GPU原生FP8計(jì)算助力AI訓(xùn)練

    并行訓(xùn)練和推理,顯著提升了訓(xùn)練效率與穩(wěn)定性。摩爾線程是國內(nèi)率先原生支持FP8計(jì)算精度的國產(chǎn)GPU企業(yè),此次開源不僅為AI訓(xùn)練和推理提供了全新
    的頭像 發(fā)表于 03-17 17:05 ?1531次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>GPU<b class='flag-5'>原生</b><b class='flag-5'>FP8</b>計(jì)算助力AI訓(xùn)練