91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

墨芯S40計算卡實現(xiàn)DeepSeek大模型部署

墨芯人工智能 ? 來源:墨芯人工智能 ? 2025-02-08 10:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近期,“國產(chǎn)之光”DeepSeek系列大模型發(fā)展迅猛,領(lǐng)跑開源大模型技術(shù)與生態(tài),為中國人工智能行業(yè)帶來了前所未有的變革動力,對全球科技競爭格局產(chǎn)生積極影響。

1稀疏計算

助力DeepSeek R1模型高效部署

日前,墨芯人工智能(Moffett AI)已完成與DeepSeek R1全系列蒸餾模型的推理部署。憑借自研的雙稀疏算法技術(shù),墨芯S40計算卡性能得到充分釋放,為DeepSeek R1的高效部署提供了強勁的算力后盾,并在較短時間內(nèi)完成DeepSeek-R1-70B* 和DeepSeek-R1-32B* 等中、大模型部署,且成功實現(xiàn)單卡支持DeepSeek-R1-32B*部署。

墨芯S40計算卡支持DeepSeek R1-70B和DeepSeek R1-32B推理部署

2軟硬件協(xié)同

提升DeepSeek R1模型推理效率

DeepSeek-R1蒸餾模型是DeepSeek在模型壓縮與優(yōu)化領(lǐng)域的重要創(chuàng)新,通過蒸餾技術(shù)實現(xiàn)了高效、低成本的AI推理,適合企業(yè)內(nèi)部實施部署,實現(xiàn)降本增效。

DeepSeek-R1-70B* 和DeepSeek-R1-32B*是DeepSeek-R1蒸餾模型的中大規(guī)模和大規(guī)模模型。DeepSeek-R1-32B*推理速度較快,實時性要求高的場景,擅長處理日常對話、文檔生成和基礎(chǔ)代碼輔助;DeepSeek-R1-70B*側(cè)重復雜邏輯推理、科研分析、高質(zhì)量內(nèi)容創(chuàng)作。

墨芯的稀疏計算技術(shù)則是通過算法與硬件的協(xié)同設(shè)計,有效地減少蒸餾模型部署所需的資源,其中稀疏化技術(shù)將模型中的稠密張量轉(zhuǎn)換為等效的稀疏張量,使張量中產(chǎn)生大量的零元素,通過剪枝,有效消減模型冗余,以顯著加快計算速度,實現(xiàn)了大模型的高效稀疏化,顯著提升DeepSeek-R1系列蒸餾模型的推理速度并降低能耗。

此外,相較于傳統(tǒng)推理平臺,墨芯S40算力卡能夠?qū)崿F(xiàn)“單卡推理大模型”,簡化了多卡分布式處理大模型的復雜部署流程,降低了時間、功耗和成本。這一優(yōu)勢在DeepSeek-R1蒸餾模型的部署中得到了充分體現(xiàn),墨芯的S40計算卡滿足了高算力需求,降低了總擁有成本(TCO),為 AI大模型在各行業(yè)的應(yīng)用提供了支持。

墨芯人工智能與DeepSeek-R1蒸餾模型的成功部署,實現(xiàn)了國產(chǎn)AI算力基座和國產(chǎn)大模型在應(yīng)用層面的“雙向奔赴”,展示了稀疏計算技術(shù)在大模型領(lǐng)域的實踐成果,也為企業(yè)部署“高性能”且“用得起”的大模型提供新思路。

備注:

DeepSeek-R1-70B*:指DeepSeek-R1-Distill-Llama-70B模型

DeepSeek-R1-32B*:指DeepSeek-R1-Distill-Qwen-32B模型

關(guān)于墨芯人工智能

墨芯人工智能是稀疏計算引領(lǐng)者,致力于提供云端和終端AI計算平臺和服務(wù)。通過全球領(lǐng)先的稀疏計算技術(shù)優(yōu)勢,打造軟硬協(xié)同的新一代智能計算平臺。產(chǎn)品性能位居行業(yè)領(lǐng)先,相較行業(yè)主流產(chǎn)品,在算力、能效比與成本等方面均實現(xiàn)數(shù)量級優(yōu)化。面向互聯(lián)網(wǎng)、運營商、金融、制造、醫(yī)療、交通、能源、生命科學、自動駕駛等眾多行業(yè)與場景,提供高算力、低功耗、高性價比的AI算力服務(wù),賦能前沿科技的進步與社會的智能化升級。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 墨芯
    +關(guān)注

    關(guān)注

    0

    文章

    22

    瀏覽量

    1287
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3660

    瀏覽量

    5196
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    836

    瀏覽量

    3283

原文標題:墨芯S40計算卡完成DeepSeek大模型部署, 支持單卡推理大模型

文章出處:【微信號:墨芯人工智能,微信公眾號:墨芯人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何在ZYNQ本地部署DeepSeek模型

    一個將最小號 DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 處理系統(tǒng)的項目。
    的頭像 發(fā)表于 12-19 15:43 ?7589次閱讀
    如何在ZYNQ本地<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b><b class='flag-5'>模型</b>

    DeepSeek模型如何在云服務(wù)器上部署?

    隨著大型語言模型(LLM)的應(yīng)用日益普及,許多開發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的云服務(wù)器上,以實現(xiàn)私有化、定制化
    的頭像 發(fā)表于 10-13 16:52 ?957次閱讀

    人工智能亮相2025外灘大會

    9月10日至13日,人工智能在2025外灘大會盛大亮相,成為"數(shù)據(jù)與計算展區(qū)"備受矚目的焦點之一。作為深耕稀疏計算的AI芯片企業(yè),
    的頭像 發(fā)表于 09-11 14:04 ?814次閱讀

    本地部署openWebUI + ollama+DeepSeek 打造智能知識庫并實現(xiàn)遠程訪問

    DeepSeek是一款由國內(nèi)人工智能公司研發(fā)的大型語言模型,實現(xiàn)了媲美OpenAI-o1模型的效果,擁有強大的自然語言處理能力,還大幅降低了推理模型
    的頭像 發(fā)表于 09-10 16:41 ?5398次閱讀
    本地<b class='flag-5'>部署</b>openWebUI + ollama+<b class='flag-5'>DeepSeek</b> 打造智能知識庫并<b class='flag-5'>實現(xiàn)</b>遠程訪問

    【VisionFive 2單板計算機試用體驗】3、開源大語言模型部署

    1、ollama平臺搭建 ollama可以快速地部署開源大模型,網(wǎng)址為https://ollama.com, 試用該平臺,可以在多平臺上部署 Deepseek-R1, Qwen3, L
    發(fā)表于 07-19 15:45

    Arm Neoverse N2平臺實現(xiàn)DeepSeek-R1滿血版部署

    今年年初,開源大語言模型 (LLM) DeepSeek 在國內(nèi)外人工智能 (AI) LLM 領(lǐng)域掀起熱議。它在模型架構(gòu)和訓練、推理方法上實現(xiàn)創(chuàng)新,在性能和工程效率上帶來了顯著提升,并在
    的頭像 發(fā)表于 07-03 14:37 ?1258次閱讀
    Arm Neoverse N2平臺<b class='flag-5'>實現(xiàn)</b><b class='flag-5'>DeepSeek</b>-R1滿血版<b class='flag-5'>部署</b>

    ElfBoard技術(shù)實戰(zhàn)|ELF 2開發(fā)板本地部署DeepSeek模型的完整指南

    ELF 2開發(fā)板本地部署DeepSeek模型的完整指南
    的頭像 發(fā)表于 05-16 11:13 ?2577次閱讀
    ElfBoard技術(shù)實戰(zhàn)|ELF 2開發(fā)板本地<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>大<b class='flag-5'>模型</b>的完整指南

    Deepseek海思SD3403邊緣計算AI產(chǎn)品系統(tǒng)

    的訓練樣本和訓練 模型,具體商業(yè)價值和保密性,采用海思SD3403邊緣計算AI服務(wù)器+多路安防監(jiān)控IPC,讓差異化AI視頻系統(tǒng), 成本控制極具市場競爭力。 海思SD3403邊緣計算AI部署
    發(fā)表于 04-28 11:05

    【幸狐Omni3576邊緣計算套件試用體驗】CPU部署DeekSeek-R1模型(1B和7B)

    優(yōu)化:動態(tài)分配計算資源至關(guān)鍵token 中文優(yōu)化:在Wudao Corpus等中文數(shù)據(jù)集上強化訓練 技術(shù)突破: 相比傳統(tǒng)LLM,DeepSeek-R1通過以下創(chuàng)新實現(xiàn)低資源部署: Mo
    發(fā)表于 04-21 00:39

    ORinNano離線部署Deepseek R1大模型教程

    ORinNano離線部署Deepseek R1大模型教程
    的頭像 發(fā)表于 04-10 15:32 ?1369次閱讀
    ORinNano離線<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> R1大<b class='flag-5'>模型</b>教程

    DeepSeek在昇騰上的模型部署的常見問題及解決方案

    2024年12月26日,DeepSeek-V3橫空出世,以其卓越性能備受矚目。該模型發(fā)布即支持昇騰,用戶可在昇騰硬件和MindIE推理引擎上實現(xiàn)高效推理,但在實際操作中,部署流程與常見
    的頭像 發(fā)表于 03-25 16:53 ?2431次閱讀
    <b class='flag-5'>DeepSeek</b>在昇騰上的<b class='flag-5'>模型</b><b class='flag-5'>部署</b>的常見問題及解決方案

    【幸狐Omni3576邊緣計算套件試用體驗】DeepSeek 部署及測試

    【幸狐 Omni3576 邊緣計算套件測評】DeepSeek 部署及測試 本文介紹了幸狐 Omni3576 邊緣計算套件實現(xiàn)
    發(fā)表于 03-21 19:31

    博實結(jié)完成DeepSeek模型本地化部署

    近日,公司完成DeepSeek R1 671B大模型本地化部署。通過構(gòu)建自主可控的AI基礎(chǔ)設(shè)施,公司同步實現(xiàn)研發(fā)智能升級、研發(fā)成本重構(gòu)、數(shù)據(jù)安全閉環(huán)與應(yīng)用場景突破,為產(chǎn)業(yè)智能化賦能。
    的頭像 發(fā)表于 03-19 16:31 ?1345次閱讀

    RT-Thread虛擬化部署DeepSeek模型實踐

    Cortex-A55,8GBLPDDR4),通過虛擬化技術(shù)實現(xiàn)虛擬化Linux+RTOS混合部署,并在Linux環(huán)境中部署輕量化大語言模型DeepS
    的頭像 發(fā)表于 03-12 18:38 ?1303次閱讀
    RT-Thread虛擬化<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>大<b class='flag-5'>模型</b>實踐

    在英特爾哪吒開發(fā)套件上部署DeepSeek-R1的實現(xiàn)方式

    隨著人工智能技術(shù)的快速發(fā)展,企業(yè)對 AI 模型部署方式有了更多選擇。本地部署 DeepSeek-R1 模型具有以下顯著優(yōu)勢,使其成為許多企
    的頭像 發(fā)表于 03-12 13:38 ?1148次閱讀
    在英特爾哪吒開發(fā)套件上<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>-R1的<b class='flag-5'>實現(xiàn)</b>方式