91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從零復(fù)現(xiàn),全面開源:360 Light-R1-14B/7B帶來端側(cè)AI平權(quán)時刻

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2025-03-16 10:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgZO2fWO8WAYC_UAAogto1jFHY680.jpg

性能領(lǐng)先、開源普惠、國產(chǎn)易獲取的三重勢能,造就了年初DeepSeek的技術(shù)平權(quán)狂熱,掀起AI普惠浪潮。

然而,當很多人想在端側(cè)部署DeepSeek模型時,卻遭遇了挑戰(zhàn):部署滿血版大模型需數(shù)萬元硬件投入,退而求其次選擇蒸餾版14B版本,又會出現(xiàn)性能斷崖式下跌與響應(yīng)延遲。

就在AI用戶陷入“高成本部署”與“低質(zhì)量妥協(xié)”的兩難困境時,端側(cè)AI的破局時刻,悄悄被360打開了。

近期,360智腦團隊發(fā)布了最強14B推理模型Light-R1-14B-DS,是業(yè)界首次在14B模型上復(fù)現(xiàn)強化學習效果。數(shù)學能力上,表現(xiàn)超過
DeepSeek-R1-Distill-Llama-70B和DeepSeek-R1-Distill-Qwen-32B。

wKgZPGfWO8WAVNmyAAEHGSxz9PY855.jpg

盡管只訓練了MATH數(shù)據(jù),但在GPQA科學常識評測中,7B/14B雙版本均超越對標產(chǎn)品,展現(xiàn)出“小參數(shù)大智慧”的泛化能力。

此外,配合360的全面開源策略(模型/數(shù)據(jù)/代碼/技術(shù)報告全開放),這場端側(cè)AI平權(quán)運動,意味著14B模型能在手機端流暢運行,意味著企業(yè)無需天價算力即可部署專業(yè)級AI。

AI端側(cè)民主化的風暴眼,正在醞釀之中。

wKgZO2fWO8aAP4ByAAJ7Asry2bk783.jpg

我們第一時間研讀了360放出的技術(shù)報告,發(fā)現(xiàn)端側(cè)AI的技術(shù)拐點已經(jīng)出現(xiàn)。360開源的Light-R1-14B-DS創(chuàng)造了三項行業(yè)紀錄:

一是能力復(fù)現(xiàn)。Light-R1-14B-DS首次在數(shù)學能力上,用14B 模型復(fù)現(xiàn)了強化學習效果,通過多階段課程學習SFT強化學習,Light-R1-14B-DS的表現(xiàn)超過
DeepSeek-R1-Distill-Llama-70B和DeepSeek-R1-Distill-Qwen-32B,是目前最優(yōu)的14B模型,這驗證了RL強化學習策略的有效性,RL對端側(cè)模型訓練的收益很大,仍有進一步挖掘潛力。

wKgZPGfWO8aALQOoAALWEtEOMxo029.jpg

(Light-R1 訓練流程)

二是效率革命。Light-R1-14B-DS 經(jīng)過長思維鏈強化學習后訓練,在AIME 24和25上分別取得了74.0和60.2的成績,數(shù)學部分表現(xiàn)超越DeepSeek的70B(72.6分)和32B(54.9分)蒸餾模型,取得了非常顯著的提升,這標志著推理能耗進一步降低。另一版本的Light-R1-7B-DS,無需量化即可端側(cè)部署。此次探索,在低成本復(fù)現(xiàn) DeepSeek-R1方面邁出了重要一步。

三是泛化能力增強。Light-R1-14B-DS在科學常識評測GPQA上漲,打破了模型“災(zāi)難性遺忘”的魔咒,具有較好的泛化性,開辟模型優(yōu)化新路徑。

wKgZO2fWO8eAZ7PBAABk1prKIxE725.jpg

最強14B端側(cè)推理模型,撕開了DeepSeek 70B的性能封鎖線,端側(cè)AI迎來了規(guī)?;占暗墓拯c。不過,在AI與大眾之間,還差一個開源。

wKgZPGfWO8eAc6bNAAI7XfjjE4w513.jpg

如果僅有技術(shù)突破,但沒有開源機制,那么端側(cè)推理模型再好,也無法被大眾輕松獲得、低成本用起來。

此次,360采取了全棧式的開源策略——模型權(quán)重、22萬條數(shù)學數(shù)據(jù)集、RL訓練代碼、技術(shù)報告等,都悉數(shù)公開。這種開源深度,遠遠超過了常規(guī)模型權(quán)重開放。

也就是說,中小團隊僅需極少算力,就能從數(shù)據(jù)清洗到強化學習全鏈路復(fù)現(xiàn),完成端側(cè)AI的后訓練與部署。

端側(cè)AI的民主化,高度依賴于科技企業(yè)的開源策略,為什么說360此次開放端側(cè)推理模型很重要?

對企業(yè)來說,傳統(tǒng)端側(cè)AI部署,會面臨閉源模型高昂的授權(quán)費用(如OpenAI API調(diào)用成本)與硬件適配的邊際成本(需定制化芯片或服務(wù)器),成本難以承受。此前openai也發(fā)布過蒸餾版o1-mini,但高昂的訂閱費依然讓大量開發(fā)者望而卻步。此外,閉源模型存在不可解釋性風險,醫(yī)療、法律等行業(yè)因合規(guī)要求無法接受“輸入-輸出”不透明的AI決策。因此,Light-R1-14B-DS這樣低成本、全開源的國產(chǎn)端側(cè)推理模型,有望打消企業(yè)對AI的顧慮,輕松邁入智能化。

對個人來講,云端模型需要上傳數(shù)據(jù),這會引發(fā)隱私泄露的顧慮。而在端側(cè)離線運行大模型,又對算力/內(nèi)存有更高的要求,傳統(tǒng)端側(cè)AI需要旗艦級設(shè)備,買不起旗艦機,就用不到好AI,這形成了一種AI時代的“設(shè)備歧視”。

360開源最強14B端側(cè)模型,讓端側(cè)AI能力不再是少數(shù)機型的特權(quán),也可以下沉到普惠機型上,為大眾所用。而用戶規(guī)模的擴大,也會推動AI應(yīng)用及大模型產(chǎn)品的增長。

由此看到,360開源策略所帶來的技術(shù)民主化,可以激活A(yù)I的長尾需求,加速AI普惠的到來。

wKgZO2fWO8mALUrHAAKWDw3aeEE283.jpg

終端設(shè)備,是用好AI的載體。推理模型下沉到端側(cè),應(yīng)用空間也十分廣闊,打開了端側(cè)AI的無限想象空間。

預(yù)測一下,目前這兩個最強端側(cè)14B/7B推理模型,可能會首先落地在商業(yè)價值高的場景,然后一步步滲透進各行業(yè)。

首當其沖的,就是消費電子領(lǐng)域。智能手機、手表、平板、PC、眼鏡等終端設(shè)備,近兩年都在加速AI化。

但此前AI化有兩種方案:一是純端側(cè),保證本地隱私安全,但內(nèi)存要求高,功耗大;另一種是端云結(jié)合,部分任務(wù)上云處理。Light-R1-7B-DS無需量化即可部署于終端設(shè)備(如手機、IoT設(shè)備),標志著消費級硬件也能運行復(fù)雜AI任務(wù)。對比傳統(tǒng)需要32B以上參數(shù)的端側(cè)模型,其7B規(guī)模大幅降低內(nèi)存占用和能耗。為AI終端帶來了更大的創(chuàng)新空間,比如在手機本地運行復(fù)雜數(shù)學輔導(dǎo)、法律文書解析等任務(wù),解決隱私和延遲痛點。

360的技術(shù)突破與全棧開源,可以為消費電子領(lǐng)域的AI探索帶來非常有益的借鑒。

下一個就是重點行業(yè)、垂直領(lǐng)域。金融、政務(wù)、醫(yī)療、法律等數(shù)字化基礎(chǔ)較好的行業(yè),積極擁抱AI,又希望在本地化運行專業(yè)級AI,避免敏感數(shù)據(jù)上傳云端,這就需要專有模型+后訓練,最強端側(cè)14B/7B推理模型可以大幅降低端側(cè)專有模型的訓練、推理等硬件門檻,加速行業(yè)智能化探索。

更進一步,傳統(tǒng)行業(yè)壁壘也將被端側(cè)普惠AI撕開。比如智慧城市治理,通過部署端側(cè)AI的邊緣智能計算,可以極大減少智能化的建設(shè)和升級運維成本;農(nóng)業(yè)智能化,搭載14B模型的農(nóng)業(yè)無人機,路線自動避障、精準識別地面等能力,都會隨著推理能力的增強而大幅提升。

通過端側(cè)AI的普惠路線圖,來進行推演,不難看到,360的技術(shù)突破與開源策略,一定會吸引大量行業(yè)開發(fā)者或個人開發(fā)者前來試用,與豐富的場景相結(jié)合,催生大量智能化的長尾應(yīng)用。

也就是說,通過開源輕量級推理模型,360有望規(guī)避AI六小強在千億參數(shù)級的競爭。基于開源開放的技術(shù)公信力,構(gòu)建開發(fā)者生態(tài)護城河。從這個角度看,360掀起的端側(cè)AI颶風,也將卷出一個大模型競爭的新格局。

端側(cè)推理模型的平權(quán)時刻已到,萬億級邊緣智能市場正蓄勢待發(fā)、乘風遠航。

wKgZPGfWO8qAFVSvAAHtprMJuTM793.jpg

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39866

    瀏覽量

    301511
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4209

    瀏覽量

    46179
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    太強了!AI PC搭載70B大模型,算力狂飆,內(nèi)存開掛

    DeepSeek-R1不同模型。相對來說,DeepSeek-R1 70B大模型或許是日常AI功能的頂格需求,它也是當前高性能AI PC的著力
    的頭像 發(fā)表于 03-24 08:52 ?3667次閱讀
    太強了!<b class='flag-5'>AI</b> PC搭載70<b class='flag-5'>B</b>大模型,算力狂飆,內(nèi)存開掛

    側(cè)大模型上車:“語音助手”到“車內(nèi) AI 智能體”的躍遷革命

    生活空間”的可能性。當7B級大模型在車規(guī)級芯片上流暢運行,當多模態(tài)交互(語音+視覺+傳感)成為標配,車載助手已從“被動響應(yīng)”升級為“主動決策”,成為車內(nèi)真正的“數(shù)字大腦”。這場由側(cè)大模型驅(qū)動的變革,正推動主機廠將“支持
    的頭像 發(fā)表于 01-13 09:10 ?486次閱讀

    云端到邊緣:聯(lián)發(fā)科MT8371/MT8391平臺實現(xiàn)7B大模型本地部署

    的第八代NPU提供高達7/9 TOPS算力,配備16GB大容量LPDDR5高速內(nèi)存,支持Transformer/CNN硬件加速,支持本地部署7B大語言模型,顯著提升生成式AI任務(wù)(如圖像合成、文本
    發(fā)表于 12-15 16:32

    基于合眾恒躍rk3576?開發(fā)板deepseek-r1-1.5b/7b 部署指南

    ? 核心結(jié)論:部署流程分為?5?大核心步驟,依次為基礎(chǔ)環(huán)境安裝、模型下載、模型格式轉(zhuǎn)換、部署程序編譯、開發(fā)板運行測試,1.5b?模型適配?4+32G?開發(fā)板,7b?模型需?8+64G?版,內(nèi)存不足
    的頭像 發(fā)表于 12-09 07:08 ?488次閱讀
    基于合眾恒躍rk3576?開發(fā)板deepseek-<b class='flag-5'>r1-1.5b</b>/<b class='flag-5'>7b</b> 部署指南

    此芯科技發(fā)布“合一”AI加速計劃,賦能邊緣與側(cè)AI創(chuàng)新

    產(chǎn)品組合,覆蓋1.5B至32B參數(shù)規(guī)模的側(cè)AI模型推理需求,滿足工業(yè)、消費電子、智能終端等多
    的頭像 發(fā)表于 09-15 11:53 ?2011次閱讀
    此芯科技發(fā)布“合一”<b class='flag-5'>AI</b>加速計劃,賦能邊緣與<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b><b class='flag-5'>AI</b>創(chuàng)新

    Arm率先適配騰訊混元開源模型,助力側(cè)AI創(chuàng)新開發(fā)

    本周初,騰訊混元宣布開源四款小尺寸模型(參數(shù)分別為 0.5B、1.8B、4B、7B),可無縫運行于消費級顯卡上。作為全球應(yīng)用范圍最為廣泛的計
    的頭像 發(fā)表于 08-08 09:16 ?1400次閱讀
    Arm率先適配騰訊混元<b class='flag-5'>開源</b>模型,助力<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b><b class='flag-5'>AI</b>創(chuàng)新開發(fā)

    華為宣布開源盤古7B稠密和72B混合專家模型

    關(guān)鍵一步,為全球開發(fā)者、企業(yè)及研究人員提供了強大的技術(shù)支撐。 ? 華為此次開源行動涵蓋三大核心板塊:盤古Pro MoE 72B模型權(quán)重與基礎(chǔ)推理代碼已率先上線開源平臺;基于昇騰的超大規(guī)模MoE模型推理代碼同步開放;盤古
    的頭像 發(fā)表于 07-06 05:51 ?7422次閱讀

    華為正式開源盤古7B稠密和72B混合專家模型

    關(guān)鍵舉措,推動大模型技術(shù)的研究與創(chuàng)新發(fā)展,加速推進人工智能在千行百業(yè)的應(yīng)用與價值創(chuàng)造。 盤古Pro MoE 72B模型權(quán)重、基礎(chǔ)推理代碼,已正式上線開源平臺。 基于昇騰的超大規(guī)模MoE模型推理代碼,已正式上線開源平臺。 盤古
    的頭像 發(fā)表于 06-30 11:19 ?1342次閱讀

    帶增益的 RX 分集 FEM(B26、B8、B20、B1/4、B3 和 B7) skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()帶增益的 RX 分集 FEM(B26、B8、B20、B1/4、B3 和 B7
    發(fā)表于 06-27 18:31
    帶增益的 RX 分集 FEM(<b class='flag-5'>B</b>26、<b class='flag-5'>B</b>8、<b class='flag-5'>B</b>20、<b class='flag-5'>B1</b>/4、<b class='flag-5'>B</b>3 和 <b class='flag-5'>B7</b>) skyworksinc

    帶增益的 RX 分集 FEM(B3、B39、B1、B40、B41 和 B7) skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()帶增益的 RX 分集 FEM(B3、B39、B1、B40、B41 和 B7
    發(fā)表于 06-19 18:30
    帶增益的 RX 分集 FEM(<b class='flag-5'>B</b>3、<b class='flag-5'>B</b>39、<b class='flag-5'>B1</b>、<b class='flag-5'>B</b>40、<b class='flag-5'>B</b>41 和 <b class='flag-5'>B7</b>) skyworksinc

    在阿里云PAI上快速部署NVIDIA Cosmos Reason-1模型

    NVIDIA 近期發(fā)布了 Cosmos Reason-17B 和 56B 兩款多模態(tài)大語言模型 (MLLM),它們經(jīng)過了“物理 AI 監(jiān)督微調(diào)”和“物理
    的頭像 發(fā)表于 06-04 13:43 ?986次閱讀

    【幸狐Omni3576邊緣計算套件試用體驗】CPU部署DeekSeek-R1模型(1B7B

    :7b 和前面類似的,可以通過 ollama 命令拉取 deepseek-r1:7b 模型,命令為: ollama pull deepseek-r1:
    發(fā)表于 04-21 00:39

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓側(cè)AI模型接入得心應(yīng)手

    。 側(cè)AI應(yīng)用開發(fā)往往需要調(diào)用各種各樣的大模型能力,需要更豐富、類型更多的模型適配。為此,Gen-AI Model Hub全面擴容,模型
    發(fā)表于 04-13 19:52

    具有載波聚合的 RX 分集 FEM(B26、B8、B20、B1/4、B3 和 B7) skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()具有載波聚合的 RX 分集 FEM(B26、B8、B20、B1/4、B3 和 B
    發(fā)表于 04-11 15:26
    具有載波聚合的 RX 分集 FEM(<b class='flag-5'>B</b>26、<b class='flag-5'>B</b>8、<b class='flag-5'>B</b>20、<b class='flag-5'>B1</b>/4、<b class='flag-5'>B</b>3 和 <b class='flag-5'>B7</b>) skyworksinc

    如何基于Android 14在i.MX95 EVK上運行Deepseek-R1-1.5B和性能

    本文檔總結(jié)了如何基于 Android 14 在 i.MX95 EVK 上運行 Deepseek-R1-1.5B 和性能。 1. Install Android 14 on i.MX95
    發(fā)表于 04-04 06:59