91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌開(kāi)源70億參數(shù)大語(yǔ)言模型,全方位超越Meta Llama-2?

E4Life ? 來(lái)源:電子發(fā)燒友 ? 作者:周凱揚(yáng) ? 2024-02-23 00:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))在Sora把AI生成領(lǐng)域的視線全部吸引過(guò)去的這段時(shí)間里,谷歌卻依然在竭盡全力推進(jìn)新的生成模型發(fā)展。除了上周發(fā)布的下一代Gemini 1.5外,谷歌也在近日推出了一系列基于Gemini打造的開(kāi)源模型Gemma。

谷歌加入AI模型開(kāi)源陣營(yíng),Gemma橫空出世

根據(jù)谷歌的介紹,Gemma是由谷歌DeepMind以及其他團(tuán)隊(duì)開(kāi)發(fā),由Gemini啟發(fā)并采用了相同的研究與技術(shù)的輕量級(jí)模型。與之一起發(fā)布的還有全新的響應(yīng)式生成AI工具包,為利用Gemma創(chuàng)造更安全的AI應(yīng)用提供關(guān)鍵工具和指導(dǎo)。

從參數(shù)大小上來(lái)看,Gemma分為20億參數(shù)(Gemma 2B)和70億(Gemma 7B)參數(shù)兩個(gè)版本,且每個(gè)版本又有基礎(chǔ)版(預(yù)訓(xùn)練)和指令調(diào)整版兩個(gè)變體。其中70億參數(shù)的版本適合消費(fèi)級(jí)的GPU和TPU開(kāi)發(fā),而20億參數(shù)的版本可以用于CPU和端側(cè)應(yīng)用上。

在預(yù)訓(xùn)練數(shù)據(jù)上,Gemma 2B和7B分別采用了2T和6T的Token進(jìn)行訓(xùn)練,數(shù)據(jù)來(lái)源是以英文為主的網(wǎng)絡(luò)文檔、數(shù)學(xué)計(jì)算和代碼。需要注意的是,盡管其背后所采用的技術(shù)與Gemini類似,但這些模型并不屬于多模態(tài)模型,也并不適合用于追求極致的多語(yǔ)言任務(wù)性能。

在訓(xùn)練硬件上,谷歌采用了自研的TPUv5e,其中Gemma 7B用到了4096塊TPUv5e進(jìn)行訓(xùn)練,Gemma 2B用到了512塊TPUv5e進(jìn)行訓(xùn)練。

開(kāi)源LLM混戰(zhàn),Gemma 7B超越Llama-2 13B?

根據(jù)谷歌官方提供的數(shù)據(jù),與Meta的Llama-2相比,Gemma 7B在多個(gè)項(xiàng)目上展現(xiàn)出了優(yōu)勢(shì),比如大規(guī)模多任務(wù)語(yǔ)言理解(MMLU)、GSM8K和Math計(jì)算和HumanEval Python代碼生成等應(yīng)用上,都超過(guò)了Llama-2 7B,甚至不少超過(guò)了Llama-2 13B。

wKgaomXXHwmAORLbAAExLTvutQk859.png
開(kāi)源模型文本任務(wù)性能對(duì)比 / 谷歌


谷歌表示,與同等體量的開(kāi)源模型對(duì)比,比如LLaMA-2和Mistral等,18項(xiàng)文字相關(guān)的任務(wù)中,Gemma能夠做到在11項(xiàng)任務(wù)中性能勝出,且平均性能得分占優(yōu)。

不過(guò)Gemma也并不是完全超越了Llama-2,從Huggingface給出的平均得分來(lái)看,Gemma 7B超過(guò)了同級(jí)別的Llama 2 7B,但還是低于LLama 2 70B Chat,不過(guò)考慮到這兩者之間的參數(shù)差異,也印證了Gemma 7B的強(qiáng)大。至于Gemma 2B,與同規(guī)格的其他優(yōu)秀開(kāi)源LLM相比,比如PHI-2(2.7B),也不存在優(yōu)勢(shì)。

作為一個(gè)輕量級(jí)的模型,Gemma也對(duì)跨設(shè)備兼容性做了優(yōu)化,可以在筆記本、PC、IoT設(shè)備、智能手機(jī)和云端運(yùn)行。谷歌也與英偉達(dá)達(dá)成合作,Gemma針對(duì)英偉達(dá)的GPU硬件進(jìn)行了優(yōu)化,無(wú)論是云端的AI GPU還是桌面端的RTX AI PC,都能享受Gemma帶來(lái)的性能。

寫(xiě)在最后

盡管Gemma是谷歌首個(gè)大型的開(kāi)源LLM,但這早已經(jīng)不是谷歌對(duì)開(kāi)源AI社區(qū)做出的首個(gè)貢獻(xiàn)了,諸如Transformers, TensorFlow, BERT, T5, JAX, AlphaFold和AlphaCode等,可以說(shuō)當(dāng)前AI能夠有如此繁榮的開(kāi)發(fā)生態(tài),谷歌做出了不少貢獻(xiàn)。無(wú)疑Gemma的出現(xiàn),也會(huì)給AI開(kāi)發(fā)生態(tài)帶來(lái)新的選擇。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111496
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39944

    瀏覽量

    301572
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1541

    瀏覽量

    16761
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3662

    瀏覽量

    5197
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    “明牌”對(duì)局,自變量開(kāi)源模型超越pi0

    “明牌”對(duì)局,自變量開(kāi)源模型超越pi0
    的頭像 發(fā)表于 01-10 12:00 ?5606次閱讀
    “明牌”對(duì)局,自變量<b class='flag-5'>開(kāi)源</b><b class='flag-5'>模型</b><b class='flag-5'>超越</b>pi0

    泰凌微:布局端側(cè)AI,產(chǎn)品支持谷歌LiteRT、TVM開(kāi)源模型

    。 ? 公司發(fā)布的基于TL721X系列芯片的TL-EdgeAI平臺(tái),支持谷歌LiteRT、TVM等開(kāi)源模型,是目前世界上功耗最低的智能物聯(lián)網(wǎng)連接協(xié)議平臺(tái)。其芯片已在谷歌(Google)
    的頭像 發(fā)表于 12-15 08:21 ?1w次閱讀

    谷歌與耶魯大學(xué)合作發(fā)布最新C2S-Scale 27B模型

    我們很榮幸發(fā)布與耶魯大學(xué)合作研究的 Cell2Sentence-Scale 27B (C2S-Scale),這是一個(gè)新的 270 參數(shù)基礎(chǔ)模型
    的頭像 發(fā)表于 11-06 10:35 ?870次閱讀

    NVIDIA ACE現(xiàn)已支持開(kāi)源Qwen3-8B小語(yǔ)言模型

    為助力打造實(shí)時(shí)、動(dòng)態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開(kāi)源 Qwen3-8B 小語(yǔ)言模型(SLM),可實(shí)現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?1246次閱讀

    NVIDIA開(kāi)源Audio2Face模型及SDK

    NVIDIA 現(xiàn)已開(kāi)源 Audio2Face 模型與 SDK,讓所有游戲和 3D 應(yīng)用開(kāi)發(fā)者都可以構(gòu)建并部署帶有先進(jìn)動(dòng)畫(huà)的高精度角色。NVIDIA 開(kāi)源 Audio
    的頭像 發(fā)表于 10-21 11:11 ?838次閱讀
    NVIDIA<b class='flag-5'>開(kāi)源</b>Audio<b class='flag-5'>2</b>Face<b class='flag-5'>模型</b>及SDK

    成都匯陽(yáng)投資關(guān)于大模型白熱化,應(yīng)用加速分化

    Gemini 2.5 Flash Image登頂 多主流圖像榜,Meta 也從 Midjourney 授權(quán) AI 圖像模型;視頻領(lǐng)域,阿里字節(jié)等刷新能力高度 ,谷歌將視頻模型推進(jìn)至實(shí)
    的頭像 發(fā)表于 09-09 09:30 ?935次閱讀

    OpenAI發(fā)布2開(kāi)源模型

    OpenAI開(kāi)源了兩款高性能權(quán)重語(yǔ)言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt-oss 發(fā)布了!我們做了一個(gè)開(kāi)放模型
    的頭像 發(fā)表于 08-06 14:25 ?1037次閱讀

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開(kāi)源語(yǔ)言模型部署

    1、ollama平臺(tái)搭建 ollama可以快速地部署開(kāi)源模型,網(wǎng)址為https://ollama.com, 試用該平臺(tái),可以在多平臺(tái)上部署 Deepseek-R1, Qwen3, Llama
    發(fā)表于 07-19 15:45

    華為宣布開(kāi)源盤(pán)古7B稠密和72B混合專家模型

    電子發(fā)燒友網(wǎng)綜合報(bào)道 2025年6月30日,華為正式宣布開(kāi)源盤(pán)古70參數(shù)的稠密模型、盤(pán)古Pro MoE 720
    的頭像 發(fā)表于 07-06 05:51 ?7429次閱讀

    華為正式開(kāi)源盤(pán)古7B稠密和72B混合專家模型

    [中國(guó),深圳,2025年6月30日] 今日,華為正式宣布開(kāi)源盤(pán)古70參數(shù)的稠密模型、盤(pán)古Pro MoE 720
    的頭像 發(fā)表于 06-30 11:19 ?1350次閱讀

    使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無(wú)符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    探索在Arm平臺(tái)運(yùn)行的Llama 4 Scout模型

    人工智能 (AI) 正在加速發(fā)展,也越來(lái)越智能化。當(dāng)今的開(kāi)源語(yǔ)言模型不僅功能強(qiáng)大,而且在設(shè)計(jì)時(shí)充分考慮了實(shí)際部署的需求,因而具有輕量化和經(jīng)濟(jì)高效的特點(diǎn),可大規(guī)模部署到數(shù)十億臺(tái)設(shè)備上。簡(jiǎn)而言之,對(duì)于開(kāi)發(fā)者可能想到的各種情形,當(dāng)今
    的頭像 發(fā)表于 05-20 09:54 ?768次閱讀

    ServiceNow攜手NVIDIA構(gòu)建150參數(shù)超級(jí)助手

    Apriel Nemotron 15B 開(kāi)源語(yǔ)言模型 (LLM) 使用 NVIDIA NeMo、NVIDIA Llama Nemotron 開(kāi)放數(shù)據(jù)集以及 ServiceNow 專業(yè)
    的頭像 發(fā)表于 05-12 15:37 ?935次閱讀

    NVIDIA使用Qwen3系列模型的最佳實(shí)踐

    阿里巴巴近期發(fā)布了其開(kāi)源的混合推理大語(yǔ)言模型 (LLM) 通義千問(wèn) Qwen3,此次 Qwen3 開(kāi)源模型系列包含兩款混合專家
    的頭像 發(fā)表于 05-08 11:45 ?3020次閱讀
    NVIDIA使用Qwen3系列<b class='flag-5'>模型</b>的最佳實(shí)踐

    今日看點(diǎn)丨臺(tái)積電、Intel合資運(yùn)營(yíng)代工業(yè)務(wù);韓國(guó)計(jì)劃向當(dāng)?shù)仄?chē)行業(yè)注入3萬(wàn)億韓元援助

    1. Meta 發(fā)布人工智能新模型系列 Llama 4 ,首次采用“混合專家”架構(gòu) ? 當(dāng)?shù)貢r(shí)間周六(4月5日),美國(guó)科技巨頭Meta推出了其最強(qiáng)大的
    發(fā)表于 04-07 11:26 ?627次閱讀