91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出AI模型Gemma 3 270M

谷歌開發(fā)者 ? 來源:谷歌開發(fā)者 ? 2025-09-11 15:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者 / 小組產(chǎn)品經(jīng)理 Olivier Lacombe、研究工程師 Kathleen Kenealy、Kat Black、Ravin Kumar、Francesco Visin、Jiageng Zhang

過去幾個月,Gemma 開放模型系列的發(fā)展是激動人心的。我們推出了 Gemma 3 和 Gemma 3 QAT,為單一云端和桌面加速器帶來了最先進的性能。以移動設(shè)備優(yōu)先的架構(gòu) Gemma 3n 的推出,能夠?qū)姶蟮膶崟r多模態(tài) AI 直接應(yīng)用于邊緣設(shè)備。我們的目標(biāo)是為開發(fā)者提供使用 AI 進行構(gòu)建的實用工具,也一直對大家共同創(chuàng)造的 Gemmaverse 生態(tài)系統(tǒng)蓬勃發(fā)展而倍感欣喜,目前下載量已經(jīng)突破 2 億次,讓我們共同慶祝這一時刻。

現(xiàn)在,我們在 Gemma 3 工具包中新增了一款高度專業(yè)化的工具: Gemma 3 270M。此模型是擁有 2.7 億參數(shù)的緊湊型模型,專為針對特定任務(wù)進行微調(diào)而設(shè)計,并且已內(nèi)置強大的指令遵循和文本結(jié)構(gòu)化能力。

Gemma 3 270M 為小尺寸模型帶來強大的指令遵循能力。正如 IFEval 基準(zhǔn)測試 (該測試用于檢驗?zāi)P妥裱沈炞C指令的能力) 所示,它為同尺寸模型確立了新的性能水平,使復(fù)雜的 AI 功能更容易用于設(shè)備端和研究應(yīng)用。

Gemma 3 270M 的核心能力

緊湊但功能強大的架構(gòu): 我們的新模型總共有 2.7 億參數(shù): 其中的 1.7 億是嵌入?yún)?shù) (因詞匯量較大),另外的 1 億參數(shù)用于我們的 Transformer 模塊。得益于 256k token 的大詞匯量,該模型可以處理特定和罕見的 token,使其成為可在特定領(lǐng)域和語言中進一步微調(diào)的強大基礎(chǔ)模型。

極致的能效表現(xiàn): Gemma 3 270M 的一個關(guān)鍵優(yōu)勢是其低功耗。在 Pixel 9 Pro SoC 上進行的內(nèi)部測試顯示,由于采用了 INT4 量化技術(shù),該模型在 25 次對話中僅消耗了 0.75% 的電量,成為我們最節(jié)能的 Gemma 模型。

指令遵循: 我們同步發(fā)布了指令微調(diào)版模型和預(yù)訓(xùn)練檢查點。雖然此模型并非專為復(fù)雜的對話用例而設(shè)計,但它是一個強大的模型,能夠開箱即用直接遵循一般指令。

可用于生產(chǎn)環(huán)境的量化: 量化感知訓(xùn)練 (QAT) 檢查點已正式推出,使您能夠在 INT4 精度下運行模型,同時將性能損失降至最低,這對于在資源受限的設(shè)備上部署模型至關(guān)重要。

選擇合適的工具

在工程領(lǐng)域,衡量成功的標(biāo)準(zhǔn)在于效率,而不僅僅是原始算力。避免 "大材小用",同樣的道理也適用于使用 AI 進行構(gòu)建。

Gemma 3 270M 體現(xiàn)了 "選擇合適的工具" 這一理念。這是一款性能卓越的基礎(chǔ)模型,開箱即用即可遵循指令,而通過微調(diào)更能釋放其全部潛能。經(jīng)過專業(yè)化設(shè)置后,模型能以驚人的準(zhǔn)確率、速度和成本效益執(zhí)行文本分類和數(shù)據(jù)提取等任務(wù)。從一款功能強大的緊湊型模型著手,您可以構(gòu)建出精簡、快速且顯著降低運營成本的生產(chǎn)系統(tǒng)。

現(xiàn)實世界的成功藍圖

這種方法已經(jīng)在現(xiàn)實世界中取得了令人驚嘆的成果。Adaptive ML 與 SK Telecom 合作完成的項目便是一個絕佳的例證。面對復(fù)雜、多語言的內(nèi)容審核這一挑戰(zhàn),他們選擇了走專業(yè)化路線。Adaptive ML 沒有使用大型通用模型,而是對 Gemma 3 4B 模型進行了微調(diào)。結(jié)果令人驚嘆: 專業(yè)的 Gemma 模型在特定任務(wù)上的性能不僅比肩、甚至超越了更大規(guī)模的專有模型。

Gemma 3 270M 旨在讓開發(fā)者更進一步地采用這種方法,從而更高效地處理明確的任務(wù)。該模型是打造小型專業(yè)模型的完美起點,因為每個模型都有各自擅長處理的任務(wù)類型。

而且,這種專業(yè)化的能力不僅適用于企業(yè)任務(wù),還能賦能強大的創(chuàng)意應(yīng)用。例如下面這款 "睡前故事生成器" Web 應(yīng)用:

何時選擇使用 Gemma 3 270M

Gemma 3 270M 沿襲了 Gemma 3 系列的先進架構(gòu)和強大的預(yù)訓(xùn)練能力,為您的自定義應(yīng)用奠定了堅實的基礎(chǔ)。

理想應(yīng)用場景如下:

您有大量明確的任務(wù)。非常適合情感分析、實體提取、查詢路由、非結(jié)構(gòu)化文本到結(jié)構(gòu)化文本的轉(zhuǎn)換、創(chuàng)意寫作以及合規(guī)性檢查等功能。

您需要充分利用每分每秒的時間。大幅降低或消除生產(chǎn)環(huán)境中的推理成本,并為用戶提供更快的響應(yīng)速度。經(jīng)過微調(diào)的 270M 模型可以在輕量級、低成本的基礎(chǔ)設(shè)施上運行,也可以直接在設(shè)備上運行。

您需要快速迭代和部署。Gemma 3 270M 體積小巧,可進行快速微調(diào)實驗,幫助您在數(shù)小時而非幾天內(nèi)找到適合用例的理想配置。

您需要確保用戶隱私。由于該模型可以完全在設(shè)備上運行,因此您可以構(gòu)建處理敏感信息的應(yīng)用,而無需將數(shù)據(jù)發(fā)送到云端。

您想擁有一系列能夠處理各種任務(wù)的專業(yè)模型。構(gòu)建并部署多個自定義模型,每個模型都針對不同的任務(wù)經(jīng)過專業(yè)訓(xùn)練,并且不會超出您的預(yù)算。

微調(diào)入門

我們致力于讓每一位開發(fā)者都能輕松地將 Gemma 3 270M 打造為專屬的定制化解決方案。該模型采用與其他 Gemma 3 模型相同的架構(gòu),并配備了相關(guān)教程和工具,助您快速入門。您可以

在 Gemma 文檔中查閱關(guān)于使用 Gemma 3 270M 進行全面微調(diào)的指南。

下載模型: 從 Hugging Face、Ollama、Kaggle、LM Studio 或 Docker 獲取 Gemma 3 270M 模型。我們將發(fā)布經(jīng)過預(yù)訓(xùn)練和指令微調(diào)的模型。

試用模型: 在 Vertex AI 或熱門推理工具 (如 llama.cpp、Gemma.cpp、LiteRT、Keras 和 MLX) 上試用模型。

開始微調(diào): 使用您最喜歡的工具,包括 Hugging Face、UnSloth 和 JAX。

部署解決方案: 微調(diào)完成后,您可以在任何地方部署您的專業(yè)模型,從您自己的本地環(huán)境到 Google Cloud Run。

Gemmaverse 建立在 "創(chuàng)新無關(guān)大小" 這一理念之上。借助 Gemma 3 270M,我們讓開發(fā)者能夠構(gòu)建更智能、更迅捷、更高效的 AI 解決方案。我們熱切期待您創(chuàng)建的專業(yè)模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39755

    瀏覽量

    301355
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3751

    瀏覽量

    52099

原文標(biāo)題:Gemma 3 270M 發(fā)布 | 兼具輕量化與卓越性能的 AI 模型

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    谷歌推出TranslateGemma全新開放翻譯模型系列

    我們已正式推出 TranslateGemma,這一全新的開放翻譯模型系列基于 Gemma 3 構(gòu)建,并提供 4B、12B 和 27B 三種參數(shù)規(guī)模。TranslateGemma 的問世
    的頭像 發(fā)表于 02-26 10:22 ?489次閱讀

    解鎖谷歌FunctionGemma模型的無限潛力

    在智能體 AI 領(lǐng)域,工具調(diào)用能力是將自然語言轉(zhuǎn)化為可執(zhí)行軟件操作的關(guān)鍵。此前,我們發(fā)布了專門針對函數(shù)調(diào)用而特別優(yōu)化的 Gemma 3 270M
    的頭像 發(fā)表于 02-04 11:30 ?326次閱讀
    解鎖<b class='flag-5'>谷歌</b>FunctionGemma<b class='flag-5'>模型</b>的無限潛力

    谷歌正式發(fā)布Gemma Scope 2模型

    大語言模型 (LLM) 具備令人驚嘆的推理能力,但其內(nèi)部決策過程在很大程度上仍然不透明。如果系統(tǒng)未按預(yù)期運行,對其內(nèi)部運作機制缺乏可見性將難以準(zhǔn)確定位問題根源。過去,我們通過發(fā)布 Gemma
    的頭像 發(fā)表于 01-24 14:01 ?514次閱讀

    谷歌正式推出Gemini 3 Flash模型

    我們正式推出了 Gemini 3 Flash,這是以較低成本打造的高效前沿智能,成功地進一步擴展了 Gemini 3 模型系列。
    的頭像 發(fā)表于 01-22 16:04 ?469次閱讀

    借助谷歌FunctionGemma模型構(gòu)建下一代端側(cè)智能體

    對于 Gemma 模型系列而言,2025 年是充滿變革的一年。我們的下載量已從 1 億次增長到超過 3 億次,同時還展現(xiàn)了開放模型的變革潛力: 從憑借
    的頭像 發(fā)表于 01-20 09:11 ?618次閱讀
    借助<b class='flag-5'>谷歌</b>FunctionGemma<b class='flag-5'>模型</b>構(gòu)建下一代端側(cè)智能體

    谷歌正式推出最新Gemini 3 AI模型

    今天我們正式推出 Gemini 3,這是我們迄今為止最智能的模型,能夠幫助用戶實現(xiàn)任何創(chuàng)意。Gemini 3 Pro 基于最先進的推理技術(shù),與之前的版本相比,它在所有主要的
    的頭像 發(fā)表于 11-24 11:10 ?1217次閱讀
    <b class='flag-5'>谷歌</b>正式<b class='flag-5'>推出</b>最新Gemini <b class='flag-5'>3</b> <b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    谷歌與耶魯大學(xué)合作發(fā)布最新C2S-Scale 27B模型

    我們很榮幸發(fā)布與耶魯大學(xué)合作研究的 Cell2Sentence-Scale 27B (C2S-Scale),這是一個新的 270 億參數(shù)基礎(chǔ)模型,旨在理解單個細胞的 "語言"。C2S-Scale 建立在 Gemma 開放
    的頭像 發(fā)表于 11-06 10:35 ?849次閱讀

    谷歌AlphaEarth和維智時空AI模型的技術(shù)路徑

    谷歌AlphaEarth和維智時空AI模型在應(yīng)用場景和技術(shù)實現(xiàn)上各有側(cè)重,但兩者在底層技術(shù)理念上存在顯著共性。
    的頭像 發(fā)表于 10-22 14:48 ?900次閱讀

    谷歌Gemma 3n模型的新功能

    從第一個 Gemma 模型于去年年初推出以來,已逐漸發(fā)展為生機勃勃的 Gemmaverse 生態(tài)系統(tǒng),累計下載量突破 1.6 億。這個生態(tài)系統(tǒng)包括十余款專業(yè)模型系列,涵蓋從安全防護到醫(yī)
    的頭像 發(fā)表于 07-25 10:16 ?1405次閱讀
    <b class='flag-5'>谷歌</b><b class='flag-5'>Gemma</b> <b class='flag-5'>3</b>n<b class='flag-5'>模型</b>的新功能

    谷歌Gemma 3n預(yù)覽版全新發(fā)布

    Gemma 3Gemma 3 QAT 的成功發(fā)布之后,我們的先進開放模型系列具備了在單一云端或桌面加速器上運行的能力,我們正在進一
    的頭像 發(fā)表于 06-26 17:18 ?943次閱讀

    樹莓派5上的Gemma 2:如何打造高效的邊緣AI解決方案?

    從數(shù)學(xué)基礎(chǔ)到邊緣實現(xiàn),研究團隊:Conecta.ai(ufrn.br)摘要1.引言2.GEMMA2:通用集成機器模型算法2.1模型架構(gòu)2.2預(yù)訓(xùn)練2.3后訓(xùn)練
    的頭像 發(fā)表于 06-20 16:57 ?1642次閱讀
    樹莓派5上的<b class='flag-5'>Gemma</b> 2:如何打造高效的邊緣<b class='flag-5'>AI</b>解決方案?

    谷歌新一代生成式AI媒體模型登陸Vertex AI平臺

    我們在 Vertex AI推出新一代生成式 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?1091次閱讀

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    電子發(fā)燒友網(wǎng)報道(文 / 李彎彎)日前,谷歌在 Cloud Next 大會上,隆重推出了最新一代 TPU AI 加速芯片 ——Ironwood。據(jù)悉,該芯片預(yù)計于今年晚些時候面向 Google
    的頭像 發(fā)表于 04-12 00:57 ?3713次閱讀

    Google Gemma 3開發(fā)者指南

    自首次推出以來,Gemma 模型的下載量已超過 1 億次,社區(qū)為各種用例創(chuàng)建了超過 60,000 個變體1。我們很高興推出 Gemma
    的頭像 發(fā)表于 04-08 10:50 ?1116次閱讀
    Google <b class='flag-5'>Gemma</b> <b class='flag-5'>3</b>開發(fā)者指南

    Google發(fā)布最新AI模型Gemma 3

    Gemma 開放模型系列是 Google 推動實用 AI 技術(shù)普惠大眾的重要基石。上個月,Gemma 迎來了首個生日。回望過去一年,其成果斐然:全球下載量突破 1 億,社區(qū)欣欣向榮,衍
    的頭像 發(fā)表于 03-18 09:51 ?1714次閱讀