91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google發(fā)布新API,支持訓(xùn)練更小更快的AI模型

獨愛72H ? 來源:雷鋒網(wǎng) ? 作者:佚名 ? 2020-04-09 21:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

(文章來源:雷鋒網(wǎng))
Google發(fā)布了 Quantification Aware Training(QAT)API,使開發(fā)人員可以利用量化的優(yōu)勢來訓(xùn)練和部署模型AI模型。通過這個API,可以將輸入值從大集合映射到較小集合的輸出,同時,保持接近原始狀態(tài)的準(zhǔn)確性。

新的API的目標(biāo)是支持開發(fā)更小、更快、更高效的機器學(xué)習(xí)(ML)模型,這些模型非常適合在現(xiàn)有的設(shè)備上運行,例如那些計算資源非常寶貴的中小型企業(yè)環(huán)境中的設(shè)備。

通常,從較高精度到較低精度的過程有很多噪聲。因為量化把小范圍的浮點數(shù)壓縮為固定數(shù)量的信息存儲區(qū)中,這導(dǎo)致信息損失,類似于將小數(shù)值表示為整數(shù)時的舍入誤差(例如,在范圍[2.0,2.3]中的所有值都可以在相同的存儲中表示。)。問題在于,當(dāng)在多個計算中使用有損數(shù)時,精度損失就會累積,這就需要為下一次計算重新標(biāo)度。

谷歌新發(fā)布的QAT API通過在AI模型訓(xùn)練過程中模擬低精度計算來解決此問題。在整個訓(xùn)練過程中,將量化誤差作為噪聲引入,QAT API的算法會嘗試將誤差最小化,以便它學(xué)習(xí)這個過程中的變量,讓量化有更強的魯棒性。訓(xùn)練圖是利用了將浮點對象轉(zhuǎn)換為低精度值,然后再將低精度值轉(zhuǎn)換回浮點的操作,從而確保了在計算中引入了量化損失,并確保了進一步的計算也可以模擬低精度。

谷歌在報告中給出的測試結(jié)果顯示,在開源Imagenet數(shù)據(jù)集的圖像分類模型(MobilenetV1 224)上進行測試,結(jié)果顯示未經(jīng)量化的精度為71.03%,量化后的精度達(dá)到了71.06%。

Google發(fā)布新API,支持訓(xùn)練更小更快的AI模型

針對相同數(shù)據(jù)集測試的另一種分類模型(Nasnet-Mobile)中測試,在量化后僅有1%的精度損失(74%至73%)。除了模擬精度降低的計算外,QAT API還負(fù)責(zé)記錄必要的統(tǒng)計信息,以量化訓(xùn)練整個模型或模型的一部分。比如,這可以使開發(fā)人員能夠通過調(diào)用模型訓(xùn)練API將模型轉(zhuǎn)換為量化的TensorFlow Lite模型?;蛘?,開發(fā)人員可以在模擬量化如何影響不同硬件后端的準(zhǔn)確性的同時嘗試各種量化策略。

Google發(fā)布新API,支持訓(xùn)練更小更快的AI模型

Google表示,在默認(rèn)情況下,作為TensorFlow模型優(yōu)化工具包一部分的QAT API配置為與TensorFlow Lite中提供的量化執(zhí)行支持一起使用,TensorFlow Lite是Google的工具集,旨在將其TensorFlow機器學(xué)習(xí)框架上構(gòu)建的模型能夠適應(yīng)于移動設(shè)備,嵌入式物聯(lián)網(wǎng)設(shè)備?!拔覀兒芨吲d看到QAT API如何進一步使TensorFlow用戶在其支持TensorFlow Lite的產(chǎn)品中突破有效執(zhí)行的界限,以及它如何為研究新的量化算法和進一步開發(fā)具有不同精度特性的新硬件平臺打開大門”,Google在博客中寫道。

QAT API的正式發(fā)布是在TensorFlow Dev Summit上,也是在發(fā)布了用于訓(xùn)練量子模型的機器學(xué)習(xí)框架TensorFlow Quantum之后發(fā)布。谷歌也在會議的會話中預(yù)覽了QAT API。
(責(zé)任編輯:fqj)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111485
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    2383

    瀏覽量

    66818
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Gemini CLI 中轉(zhuǎn)站配置使用教程

    :訪問 100 萬 token 上下文窗口 ? 內(nèi)置工具 :Google 搜索基礎(chǔ)功能、文件操作、Shell 命令、網(wǎng)頁抓取 ? 可擴展 :支持 MCP(模型上下文協(xié)議)進行自定義集成 ? 終端優(yōu)先
    發(fā)表于 02-10 17:29

    如何訓(xùn)練自己的AI模型——RT-Thread×富瀚微FH8626V300L模型訓(xùn)練部署教程 | 技術(shù)集結(jié)

    面對消費電子中紛繁的智能檢測需求,如何讓算法持續(xù)進化?富瀚微最新發(fā)布的FH86X6V300芯片AI訓(xùn)練教程,以FH8626V300L為硬件核心,手把手帶您走通從模型
    的頭像 發(fā)表于 02-09 11:51 ?409次閱讀
    如何<b class='flag-5'>訓(xùn)練</b>自己的<b class='flag-5'>AI</b><b class='flag-5'>模型</b>——RT-Thread×富瀚微FH8626V300L<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>部署教程 | 技術(shù)集結(jié)

    使用NORDIC AI的好處

    提升能效,適合音頻、圖像和高采樣率傳感器等更重的 AI 負(fù)載。[Axon NPU 技術(shù)頁] 模型更小、更快、更省電 Neuton 模型
    發(fā)表于 01-31 23:16

    如何評價OpenRouter這樣的大模型API聚合平臺?

    我個人認(rèn)為OpenRouter的商業(yè)模式特別優(yōu)雅,大模型時代的輕資產(chǎn) “賣水人”。 open router自己不訓(xùn)練模型,也不買顯卡推理,他做的就是調(diào)用別家的API,聚合了各家的
    的頭像 發(fā)表于 10-28 10:04 ?498次閱讀

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    摩爾線程“AI工廠”:五大核心技術(shù)支撐,打造大模型訓(xùn)練超級工廠

    演講中表示,為應(yīng)對生成式AI爆發(fā)式增長下的大模型訓(xùn)練效率瓶頸,摩爾線程將通過系統(tǒng)級工程創(chuàng)新,構(gòu)建新一代AI訓(xùn)練基礎(chǔ)設(shè)施,致力于為AGI時代打
    的頭像 發(fā)表于 07-28 11:28 ?4563次閱讀
    摩爾線程“<b class='flag-5'>AI</b>工廠”:五大核心技術(shù)支撐,打造大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>超級工廠

    超低延時重構(gòu)AI推理體驗!白山云發(fā)布“大模型API”產(chǎn)品

    白山云科技正式發(fā)布“大模型API”產(chǎn)品,首發(fā)上線DeepSeek-R1-0528、DeepSeek-R1-0528-Qwen3-8B、Qwen3-32B-FP8等大語言模型?;诎咨饺?/div>
    的頭像 發(fā)表于 07-02 17:26 ?1160次閱讀
    超低延時重構(gòu)<b class='flag-5'>AI</b>推理體驗!白山云<b class='flag-5'>發(fā)布</b>“大<b class='flag-5'>模型</b><b class='flag-5'>API</b>”產(chǎn)品

    群暉發(fā)布AI模型全流程存儲解決方案,破局訓(xùn)練效率與數(shù)據(jù)孤島難題

    兼容數(shù)據(jù)歸集、高速訓(xùn)練、高可用部署全場景,支持?Llama2?等千億參數(shù)模型,讀寫效率提升?90% 上海?2025年6月24日?/美通社/ -- 當(dāng)算力狂奔時,數(shù)據(jù)存儲正成為AI進化的
    的頭像 發(fā)表于 06-25 16:03 ?712次閱讀
    群暉<b class='flag-5'>發(fā)布</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>全流程存儲解決方案,破局<b class='flag-5'>訓(xùn)練</b>效率與數(shù)據(jù)孤島難題

    Gemini API集成Google圖像生成模型Imagen 3

    開發(fā)者現(xiàn)在可以通過 Gemini API 訪問 Google 最先進的圖像生成模型 Imagen 3。該模型最初僅對付費用戶開放,不久后也將面向免費用戶推出。
    的頭像 發(fā)表于 05-14 16:53 ?1283次閱讀

    海思SD3403邊緣計算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型,模型升級AI攝像機,進行
    發(fā)表于 04-28 11:11

    Deepseek海思SD3403邊緣計算AI產(chǎn)品系統(tǒng)

    海思SD3403邊緣計算AI框架,提供了一套開放式AI訓(xùn)練產(chǎn)品工具包,解決客戶低成本AI系統(tǒng),針對差異化AI 應(yīng)用場景,自己采集樣本數(shù)據(jù),進
    發(fā)表于 04-28 11:05

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    ,聯(lián)發(fā)科帶來了全面升級的天璣AI開發(fā)套件2.0,在模型庫規(guī)模、架構(gòu)開放程度、前沿端側(cè)AI技術(shù)支持和端側(cè)LoRA訓(xùn)練落地等方面均迎來全面躍遷,
    發(fā)表于 04-13 19:52

    請問如何在imx8mplus上部署和運行YOLOv5訓(xùn)練模型

    。我在 yo tflite 中轉(zhuǎn)換模型并嘗試在 tensorflow 腳本上運行模型,但它不起作用。 如何在 imx8mplus 上運行 YOLOv5 模型? 在 imx8mplus 上運行任何其他對象檢測
    發(fā)表于 03-25 07:23

    利用RAKsmart服務(wù)器托管AI模型訓(xùn)練的優(yōu)勢

    AI模型訓(xùn)練需要強大的計算資源、高效的存儲和穩(wěn)定的網(wǎng)絡(luò)支持,這對服務(wù)器的性能提出了較高要求。而RAKsmart服務(wù)器憑借其核心優(yōu)勢,成為托管AI
    的頭像 發(fā)表于 03-18 10:08 ?706次閱讀

    Google發(fā)布最新AI模型Gemma 3

    Gemma 開放模型系列是 Google 推動實用 AI 技術(shù)普惠大眾的重要基石。上個月,Gemma 迎來了首個生日?;赝^去一年,其成果斐然:全球下載量突破 1 億,社區(qū)欣欣向榮,衍生模型
    的頭像 發(fā)表于 03-18 09:51 ?1740次閱讀