91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)模型在生產(chǎn)中退化的原因

汽車玩家 ? 來源:AI公園 ? 作者:Alexandre Gonfalonier ? 2020-05-04 12:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

當(dāng)你把一個模型投入生產(chǎn),它就開始退化,那這個時候,我們該怎么辦呢。

由于意外的機(jī)器學(xué)習(xí)模型退化導(dǎo)致了幾個機(jī)器學(xué)習(xí)項目的失敗,我想分享一下我在機(jī)器學(xué)習(xí)模型退化方面的經(jīng)驗。實際上,有很多關(guān)于模型創(chuàng)建和開發(fā)階段的宣傳,而不是模型維護(hù)。

假設(shè)機(jī)器學(xué)習(xí)解決方案一旦投入生產(chǎn),無需維護(hù)就能完美運(yùn)行,這是一個錯誤的假設(shè),是企業(yè)將其首款人工智能(AI)產(chǎn)品推向市場時最常見的錯誤。

當(dāng)你把一個模型投入生產(chǎn),它就開始退化

為什么機(jī)器學(xué)習(xí)模型會隨著時間退化?

你可能已經(jīng)知道,數(shù)據(jù)是成功的ML系統(tǒng)中最重要的組成部分。有一個相關(guān)的數(shù)據(jù)集為你提供準(zhǔn)確的預(yù)測是一個很好的開始,但是這些數(shù)據(jù)提供準(zhǔn)確的預(yù)測能持續(xù)多久呢?

在所有ML項目中,預(yù)測數(shù)據(jù)將如何隨時間變化是關(guān)鍵。在一些項目中,我們低估了這一步,并且很難交付高精確度。在我看來,一旦你在PoC階段之后對你的項目有信心,就應(yīng)該制定一個計劃來保持模型的更新。

事實上,在開始使用它之前,你的模型的準(zhǔn)確性將處于最佳狀態(tài)。這一現(xiàn)象被稱為概念漂移,盡管在過去的20年里學(xué)術(shù)界對其進(jìn)行了大量的研究,但在行業(yè)最佳實踐中它仍然經(jīng)常被忽略。

概念漂移:表示模型試圖預(yù)測的目標(biāo)變量的統(tǒng)計特性隨著時間以不可預(yù)見的方式發(fā)生變化。這導(dǎo)致了一些問題,因為隨著時間的推移,預(yù)測的準(zhǔn)確性會降低。

機(jī)器學(xué)習(xí)模型在生產(chǎn)中退化的原因

關(guān)鍵是,與計算器相比,ML系統(tǒng)確實與現(xiàn)實世界交互。如果你使用ML來預(yù)測你的商店的需求和價格,你最好考慮一下本周的天氣、日歷和你的競爭對手在做什么。

在概念漂移的情況下,我們對數(shù)據(jù)的解釋隨時間而變化,而數(shù)據(jù)的一般分布則沒有變化。這導(dǎo)致最終用戶將模型預(yù)測解釋為隨著時間的推移,對相同/相似數(shù)據(jù)的預(yù)測已經(jīng)惡化。數(shù)據(jù)和概念都可能同時漂移,使問題更加棘手。

我注意到,依賴于人類行為的模型可能特別容易退化。顯然,風(fēng)險可以根據(jù)項目的性質(zhì)進(jìn)行預(yù)測。在大多數(shù)情況下,必須制定定期的模型評審和再訓(xùn)練計劃。

此外,大多數(shù)模型只能捕獲反映它們所看到的訓(xùn)練數(shù)據(jù)的模式。一個好的模型捕獲了這些數(shù)據(jù)的基本部分,而忽略了不重要的部分。這創(chuàng)建了泛化的性能,但是任何模型都有一定程度的局限性。

泛化:指的是你的模型能夠適當(dāng)?shù)剡m應(yīng)新的、以前未見過的數(shù)據(jù),這些數(shù)據(jù)來自于用于創(chuàng)建模型的相同分布。這與過擬合的概念密切相關(guān)。如果你的模型過擬合,那么它就不能很好地泛化。

機(jī)器學(xué)習(xí)模型在生產(chǎn)中退化的原因

泛化性能的最佳測試是查看模型在很長一段時間內(nèi)對真實數(shù)據(jù)的執(zhí)行情況。這個過程至少有兩個主要元素。

如何防止模型退化?

這聽起來可能很明顯,但是在部署之后監(jiān)視ML性能非常重要。如果監(jiān)視所有特征聽起來像一項耗時的任務(wù),那么我們可以監(jiān)視一些關(guān)鍵特征,這些特征的數(shù)據(jù)分布變化可能會嚴(yán)重影響模型結(jié)果。我強(qiáng)烈建議你在投入生產(chǎn)之前為這個過程創(chuàng)建一個策略(通過識別正確的元素)。

模型監(jiān)控是一個持續(xù)的過程

如果你觀察到模型性能下降,那么是時候重新構(gòu)造模型設(shè)計了。棘手的部分不是刷新模型和創(chuàng)建一個重新訓(xùn)練的模型,而是考慮額外的特征,這些特征可能會提高模型的性能,使其更加可靠和準(zhǔn)確。

完成上述步驟之后,就可以使用新的或修改過的一組特征和模型參數(shù)重新創(chuàng)建模型了。在這一點上,我們的目標(biāo)是確定一個最優(yōu)的模型,該模型能夠提供最佳的精度,這很好地概括了一些數(shù)據(jù)漂移。

我注意到,在某些情況下,模型的重新創(chuàng)建并不能提高模型的性能。在這些情況下,分析模型出錯的例子并尋找當(dāng)前特征集之外的趨勢可以幫助識別新特征?;谶@些知識創(chuàng)建新特征可以給模型提供新的學(xué)習(xí)經(jīng)驗。

手工學(xué)習(xí)

我們經(jīng)常使用新數(shù)據(jù)來維護(hù)模型的一個解決方案是,使用我們最初用于構(gòu)建模型的相同流程來訓(xùn)練和部署我們的模型。我們稱之為手工學(xué)習(xí)。你可以想象這個過程會很耗時。我們多久對模型進(jìn)行一次再訓(xùn)練?每周?每天嗎?答案取決于你的ML應(yīng)用。

當(dāng)我們手工對模型進(jìn)行再訓(xùn)練時,我們可能會發(fā)現(xiàn)一種新的算法或一組不同的特征,可以提高精確度。事實上,定期回顧你的處理過程可能是個好主意。正如我前面提到的,你可能會找到一種不同的算法或一組新的特征來改進(jìn)你的預(yù)測,而這并不是連續(xù)學(xué)習(xí)系統(tǒng)所擅長的。

也許你可以每個月或者每年用之前收集的數(shù)據(jù)來更新模型。

這還可能涉及對模型進(jìn)行反向測試,以便在重新擬合靜態(tài)模型時選擇適當(dāng)數(shù)量的歷史數(shù)據(jù)。

給數(shù)據(jù)加權(quán)重

另一個解決方案可能是給數(shù)據(jù)加權(quán)重。事實上,有些算法允許你權(quán)衡輸入數(shù)據(jù)的重要性。

使用與數(shù)據(jù)年齡成反比的加權(quán)系統(tǒng)可能會很有趣,這樣會更多地關(guān)注最近的數(shù)據(jù)(權(quán)重更高),而較少關(guān)注最近的數(shù)據(jù)(權(quán)重更小)。

持續(xù)學(xué)習(xí)

我最喜歡的方法是擁有一個能夠持續(xù)評估和重新訓(xùn)練模型的自動化系統(tǒng)。持續(xù)學(xué)習(xí)系統(tǒng)的好處是它可以完全自動化。

機(jī)器學(xué)習(xí)模型在生產(chǎn)中退化的原因

一般來說,合理的模型監(jiān)控與周密的模型檢查計劃相結(jié)合,對于保持生產(chǎn)模型的準(zhǔn)確性是至關(guān)重要的。對關(guān)鍵變量進(jìn)行優(yōu)先級檢查,并為發(fā)生更改時設(shè)置警告,這將確保你不會對環(huán)境的更改感到意外,而環(huán)境的更改會破壞你的模型的有效性。

對于數(shù)據(jù)點具有高度獨立性的輸入變量,可以使用統(tǒng)計過程控制中使用的控制圖來檢測過程的變化。

處理模型漂移

我堅持這一點,但你的ML成功也取決于你計劃如何維護(hù)你訓(xùn)練有素的模型。在幾個項目中,我意識到缺乏模型工作經(jīng)驗的商業(yè)領(lǐng)袖可能無法預(yù)料到這種需求。

一個產(chǎn)品化的模型包括監(jiān)視和維護(hù)

應(yīng)該定期評估新數(shù)據(jù)集上的模型性能。應(yīng)該定期對這些性能跟蹤進(jìn)行可視化和比較,以便您可以確定何時進(jìn)行干預(yù)。有幾個度量ML性能的指標(biāo)。

機(jī)器學(xué)習(xí)模型在生產(chǎn)中退化的原因

模型退化的原因可以被明確地發(fā)現(xiàn)和建模??梢匝芯?、理解和利用周期性時間效應(yīng)。一旦模型收集了足夠的性能指標(biāo),數(shù)據(jù)科學(xué)團(tuán)隊就可以處理這個項目。假設(shè)你一直在跟蹤他們。

定期考慮性能指標(biāo)并觸發(fā)重新訓(xùn)練或重建模型的過程也是必要的,因為沒有它,你將能夠看到性能損失,但沒有適當(dāng)?shù)南到y(tǒng)來解決它。

投入&團(tuán)隊

除了技術(shù)方面,我強(qiáng)烈建議你在項目投入生產(chǎn)后,將最好的數(shù)據(jù)科學(xué)家和工程師留在項目中。與經(jīng)典的軟件項目不同,在部署之后,你的操作團(tuán)隊處理它,工程師繼續(xù)構(gòu)建下一個大項目,ML和AI系統(tǒng)中的許多技術(shù)挑戰(zhàn)是保持它們的準(zhǔn)確性。

你還需要投入資源,以保持你的客戶使用的機(jī)器學(xué)習(xí)產(chǎn)品和服務(wù)的準(zhǔn)確性。這意味著與傳統(tǒng)軟件相比,ML產(chǎn)品的運(yùn)營邊際成本更高。

維護(hù)成本

為了維護(hù)高質(zhì)量的模型,應(yīng)該在每次數(shù)據(jù)交付時對算法進(jìn)行再訓(xùn)練。另一方面,為了優(yōu)化成本,應(yīng)該盡可能少地去做。

顯然,某些機(jī)器學(xué)習(xí)開發(fā)實踐需要更多的技術(shù)債,因此需要比其他實踐更多的未來維護(hù)。特定于機(jī)器學(xué)習(xí)的發(fā)展債風(fēng)險因素是多種多樣的。它們包括無數(shù)的概率變量、數(shù)據(jù)依賴、遞歸反饋循環(huán)、管道流程、配置設(shè)置,以及加劇機(jī)器學(xué)習(xí)算法性能不可預(yù)測性的其他因素。

這些復(fù)雜性越多,就越難以進(jìn)行有效維護(hù)所需的根源分析。

你無法完全自動化地解決維護(hù)負(fù)擔(dān)。在任何情況下,傾向于機(jī)器學(xué)習(xí)模型都需要仔細(xì)檢查、批判性思維和手工工作,而這些只有受過高度訓(xùn)練的數(shù)據(jù)科學(xué)家才能提供。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    強(qiáng)化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?

    是一種讓機(jī)器通過“試錯”學(xué)會決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強(qiáng)化學(xué)習(xí)不會把每一步的“正確答案”都告訴
    的頭像 發(fā)表于 01-31 09:34 ?655次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會讓自動駕駛<b class='flag-5'>模型</b><b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    中小企業(yè)紛紛采用協(xié)作機(jī)器人的核心原因

    機(jī)器人技術(shù)曾是資金雄厚的大企業(yè)專屬,但如今格局已然改變,眾多小型制造企業(yè)也能購入這些先進(jìn)設(shè)備。目前,不少企業(yè)在生產(chǎn)制造中紛紛采用協(xié)作機(jī)器人。促成這一轉(zhuǎn)變的核心原因有哪些?它又為行業(yè)帶來
    的頭像 發(fā)表于 01-28 16:07 ?343次閱讀

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注
    的頭像 發(fā)表于 01-07 15:37 ?204次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個常見錯誤與局限性

    基于ETAS嵌入式AI工具鏈將機(jī)器學(xué)習(xí)模型部署到量產(chǎn)ECU

    AI在汽車行業(yè)的應(yīng)用日益深化,如何將機(jī)器學(xué)習(xí)領(lǐng)域的先進(jìn)模型(如虛擬傳感器)集成到ECU軟件中,已成為業(yè)界面臨的核心挑戰(zhàn)。
    的頭像 發(fā)表于 12-24 10:55 ?6130次閱讀
    基于ETAS嵌入式AI工具鏈將<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>部署到量產(chǎn)ECU

    機(jī)器人內(nèi)部零配件的生產(chǎn)加工廠從哪找?

    ,常見的處理方法包括電鍍、電泳涂裝、陽極氧化、化學(xué)鍍、熱噴涂、真空電鍍、電解拋光等。 在機(jī)器人配件的生產(chǎn)中,不同的部件需要采用不同的材料和表面處理工藝。例如,機(jī)器人的外殼通常采用不銹鋼材料,經(jīng)過拋光
    發(fā)表于 12-09 18:22

    自主生產(chǎn):制造業(yè)的未來

    已經(jīng)通過智能應(yīng)用程序與機(jī)器聯(lián)網(wǎng),并進(jìn)入學(xué)習(xí)系統(tǒng),對生產(chǎn)偏差做出實時反應(yīng)。 到 2030 年,生產(chǎn)格局將發(fā)生根本性變化:半自動單元網(wǎng)絡(luò)將取代傳統(tǒng)的生產(chǎn)
    發(fā)表于 09-15 15:08

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4193次閱讀
    自動駕駛中Transformer大<b class='flag-5'>模型</b>會取代深度<b class='flag-5'>學(xué)習(xí)</b>嗎?

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文
    發(fā)表于 07-31 11:38

    FPGA在機(jī)器學(xué)習(xí)中的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為一種靈活且高效的硬件加速平臺
    的頭像 發(fā)表于 07-16 15:34 ?2905次閱讀

    通過NVIDIA Cosmos模型增強(qiáng)機(jī)器人學(xué)習(xí)

    通用機(jī)器人的時代已經(jīng)到來,這得益于機(jī)械電子技術(shù)和機(jī)器人 AI 基礎(chǔ)模型的進(jìn)步。但目前機(jī)器人技術(shù)的發(fā)展仍面臨一個關(guān)鍵挑戰(zhàn):機(jī)器人需要大量的訓(xùn)練
    的頭像 發(fā)表于 07-14 11:49 ?1100次閱讀
    通過NVIDIA Cosmos<b class='flag-5'>模型</b>增強(qiáng)<b class='flag-5'>機(jī)器人學(xué)習(xí)</b>

    邊緣計算中的機(jī)器學(xué)習(xí):基于 Linux 系統(tǒng)的實時推理模型部署與工業(yè)集成!

    你好,旅行者!歡迎來到Medium的這一角落。在本文中,我們將把一個機(jī)器學(xué)習(xí)模型(神經(jīng)網(wǎng)絡(luò))部署到邊緣設(shè)備上,利用從ModbusTCP寄存器獲取的實時數(shù)據(jù)來預(yù)測一臺復(fù)古音頻放大器的當(dāng)前健康狀況。你將
    的頭像 發(fā)表于 06-11 17:22 ?1007次閱讀
    邊緣計算中的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>:基于 Linux 系統(tǒng)的實時推理<b class='flag-5'>模型</b>部署與工業(yè)集成!

    汽車生產(chǎn)中的測試臺連接 – EtherCAT 轉(zhuǎn)CANopen高效的網(wǎng)關(guān)通信

    汽車生產(chǎn)中的測試臺連接 – EtherCAT 轉(zhuǎn)CANopen高效的網(wǎng)關(guān)通信
    的頭像 發(fā)表于 05-20 11:43 ?530次閱讀
    汽車<b class='flag-5'>生產(chǎn)中</b>的測試臺連接 – EtherCAT 轉(zhuǎn)CANopen高效的網(wǎng)關(guān)通信

    電機(jī)高效再制造在企業(yè)生產(chǎn)中的應(yīng)用

    高效再制造在企業(yè)生產(chǎn)中的應(yīng)用.pdf (免責(zé)聲明:本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時間告知,刪除內(nèi)容?。?
    發(fā)表于 04-07 17:31

    十大鮮為人知卻功能強(qiáng)大的機(jī)器學(xué)習(xí)模型

    本文轉(zhuǎn)自:QuantML當(dāng)我們談?wù)?b class='flag-5'>機(jī)器學(xué)習(xí)時,線性回歸、決策樹和神經(jīng)網(wǎng)絡(luò)這些常見的算法往往占據(jù)了主導(dǎo)地位。然而,除了這些眾所周知的模型之外,還存在一些鮮為人知但功能強(qiáng)大的算法,它們能夠以驚人的效率
    的頭像 發(fā)表于 04-02 14:10 ?1098次閱讀
    十大鮮為人知卻功能強(qiáng)大的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    電子產(chǎn)品生產(chǎn)中的電路板布線設(shè)計

    電子產(chǎn)品的生產(chǎn)中,電路板布線設(shè)計和激光焊錫技術(shù)是兩個關(guān)鍵環(huán)節(jié),直接影響產(chǎn)品的性能、可靠性和生產(chǎn)效率。
    的頭像 發(fā)表于 03-18 14:31 ?1003次閱讀
    電子產(chǎn)品<b class='flag-5'>生產(chǎn)中</b>的電路板布線設(shè)計