導(dǎo)讀
為什么我們的機(jī)器學(xué)習(xí)項(xiàng)目會(huì)失???
創(chuàng)造一個(gè)大的機(jī)器學(xué)習(xí)系統(tǒng)是一門藝術(shù)。
在構(gòu)建一個(gè)大的機(jī)器學(xué)習(xí)系統(tǒng)時(shí),有很多事情需要考慮。但作為數(shù)據(jù)科學(xué)家,我們常常只擔(dān)心項(xiàng)目的某些部分。
但是我們是否考慮過一旦我們擁有了模型,我們將如何部署它們?
我見過許多 ML 項(xiàng)目,其中許多項(xiàng)目注定要失敗,因?yàn)樗鼈儚囊婚_始就沒有一個(gè)固定的生產(chǎn)計(jì)劃。
這篇文章是關(guān)于一個(gè)成功的 ML 項(xiàng)目的過程需求 —— 一個(gè)進(jìn)入生產(chǎn)的項(xiàng)目。
1. 在開始的時(shí)候建立基線
你并不需要用模型來獲得基線結(jié)果。
假設(shè)我們將使用 RMSE 作為我們的時(shí)間序列模型的評估指標(biāo)。我們在測試集上對模型進(jìn)行了評估,RMSE 為 3.64。
3.64 是個(gè)好 RMSE 嗎?我們怎么知道?我們需要一個(gè)基線 RMSE。
這可能來自當(dāng)前使用的用于相同任務(wù)的模型?;蛘呤褂靡恍┓浅:唵蔚膯l(fā)式。對于時(shí)間序列模型,需要打敗的基線是最后一天的預(yù)測。即,預(yù)測前一天的數(shù)字。
如果是圖像分類任務(wù),取 1000 個(gè)有標(biāo)簽的樣本。而人類的準(zhǔn)確性可以作為你的基線。如果一個(gè)人不能在任務(wù)中獲得 70%的預(yù)測精度,那么如果你的模型達(dá)到類似的水平,你總是可以考慮將流程自動(dòng)化。
學(xué)習(xí):在你創(chuàng)建模型之前,試著了解你將要得到的結(jié)果。設(shè)定一些不切實(shí)際的期望只會(huì)讓你和你的客戶失望。
2. 持續(xù)集成是前進(jìn)的方向
你現(xiàn)在已經(jīng)創(chuàng)建了你的模型。它在本地測試數(shù)據(jù)集上的性能比基線/當(dāng)前模型要好。我們應(yīng)該繼續(xù)前進(jìn)嗎?
我們有兩個(gè)選擇:
進(jìn)一步改進(jìn)我們的模型,這是一個(gè)無止境的循環(huán)。
在生產(chǎn)環(huán)境中測試我們的模型,得到更多關(guān)于可能出錯(cuò)的信息,然后使用持續(xù)集成來改進(jìn)我們的模型。
我支持第二種方法。Andrew Ng 在 Coursera 上的第三門課,“Deep Learning Specialization”中的“Structuring Machine learning”中說:
“不要一開始就試圖設(shè)計(jì)和構(gòu)建完美的系統(tǒng)。相反,應(yīng)該快速地建立和訓(xùn)練一個(gè)基本的系統(tǒng) —— 也許只需要幾天的時(shí)間。即使基本的系統(tǒng)遠(yuǎn)遠(yuǎn)不是你能建立的“最好”的系統(tǒng),檢查基本的系統(tǒng)是有價(jià)值的:你會(huì)很快找到一些線索,告訴你在哪些方面最值得投入你的時(shí)間。
完成比完美更好。
學(xué)習(xí):如果你的新模型比當(dāng)前生產(chǎn)中的模型更好,或者你的新模型比基線更好,那么等待投入生產(chǎn)是沒有意義的。
3. 你的模型可能會(huì)進(jìn)入生產(chǎn)
你的模型是否優(yōu)于基線?它在本地測試數(shù)據(jù)集上表現(xiàn)得更好,但是它真的能在整體上工作得很好嗎?
為了測試你的模型優(yōu)于現(xiàn)有模型的假設(shè)的有效性,你可以設(shè)置一個(gè)A/B 測試。一些用戶(測試組)看到來自你的模型的預(yù)測,而一些用戶(控制組)看到來自前一個(gè)模型的預(yù)測。
事實(shí)上,這是部署模型的正確方式。你可能會(huì)發(fā)現(xiàn)你的模型并沒有看起來那么好。
錯(cuò)了并不是真的錯(cuò),錯(cuò)的是沒有預(yù)料到我們可能會(huì)錯(cuò)。
很難指出你的模型在生產(chǎn)環(huán)境中表現(xiàn)不佳的真正原因,但一些原因可能是:
你可能會(huì)看到實(shí)時(shí)的數(shù)據(jù)與訓(xùn)練數(shù)據(jù)有很大的不同。
或者你沒有正確地完成預(yù)處理 pipeline。
或者你沒有正確地衡量 performance。
或者你的實(shí)現(xiàn)中有一個(gè) bug。
學(xué)習(xí):不要全面投入生產(chǎn)。A/B 測試永遠(yuǎn)是前進(jìn)的好方法。準(zhǔn)備一些可以依靠的東西(可能是一個(gè)更老的模型)??傆幸恍〇|西會(huì)出問題,這是你無法預(yù)料的。
4. 你的模型可能不會(huì)投入生產(chǎn)中
我創(chuàng)建了這個(gè)令人印象深刻的 ML 模型,它提供了 90%的準(zhǔn)確性,但它需要大約 10 秒鐘來獲取預(yù)測。
**這樣可接受嗎?**對于某些用例可能是,但實(shí)際上不是。
在過去,有許多 Kaggle 競賽的獲勝者最終創(chuàng)造了非常大的模型集成,占據(jù)了排行榜的榜首。下面是一個(gè)例子模型,它曾在 Kaggle 上贏得 Otto 分類挑戰(zhàn):
在Level1上用了33個(gè)模型和8種特征工程
另一個(gè)例子是 Netflix 百萬美元推薦引擎挑戰(zhàn)。由于涉及的工程成本,Netflix 團(tuán)隊(duì)最終沒有使用獲獎(jiǎng)解決方案。
那么,如何讓你的模型在機(jī)器上既準(zhǔn)確又簡單呢?
這就引出了 Teacher-Student 模型或“知識蒸餾”的概念。在知識蒸餾中,我們在一個(gè)更大的已經(jīng)訓(xùn)練好的教師模型上訓(xùn)練一個(gè)更小的學(xué)生模型。
這里我們使用來自教師模型的軟標(biāo)簽/概率,并將其作為學(xué)生模型的訓(xùn)練數(shù)據(jù)。
關(guān)鍵是,老師輸出類別概率 —— “軟標(biāo)簽”而不是“硬標(biāo)簽”。例如,一個(gè)水果分類器可能會(huì)說“Apple 0.9, Pear 0.1”而不是“Apple 1.0, Pear 0.0”。為什么要這樣呢?因?yàn)檫@些“軟標(biāo)簽”比原來的標(biāo)簽信息更豐富——告訴學(xué)生,是的,這個(gè)蘋果確實(shí)有點(diǎn)像梨。學(xué)生模型通常可以非常接近教師水平的表現(xiàn),即使參數(shù)少了 1-2 個(gè)數(shù)量級!
學(xué)習(xí):有時(shí),我們的預(yù)測時(shí)間很有限,所以我們想要一個(gè)更輕的模型。我們可以嘗試構(gòu)建更簡單的模型,或者嘗試對這樣的用例使用知識蒸餾。
5. 周期性的維護(hù)和反饋
世界不是恒定的,你的模型權(quán)重也不是恒定的
我們周圍的世界正在迅速變化,兩個(gè)月前可能適用的東西現(xiàn)在可能已經(jīng)不適用了。在某種程度上,我們建立的模型是對世界的反映,如果世界在變化,我們的模型應(yīng)該能夠反映這種變化。
模型性能通常隨時(shí)間而下降。
由于這個(gè)原因,我們必須在一開始就考慮將我們的模型升級作為維護(hù)的一部分
維護(hù)周期的頻率完全取決于你試圖解決的業(yè)務(wù)問題。在一個(gè)廣告預(yù)測系統(tǒng)中,用戶往往變化無常,購買模式不斷出現(xiàn),需要相當(dāng)高的頻率。而在評論情緒分析系統(tǒng)中,由于語言本身的結(jié)構(gòu)變化不是很大,所以頻率不需要那么高。
我還必須要承認(rèn)反饋回路在機(jī)器學(xué)習(xí)系統(tǒng)中的重要性。假設(shè)你用貓狗分類器預(yù)測了一個(gè)的圖像是狗,但是概率很低。我們能從這些低置信度的例子中學(xué)到什么嗎?你可以將其發(fā)送到手動(dòng)檢查,以檢查它是否可以用于重新訓(xùn)練模型。通過這種方式,我們可以在它不確定的樣本上訓(xùn)練分類器。
學(xué)習(xí):在考慮生產(chǎn)時(shí),提出使用反饋來維護(hù)和改進(jìn)模型的計(jì)劃。
總結(jié)
在考慮將模型投入生產(chǎn)之前,我發(fā)現(xiàn)這些事情是很重要的。
雖然這并不是你需要考慮的事情和可能出錯(cuò)的事情的詳盡列表,但它無疑可以作為你下次創(chuàng)建機(jī)器學(xué)習(xí)系統(tǒng)時(shí)的思想食糧。
-
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8554瀏覽量
136981
發(fā)布評論請先 登錄
基于ETAS嵌入式AI工具鏈將機(jī)器學(xué)習(xí)模型部署到量產(chǎn)ECU
RA8P1部署ai模型指南:從訓(xùn)練模型到部署?|?本周六
vision board部署模型到openmv的代碼導(dǎo)致連接超時(shí)怎么解決?
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
使用aicube進(jìn)行目標(biāo)檢測識別數(shù)字項(xiàng)目的時(shí)候,在評估環(huán)節(jié)卡住了,怎么解決?
3Dfindit 提供的數(shù)字立方體模型為研究項(xiàng)目的可視化提供了支持
超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.
邊緣計(jì)算中的機(jī)器學(xué)習(xí):基于 Linux 系統(tǒng)的實(shí)時(shí)推理模型部署與工業(yè)集成!
如何使用Docker部署大模型
【「# ROS 2智能機(jī)器人開發(fā)實(shí)踐」閱讀體驗(yàn)】機(jī)器人入門的引路書
NanoEdge AI Studio 面向STM32開發(fā)人員機(jī)器學(xué)習(xí)(ML)技術(shù)
Raspberry Pi Pico 2 上實(shí)現(xiàn):實(shí)時(shí)機(jī)器學(xué)習(xí)(ML)音頻噪音抑制功能
機(jī)器學(xué)習(xí)模型部署到ML項(xiàng)目的過程
評論