91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何理解泛化是深度學(xué)習(xí)領(lǐng)域尚未解決的基礎(chǔ)問題

Tensorflowers ? 來源:TensorFlow ? 作者:Google Research 團(tuán)隊(duì) ? 2021-04-08 17:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如何理解泛化是深度學(xué)習(xí)領(lǐng)域尚未解決的基礎(chǔ)問題之一。為什么使用有限訓(xùn)練數(shù)據(jù)集優(yōu)化模型能使模型在預(yù)留測(cè)試集上取得良好表現(xiàn)?這一問題距今已有 50 多年的豐富歷史,并在機(jī)器學(xué)習(xí)中得到廣泛研究。如今有許多數(shù)學(xué)工具可以用來幫助研究人員了解某些模型的泛化能力。但遺憾的是,現(xiàn)有的大多數(shù)理論都無法應(yīng)用到現(xiàn)代深度網(wǎng)絡(luò)中,這些理論在現(xiàn)實(shí)環(huán)境中顯得既空泛又不可預(yù)測(cè)。而理論和實(shí)踐之間的差距 在過度參數(shù)化模型中尤為巨大,這類模型在理論上能夠擬合訓(xùn)練集,但在實(shí)踐中卻不能做到。

豐富歷史

數(shù)學(xué)工具

過度參數(shù)化

在《Deep Bootstrap 框架:擁有出色的在線學(xué)習(xí)能力即是擁有出色的泛化能力》(The Deep Bootstrap Framework: Good Online Learners are Good Offline Generalizers)(收錄于 ICLR 2021)這篇論文中,我們提出了一個(gè)解決此問題的新框架,該框架能夠?qū)⒎夯c在線優(yōu)化領(lǐng)域聯(lián)系起來。在通常情況下,模型會(huì)在有限的樣本集上進(jìn)行訓(xùn)練,而這些樣本會(huì)在多個(gè)訓(xùn)練周期中被重復(fù)使用。但就在線優(yōu)化而言,模型可以訪問無限的樣本流,并且可以在處理樣本流的同時(shí)進(jìn)行迭代更新。在這項(xiàng)研究中,我們發(fā)現(xiàn),能使用無限數(shù)據(jù)快速訓(xùn)練的模型,它們?cè)谟邢迶?shù)據(jù)上同樣具有良好的泛化表現(xiàn)。二者之間的這種關(guān)聯(lián)為設(shè)計(jì)實(shí)踐提供了新思路,同時(shí)也為從理論角度理解泛化找到了方向。

《Deep Bootstrap 框架:擁有出色的在線學(xué)習(xí)能力即是擁有出色的泛化能力》

Deep Bootstrap 框架

Deep Bootstrap 框架的主要思路是將訓(xùn)練數(shù)據(jù)有限的現(xiàn)實(shí)情況與數(shù)據(jù)無限的“理想情況”進(jìn)行比較。它們的定義如下:

現(xiàn)實(shí)情況(N、T):使用來自一個(gè)分布的 N 個(gè)訓(xùn)練樣本訓(xùn)練模型;在 T 個(gè)小批量隨機(jī)梯度下降 (SGD) 步驟中,照常在多個(gè)訓(xùn)練周期中重復(fù)使用這 N 個(gè)樣本。這相當(dāng)于針對(duì)經(jīng)驗(yàn)損失(訓(xùn)練數(shù)據(jù)的損失)運(yùn)行 SGD 算法,這是監(jiān)督學(xué)習(xí)中的標(biāo)準(zhǔn)訓(xùn)練程序。

理想情況(T):在 T 個(gè)步驟中訓(xùn)練同一個(gè)模型,但在每個(gè) SGD 步驟中使用來自分布的新樣本。也就是說,我們運(yùn)行相同的訓(xùn)練代碼(相同的優(yōu)化器、學(xué)習(xí)速率、批次大小等),但在每個(gè)訓(xùn)練周期中采用全新的訓(xùn)練樣本集,而不是重復(fù)使用相同的樣本。理想情況下,對(duì)于一個(gè)幾乎達(dá)到無限的“訓(xùn)練集”而言,其訓(xùn)練誤差和測(cè)試誤差之間相差無幾。

35bc07e2-984e-11eb-8b86-12bb97331649.gif

在 SGD 迭代期間 ResNet-18 架構(gòu)理想情況及現(xiàn)實(shí)情況的測(cè)試軟誤差??梢钥吹剑瑑煞N誤差非常相近

一般而言,我們認(rèn)為現(xiàn)實(shí)情況和理想情況不會(huì)有任何關(guān)聯(lián),因?yàn)樵诂F(xiàn)實(shí)世界中用于模型處理的來自分布的示例數(shù)量是有限的,而在理想世界中模型處理的示例數(shù)量是無限的。但在實(shí)踐中,我們發(fā)現(xiàn)現(xiàn)實(shí)情況模型和理想情況模型之間的測(cè)試誤差非常相近。

為了將此觀察結(jié)果量化,我們通過創(chuàng)建一個(gè)名為 CIFAR-5m 的數(shù)據(jù)集模擬了一種理想情況。我們使用 CIFAR-10 訓(xùn)練了一個(gè)生成模型,然后利用該模型生成約六百萬個(gè)圖像。選擇生成這么多圖像的目的是為了使此數(shù)據(jù)集對(duì)于模型而言具有“近乎無限性”,從而避免模型重復(fù)采樣相同的數(shù)據(jù)。也就是說,在理想情況下,模型面對(duì)的是一組全新的樣本。

CIFAR-5m

生成模型

下圖給出了幾種模型的測(cè)試誤差,對(duì)比了它們?cè)诂F(xiàn)實(shí)情況(如重復(fù)使用數(shù)據(jù))和理想情況(使用“全新”數(shù)據(jù))中使用 CIFAR-5m 數(shù)據(jù)訓(xùn)練的表現(xiàn)。藍(lán)色實(shí)線展示了 ResNet 模型在現(xiàn)實(shí)情況下使用標(biāo)準(zhǔn) CIFAR-10 超參數(shù)針對(duì) 50000 個(gè)樣本訓(xùn)練 100 個(gè)周期的表現(xiàn)。藍(lán)色虛線展示了同樣的模型在理想情況下使用五百萬個(gè)樣本一次性訓(xùn)練完畢的表現(xiàn)。出人意料的是,現(xiàn)實(shí)情況和理想情況下的測(cè)試誤差非常接近,在某種程度上模型并不會(huì)受到樣本是重復(fù)使用還是全新的影響。

36cb59f8-984e-11eb-8b86-12bb97331649.png

現(xiàn)實(shí)情況下的模型使用 50000 個(gè)樣本訓(xùn)練 100 個(gè)周期,理想情況下的模型使用五百萬個(gè)樣本訓(xùn)練一個(gè)周期。圖中的線展示了測(cè)試誤差以及 SGD 步驟的執(zhí)行次數(shù)

這個(gè)結(jié)果也適用于其他架構(gòu),如多層感知架構(gòu)(紅線)、視覺 Transformer(綠線),以及許多其他架構(gòu)、優(yōu)化器、數(shù)據(jù)分布和樣本大小設(shè)置。從這些實(shí)驗(yàn)中,我們得出了一個(gè)關(guān)于泛化的新觀點(diǎn),即能使用無限數(shù)據(jù)快速優(yōu)化的模型,同樣能使用有限數(shù)據(jù)進(jìn)行良好的泛化。例如,ResNet 模型使用有限數(shù)據(jù)進(jìn)行泛化的能力要優(yōu)于 MLP 模型,其原因在于 ResNet 模型使用無限數(shù)據(jù)進(jìn)行優(yōu)化的速度更快。

多層感知

基于優(yōu)化行為理解泛化

我們從中得出一個(gè)重要的觀察結(jié)果,即直到現(xiàn)實(shí)情況開始收斂前,現(xiàn)實(shí)情況和理想情況下的模型在所有時(shí)刻的測(cè)試誤差都非常接近(訓(xùn)練誤差 《 1%)。因此,我們可以通過研究模型在理想情況下的行為來理解它們?cè)诂F(xiàn)實(shí)情況下的表現(xiàn)。

也就是說,模型的泛化可以通過研究其在兩種框架下的優(yōu)化表現(xiàn)來理解:

1. 在線優(yōu)化:其用于在理想情況下觀察測(cè)試誤差的減小速度

2. 離線優(yōu)化:其用于在現(xiàn)實(shí)情況下觀察訓(xùn)練誤差的收斂速度

因此,研究泛化時(shí),我們可以相應(yīng)地研究上述兩個(gè)方面,它們僅涉及優(yōu)化問題,因此在概念上較為簡(jiǎn)單。通過這項(xiàng)觀察,我們發(fā)現(xiàn)出色的模型和訓(xùn)練程序均符合兩個(gè)條件:(1) 能在理想情況下快速優(yōu)化;(2) 在現(xiàn)實(shí)情況下的優(yōu)化速度較慢。

所有深度學(xué)習(xí)設(shè)計(jì)方案都能通過了解它們?cè)谶@兩方面的表現(xiàn)來進(jìn)行評(píng)估。例如,一些改進(jìn),比如卷積、殘差連接和預(yù)訓(xùn)練等,其主要作用是加速理想情況的優(yōu)化,而另一些改進(jìn),比如正則化和數(shù)據(jù)增強(qiáng)等,其主要作用則是減慢現(xiàn)實(shí)情況的優(yōu)化。

應(yīng)用 Deep Bootstrap 框架

研究人員可以使用 Deep Bootstrap 框架來研究和指導(dǎo)深度學(xué)習(xí)設(shè)計(jì)方案。它所依循的原則是:每當(dāng)我們做出影響現(xiàn)實(shí)情況泛化能力的更改時(shí)(架構(gòu)、學(xué)習(xí)速率等),我們都應(yīng)考慮它對(duì)以下兩方面帶來的影響:(1) 理想情況的測(cè)試誤差優(yōu)化(越快越好)以及 (2) 現(xiàn)實(shí)情況的訓(xùn)練誤差優(yōu)化(越慢越好)。

例如, 預(yù)訓(xùn)練在實(shí)踐中通常用于促進(jìn)小數(shù)據(jù)體系中的模型泛化。然而,人們對(duì)預(yù)訓(xùn)練發(fā)生作用的機(jī)理知之甚少。我們可以使用 Deep Bootstrap 框架,通過觀察預(yù)訓(xùn)練對(duì)上述兩方面形成的影響研究這個(gè)問題。我們發(fā)現(xiàn),預(yù)訓(xùn)練的主要作用是促進(jìn)理想情況的優(yōu)化 (1),即使網(wǎng)絡(luò)能夠“快速學(xué)習(xí)”在線優(yōu)化。預(yù)訓(xùn)練模型泛化能力的增強(qiáng)幾乎總能帶來其在理想情況下優(yōu)化能力的提高。下圖比較了使用 CIFAR-10 訓(xùn)練的視覺 Transformers (ViT) 在 ImageNet 上從零開始訓(xùn)練和預(yù)訓(xùn)練之間的差別。

ImageNet

372c0f96-984e-11eb-8b86-12bb97331649.png

預(yù)訓(xùn)練的作用:經(jīng)過預(yù)訓(xùn)練的 ViT 在理想情況下的優(yōu)化速度更快

我們還可以使用此框架研究數(shù)據(jù)增強(qiáng)。在理想情況下的數(shù)據(jù)增強(qiáng)相當(dāng)于對(duì)每個(gè)新樣本進(jìn)行一次增強(qiáng),而不是對(duì)同一個(gè)樣本進(jìn)行多次增強(qiáng)。此框架意味著好的數(shù)據(jù)增強(qiáng)均符合兩個(gè)條件:(1) 不會(huì)嚴(yán)重?fù)p害理想情況的優(yōu)化(即增強(qiáng)樣本的分布不會(huì)過于“失范”),(2) 抑制現(xiàn)實(shí)情況的優(yōu)化速度(以使現(xiàn)實(shí)世界花更多時(shí)間擬合其訓(xùn)練集)。

數(shù)據(jù)增強(qiáng)的主要作用通過第二條:延長(zhǎng)現(xiàn)實(shí)情況的優(yōu)化時(shí)間來實(shí)現(xiàn)。關(guān)于第一條,一些激進(jìn)的數(shù)據(jù)增強(qiáng) (混合/剪切) 可能會(huì)對(duì)理想情況造成不良影響,但這種影響與第二條相比不值一提。

結(jié)語

Deep Bootstrap 框架為理解深度學(xué)習(xí)的泛化和經(jīng)驗(yàn)現(xiàn)象提供了一個(gè)新角度。我們非常期待能夠在未來看到它被用于理解深度學(xué)習(xí)的其他方面。尤為有趣的是,泛化可以通過純粹的優(yōu)化方面的考量來描述, 這在理論上和許多主流方法相悖。至關(guān)重要的是,我們需同時(shí)考慮在線優(yōu)化和離線優(yōu)化,單獨(dú)考慮二者中的任何一個(gè)都是不夠的,它們共同決定了泛化能力。

主流方法

Deep Bootstrap 框架還揭曉了為什么深度學(xué)習(xí)對(duì)于許多設(shè)計(jì)方案都異常穩(wěn)健,原因是許多中架構(gòu)、損失函數(shù)、優(yōu)化器、標(biāo)準(zhǔn)化和激活函數(shù)都具有良好的泛化能力。這個(gè)框架揭示了一個(gè)普適定律:基本上任何具有良好在線優(yōu)化表現(xiàn)的設(shè)計(jì)方案,其都能在離線狀態(tài)下有良好的泛化表現(xiàn)。

最后,現(xiàn)代神經(jīng)網(wǎng)絡(luò)既可能過參數(shù)化(如使用小型數(shù)據(jù)任務(wù)訓(xùn)練的大型網(wǎng)絡(luò)),也可能欠參數(shù)化(如 OpenAI GPT-3、Google T5 或 Facebook ResNeXt WSL)。而 Deep Bootstrap 框架表明,在線優(yōu)化是在這兩種模式中取得成功的關(guān)鍵因素。

致謝

感謝我們的合著者 Behnam Neyshabur 對(duì)論文的巨大貢獻(xiàn)以及對(duì)于博文的寶貴反饋。感謝 Boaz Barak、Chenyang Yuan 和 Chiyuan Zhang 對(duì)于博文及論文的有益評(píng)論。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:透過新視角理解深度學(xué)習(xí)中的泛化

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問世以來,多個(gè)在線領(lǐng)域的數(shù)字格局迎來了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競(jìng)爭(zhēng)優(yōu)勢(shì),而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器
    的頭像 發(fā)表于 02-04 14:44 ?502次閱讀

    自動(dòng)駕駛大模型中常提的能力是指啥?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在討論自動(dòng)駕駛大模型時(shí),常會(huì)有幾個(gè)評(píng)價(jià)維度,如感知是否準(zhǔn)確、決策是否穩(wěn)定、系統(tǒng)是否足夠魯棒,以及模型有沒有“能力”。相比準(zhǔn)確率、延遲這些容易量化的指標(biāo),“
    的頭像 發(fā)表于 12-10 09:15 ?605次閱讀
    自動(dòng)駕駛大模型中常提的<b class='flag-5'>泛</b><b class='flag-5'>化</b>能力是指啥?

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動(dòng)領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)缺陷模式 非標(biāo)產(chǎn)品分類:對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評(píng)估:基于
    的頭像 發(fā)表于 11-27 10:19 ?230次閱讀

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    人士而言往往難以理解,人們也常常誤以為需要扎實(shí)的編程技能才能真正掌握并合理使用這項(xiàng)技術(shù)。事實(shí)上,這種印象忽視了該技術(shù)為機(jī)器視覺(乃至生產(chǎn)自動(dòng))帶來的潛力,因?yàn)?b class='flag-5'>深度學(xué)習(xí)并非只屬于計(jì)算機(jī)
    的頭像 發(fā)表于 09-10 17:38 ?911次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    廣電計(jì)量與聯(lián)新安達(dá)成戰(zhàn)略合作

    9月1日,廣電計(jì)量與湖南聯(lián)新安信息科技有限公司(以下簡(jiǎn)稱“聯(lián)新安”)在廣電計(jì)量科技產(chǎn)業(yè)園舉行戰(zhàn)略合作簽約儀式。雙方將圍繞人工智能應(yīng)用、軟件測(cè)試工具開發(fā)、行業(yè)標(biāo)準(zhǔn)制定、政府項(xiàng)目申報(bào)等領(lǐng)域開展
    的頭像 發(fā)表于 09-02 18:26 ?870次閱讀

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實(shí)施路徑三個(gè)維度展開分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價(jià)值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)中70%以上的數(shù)據(jù)為非結(jié)構(gòu)數(shù)據(jù)(如設(shè)備振
    的頭像 發(fā)表于 08-20 14:56 ?1038次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4203次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語音識(shí)別、圖像識(shí)別、自然語言處理等領(lǐng)域
    發(fā)表于 07-14 14:50 ?1252次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    明晚開播 |數(shù)據(jù)智能系列講座第7期:面向高能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第7期「面向高能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)」明晚8點(diǎn)精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目面向高
    的頭像 發(fā)表于 06-24 08:01 ?1076次閱讀
    明晚開播 |數(shù)據(jù)智能系列講座第7期:面向高<b class='flag-5'>泛</b><b class='flag-5'>化</b>能力的視覺感知系統(tǒng)空間建模與微調(diào)<b class='flag-5'>學(xué)習(xí)</b>

    直播預(yù)約 |數(shù)據(jù)智能系列講座第7期:面向高能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第7期「面向高能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)」6月25日(周三)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目面向高
    的頭像 發(fā)表于 05-29 10:04 ?641次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第7期:面向高<b class='flag-5'>泛</b><b class='flag-5'>化</b>能力的視覺感知系統(tǒng)空間建模與微調(diào)<b class='flag-5'>學(xué)習(xí)</b>

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)
    的頭像 發(fā)表于 04-02 18:21 ?1525次閱讀

    行業(yè)首創(chuàng):基于深度學(xué)習(xí)視覺平臺(tái)的AI驅(qū)動(dòng)輪胎檢測(cè)自動(dòng)

    全球領(lǐng)先的輪胎制造商 NEXEN TIRE 在其輪胎生產(chǎn)檢測(cè)過程中使用了基于友思特伙伴Neurocle開發(fā)的AI深度學(xué)習(xí)視覺平臺(tái),實(shí)現(xiàn)缺陷檢測(cè)率高達(dá)99.96%,是該行業(yè)首個(gè)使用AI平臺(tái)技術(shù)推動(dòng)缺陷檢測(cè)自動(dòng)流程的企業(yè)。
    的頭像 發(fā)表于 03-19 16:51 ?1030次閱讀
    行業(yè)首創(chuàng):基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>視覺平臺(tái)的AI驅(qū)動(dòng)輪胎檢測(cè)自動(dòng)<b class='flag-5'>化</b>

    【AIBOX 應(yīng)用案例】單目深度估計(jì)

    ?Firefly所推出的NVIDIA系列的AIBOX可實(shí)現(xiàn)深度估計(jì),該技術(shù)是一種從單張或者多張圖像預(yù)測(cè)場(chǎng)景深度信息的技術(shù),廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域,尤其是在三維重建、場(chǎng)景理解和環(huán)境感知
    的頭像 發(fā)表于 03-19 16:33 ?1118次閱讀
    【AIBOX 應(yīng)用案例】單目<b class='flag-5'>深度</b>估計(jì)