91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Waymo用AutoML自動(dòng)生成機(jī)器學(xué)習(xí)模型

ml8z_IV_Technol ? 來源:cc ? 2019-01-19 09:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Waymo十周年之際,發(fā)布了自動(dòng)駕駛機(jī)器學(xué)習(xí)模型的構(gòu)建思路,原來很多內(nèi)部機(jī)器學(xué)習(xí)架構(gòu)是由 AutoML 完成的。這種自動(dòng)機(jī)器學(xué)習(xí)算法在激光雷達(dá)分割任務(wù)中,比人工創(chuàng)建的網(wǎng)絡(luò)質(zhì)量更高。在代理端到端搜索中,甚至發(fā)現(xiàn)了卷積、池化和反卷積操作的創(chuàng)造性組合,不禁讓人感嘆算法工程師要失業(yè)?

AutoML 全稱是 Automated Machine Learning,是2014年以來,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域最炙手可熱的領(lǐng)域之一。2017年5月,谷歌在I/O大會(huì)上推出基于TensorFlow 框架下的AutoML,它可以通過神經(jīng)網(wǎng)絡(luò)來設(shè)計(jì)神經(jīng)網(wǎng)絡(luò),節(jié)省人工設(shè)計(jì)的時(shí)間,其對(duì)專業(yè)知識(shí)的較低,讓非機(jī)器學(xué)習(xí)專家也能輕松上手。而在近日waymo十周年上曝光,其AutoML 已經(jīng)用來設(shè)計(jì)應(yīng)用于自動(dòng)駕駛上的機(jī)器學(xué)習(xí)算法。

在Waymo,機(jī)器學(xué)習(xí)幾乎應(yīng)用在自動(dòng)駕駛系統(tǒng)的每個(gè)角落。它可以幫助無人車感知周圍環(huán)境,了解世界,預(yù)測(cè)其他人的行為方式,并預(yù)測(cè)他們的下一步行動(dòng)。

以感知為例,Waymo的系統(tǒng)采用了神經(jīng)網(wǎng)絡(luò)的組合,使無人車能夠解讀傳感器數(shù)據(jù)、識(shí)別物體,并隨著時(shí)間的推移跟蹤它們,從而對(duì)周圍的世界有一個(gè)深入的了解。這些神經(jīng)網(wǎng)絡(luò)的創(chuàng)建通常是一項(xiàng)耗時(shí)的任務(wù),優(yōu)化神經(jīng)網(wǎng)絡(luò)架構(gòu)以實(shí)現(xiàn)在自動(dòng)駕駛汽車上運(yùn)行所需的質(zhì)量和速度是一個(gè)復(fù)雜的微調(diào)過程,需要花費(fèi)工程師數(shù)月時(shí)間完成任務(wù)。

通過與谷歌AI大腦團(tuán)隊(duì)研究人員合作,應(yīng)用AutoML將前沿研究付諸實(shí)踐,以自動(dòng)生成神經(jīng)網(wǎng)絡(luò)。更重要的是,這些最先進(jìn)的神經(jīng)網(wǎng)絡(luò)比工程師手動(dòng)微調(diào)質(zhì)量更高和速度更快。

Waymo 為了將自動(dòng)駕駛技術(shù)應(yīng)用到不同的城市和環(huán)境中,需要以極快的速度優(yōu)化現(xiàn)有模型以適應(yīng)不同的場(chǎng)景。恰好 AutoML 能夠做到這一點(diǎn),并高效,持續(xù)地提供大量的ML解決方案。

應(yīng)用現(xiàn)有的AutoML框架進(jìn)行遷移學(xué)習(xí)

Auto ML能否為汽車生成高質(zhì)量、低延遲的神經(jīng)網(wǎng)絡(luò)?

質(zhì)量往往是衡量一個(gè)神經(jīng)網(wǎng)絡(luò)產(chǎn)生的答案的準(zhǔn)確性的標(biāo)準(zhǔn),延遲數(shù)據(jù)決定了神經(jīng)網(wǎng)絡(luò)提供答案的速度,也稱為推理時(shí)間。由于自動(dòng)駕駛是一項(xiàng)需要無人車快速做出決定以保證安全的系統(tǒng),因此神經(jīng)網(wǎng)絡(luò)需要保證在低延遲下進(jìn)行。運(yùn)行在Waymo無人車上的大多數(shù)網(wǎng)絡(luò),延遲都少于10毫秒,這比部署在數(shù)千臺(tái)服務(wù)器上的數(shù)據(jù)中心中的許多網(wǎng)絡(luò)都要快。

Google AI團(tuán)隊(duì)在2018年4月發(fā)表的論文(Learning Transferable Architectures for Scalable ImageRecognition)中,能夠自動(dòng)探索超過12,000種架構(gòu)來完成 CIFAR-10 數(shù)據(jù)集的經(jīng)典圖像識(shí)別任務(wù),其中發(fā)現(xiàn)的自我創(chuàng)建的NAS單元比手工創(chuàng)建神經(jīng)網(wǎng)絡(luò)更好。將在CIFAR-10上學(xué)到的知識(shí)轉(zhuǎn)移到自動(dòng)駕駛?cè)蝿?wù)中,它可以很好的完成語義分割的任務(wù),比如將LiDAR點(diǎn)云中的每個(gè)點(diǎn)標(biāo)識(shí)為汽車,行人,樹等。

NAS單元處理神經(jīng)網(wǎng)絡(luò)中前兩個(gè)層的輸入

通過構(gòu)建一種自動(dòng)搜索算法,在卷積網(wǎng)絡(luò)架構(gòu)(CNN)中探索數(shù)百種不同的NAS單元組合,進(jìn)行 LiDAR 分割任務(wù)訓(xùn)練和評(píng)估模型。如果采用人工微調(diào),只能探索有限數(shù)量的架構(gòu),但通過這種方法,自動(dòng)探索了數(shù)百個(gè)。

相比人工微調(diào)優(yōu)化神經(jīng)網(wǎng)絡(luò),AutoML輸出的神經(jīng)網(wǎng)絡(luò)做到了低延遲、高質(zhì)量效果。

初步成功后,Waymo將相同的搜索算法應(yīng)用于另外兩個(gè)與交通車道檢測(cè)和定位相關(guān)的任務(wù),遷移學(xué)習(xí)技術(shù)也適用于這些任務(wù),最后能夠在無人車上部署三個(gè)新訓(xùn)練和改進(jìn)的神經(jīng)網(wǎng)絡(luò)。

端到端搜索:從頭開始搜索新的架構(gòu)

發(fā)現(xiàn)AutoML巨大潛力后,Waymo開始思考是否可以更進(jìn)一步、更廣泛地尋找能夠提供更好結(jié)果的全新架構(gòu)。不局限于NAS單元,可以更直接地找到延遲在限定范圍內(nèi)的架構(gòu)。

進(jìn)行端到端搜索往往需要手動(dòng)探索數(shù)千個(gè)架構(gòu),需要大量的計(jì)算成本。找到單一架構(gòu)需要在多個(gè)GPU的計(jì)算機(jī)上訓(xùn)練好幾天,這意味著搜索單個(gè)任務(wù)需要數(shù)千天的計(jì)算時(shí)間。相反,通過設(shè)計(jì)一個(gè)代理任務(wù):一個(gè)縮小的激光雷達(dá)分割任務(wù),可以在幾個(gè)小時(shí)內(nèi)解決。

這就意味著需要找到一個(gè)與最初的細(xì)分任務(wù)足夠相似的代理任務(wù)。在確定代理任務(wù)上的架構(gòu)質(zhì)量與原始任務(wù)上的架構(gòu)質(zhì)量之間的良好相關(guān)性之前,對(duì)幾個(gè)代理任務(wù)設(shè)計(jì)進(jìn)行試驗(yàn)。然后,啟動(dòng)一個(gè)類似于AutoML論文的搜索,完成一個(gè)端到端代理搜索。這是這個(gè)概念第一次應(yīng)用在激光雷達(dá)數(shù)據(jù)上。

代理端到端搜索:在按比例縮小的代理任務(wù)中探索數(shù)千個(gè)架構(gòu),將100個(gè)最佳應(yīng)用程序應(yīng)用于原始任務(wù),驗(yàn)證并部署最佳的最佳體系結(jié)構(gòu)。

通過使用幾種搜索算法,優(yōu)化質(zhì)量和延遲。查看不同類型的CNN架構(gòu)并使用不同的搜索策略,如隨機(jī)搜索和強(qiáng)化學(xué)習(xí),能夠?yàn)榇砣蝿?wù)探索10,000多種不同的架構(gòu)。通過使用代理任務(wù),在Google TPU集群上花費(fèi)一年多的計(jì)算時(shí)間現(xiàn)在只需要兩周時(shí)間。在NAS單元之外,我們發(fā)現(xiàn)了比以前更好的神經(jīng)網(wǎng)路,它在相同的質(zhì)量下,神經(jīng)網(wǎng)絡(luò)的延遲降低20-30%;具有更高質(zhì)量的神經(jīng)網(wǎng)絡(luò),錯(cuò)誤率降低8-10%,與以前的架構(gòu)具有相同的延遲。

左圖展示了在一組簡(jiǎn)單的架構(gòu)上隨機(jī)搜索發(fā)現(xiàn)的大約4000個(gè)架構(gòu)。每個(gè)點(diǎn)都是一個(gè)經(jīng)過訓(xùn)練和評(píng)估的架構(gòu)。實(shí)線表示不同推理時(shí)間約束下的最佳架構(gòu),紅點(diǎn)表示用遷移學(xué)習(xí)構(gòu)建的網(wǎng)絡(luò)的延遲和性能。在這種隨機(jī)搜索中,網(wǎng)絡(luò)學(xué)習(xí)效果不如遷移學(xué)習(xí)。右圖中,黃色和藍(lán)色的點(diǎn)表示另外兩種搜索算法的結(jié)果。黃色的是對(duì)一組精致架構(gòu)的隨機(jī)搜索。藍(lán)色的那個(gè)使用了強(qiáng)化學(xué)習(xí),探索了6000多個(gè)架構(gòu)。它產(chǎn)生了最好的結(jié)果。這兩個(gè)額外的搜索發(fā)現(xiàn),該網(wǎng)絡(luò)明顯優(yōu)于遷移學(xué)習(xí)的網(wǎng)絡(luò)。

在搜索中發(fā)現(xiàn)的一些架構(gòu)采用了卷積、池化和反卷積操作的創(chuàng)造性組合,如下圖所示。這些架構(gòu)最終非常適合最初的激光雷達(dá)分割任務(wù),并將部署在Waymo的自動(dòng)駕駛汽車上。

由代理端到端搜索發(fā)現(xiàn)的一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

Waymo與Google AI合作,應(yīng)用 AutoML 在無人駕駛上的實(shí)踐僅僅是個(gè)開始。對(duì)于激光雷達(dá)分割任務(wù),傳輸學(xué)習(xí)和代理端到端搜索都提供了比人工創(chuàng)建更好的網(wǎng)絡(luò),這些機(jī)制應(yīng)用到新的任務(wù)類型上,可以改善許多其他的神經(jīng)網(wǎng)絡(luò)。這一發(fā)展為未來的ML工作開辟了新的道路,并提高了Waymo的自動(dòng)駕駛技術(shù)的性能和能力。

看到這里是不是覺得很興奮,自己費(fèi)盡心思搭的神經(jīng)網(wǎng)路,AutoML 只需很短的時(shí)間就能得出高質(zhì)量的網(wǎng)絡(luò)結(jié)構(gòu)。當(dāng)然,目前谷歌只開源了輕量級(jí) AutoML 框架——AdaNet。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8554

    瀏覽量

    136981
  • waymo
    +關(guān)注

    關(guān)注

    2

    文章

    315

    瀏覽量

    25545

原文標(biāo)題:算法工程師要失業(yè)?Waymo嘗試用AutoML自動(dòng)生成機(jī)器學(xué)習(xí)模型

文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何構(gòu)建適合自動(dòng)駕駛的世界模型?

    [首發(fā)于智駕最前沿微信公眾號(hào)]世界模型經(jīng)歷了系統(tǒng)動(dòng)力學(xué)階段(1960年~2000年)、認(rèn)知科學(xué)階段(2001年~2017年)、深度學(xué)習(xí)階段(2018年至今),但將其應(yīng)用到自動(dòng)駕駛汽車上,還是近幾年才
    的頭像 發(fā)表于 02-18 08:14 ?1.1w次閱讀
    如何構(gòu)建適合<b class='flag-5'>自動(dòng)</b>駕駛的世界<b class='flag-5'>模型</b>?

    機(jī)器學(xué)習(xí)特征工程:分類變量的數(shù)值化處理方法

    編碼是機(jī)器學(xué)習(xí)流程里最容易被低估的環(huán)節(jié)之一,模型沒辦法直接處理文本形式的分類數(shù)據(jù),尺寸(Small/Medium/Large)、顏色(Red/Blue/Green)、城市、支付方式等都是典型的分類
    的頭像 發(fā)表于 02-10 15:58 ?346次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>特征工程:分類變量的數(shù)值化處理方法

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在談及自動(dòng)駕駛大模型訓(xùn)練時(shí),有的技術(shù)方案會(huì)采用模仿學(xué)習(xí),而有些會(huì)采用強(qiáng)化學(xué)習(xí)。同樣作為大模型的訓(xùn)練方式,強(qiáng)化
    的頭像 發(fā)表于 01-31 09:34 ?655次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)讓<b class='flag-5'>自動(dòng)</b>駕駛<b class='flag-5'>模型</b><b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    自動(dòng)駕駛中常提的模仿學(xué)習(xí)是什么?

    當(dāng)談及自動(dòng)駕駛模型學(xué)習(xí)時(shí),經(jīng)常會(huì)提到模仿學(xué)習(xí)的概念。所謂模仿學(xué)習(xí),就是模型先看別人怎么做,然后學(xué)
    的頭像 發(fā)表于 01-16 16:41 ?2001次閱讀

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注
    的頭像 發(fā)表于 01-07 15:37 ?204次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    基于ETAS嵌入式AI工具鏈將機(jī)器學(xué)習(xí)模型部署到量產(chǎn)ECU

    AI在汽車行業(yè)的應(yīng)用日益深化,如何將機(jī)器學(xué)習(xí)領(lǐng)域的先進(jìn)模型(如虛擬傳感器)集成到ECU軟件中,已成為業(yè)界面臨的核心挑戰(zhàn)。
    的頭像 發(fā)表于 12-24 10:55 ?6130次閱讀
    基于ETAS嵌入式AI工具鏈將<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>部署到量產(chǎn)ECU

    模型支撐后勤保障方案生成系統(tǒng)軟件平臺(tái)

    ? ? 北京五木恒潤(rùn)大模型支撐的后勤保障方案生成平臺(tái)系統(tǒng)軟件,依托人工智能大模型技術(shù),融合后勤保障領(lǐng)域?qū)I(yè)知識(shí)與實(shí)際需求,可自動(dòng)生成高效、精
    的頭像 發(fā)表于 12-17 16:51 ?495次閱讀

    自動(dòng)駕駛模型是如何“看”懂點(diǎn)云信息的?

    圖像那樣有整齊的像素網(wǎng)格,也沒有顏色(除非和相機(jī)融合),更沒有直接的語義標(biāo)記。 機(jī)器要“學(xué)會(huì)”點(diǎn)云里的東西,不僅要解決輸入怎么表示成模型能接受的數(shù)值結(jié)構(gòu),還要學(xué)習(xí)如何把人類的語義(比如“這是行人”“這是車道”)映射到這
    的頭像 發(fā)表于 11-29 10:25 ?1909次閱讀
    <b class='flag-5'>自動(dòng)</b>駕駛<b class='flag-5'>模型</b>是如何“看”懂點(diǎn)云信息的?

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來,隨著ChatGPT、Claude、文心一言等大語言模型生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4193次閱讀
    <b class='flag-5'>自動(dòng)</b>駕駛中Transformer大<b class='flag-5'>模型</b>會(huì)取代深度<b class='flag-5'>學(xué)習(xí)</b>嗎?

    利用NVIDIA Cosmos模型訓(xùn)練通用機(jī)器

    機(jī)器人領(lǐng)域的一大核心挑戰(zhàn)在于如何讓機(jī)器人掌握新任務(wù),而無需針對(duì)每個(gè)新任務(wù)和環(huán)境耗費(fèi)大量精力收集和標(biāo)注數(shù)據(jù)集。NVIDIA 的最新研究方案通過生成式 AI、世界基礎(chǔ)模型(如 NVIDIA
    的頭像 發(fā)表于 08-05 16:22 ?2120次閱讀
    利用NVIDIA Cosmos<b class='flag-5'>模型</b>訓(xùn)練通用<b class='flag-5'>機(jī)器</b>人

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級(jí)芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競(jìng)爭(zhēng)對(duì)手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文
    發(fā)表于 07-31 11:38

    通過NVIDIA Cosmos模型增強(qiáng)機(jī)器人學(xué)習(xí)

    通用機(jī)器人的時(shí)代已經(jīng)到來,這得益于機(jī)械電子技術(shù)和機(jī)器人 AI 基礎(chǔ)模型的進(jìn)步。但目前機(jī)器人技術(shù)的發(fā)展仍面臨一個(gè)關(guān)鍵挑戰(zhàn):機(jī)器人需要大量的訓(xùn)練
    的頭像 發(fā)表于 07-14 11:49 ?1100次閱讀
    通過NVIDIA Cosmos<b class='flag-5'>模型</b>增強(qiáng)<b class='flag-5'>機(jī)器人學(xué)習(xí)</b>

    福特CEO:Waymo的激光雷達(dá)方案比特斯拉純視覺方案更有意義

    (LiDAR)的方案“更合理”,然后他列舉了安全、消費(fèi)者信任以及基于攝像頭模型的局限性等因素來進(jìn)行說明。同時(shí)他也指出,特斯拉和 Waymo 都在自動(dòng)駕駛方面“取得了很大進(jìn)展”。法利還確認(rèn),他已就此事與馬斯克進(jìn)行過交談。盡管如此他
    的頭像 發(fā)表于 06-30 19:19 ?646次閱讀

    邊緣計(jì)算中的機(jī)器學(xué)習(xí):基于 Linux 系統(tǒng)的實(shí)時(shí)推理模型部署與工業(yè)集成!

    你好,旅行者!歡迎來到Medium的這一角落。在本文中,我們將把一個(gè)機(jī)器學(xué)習(xí)模型(神經(jīng)網(wǎng)絡(luò))部署到邊緣設(shè)備上,利用從ModbusTCP寄存器獲取的實(shí)時(shí)數(shù)據(jù)來預(yù)測(cè)一臺(tái)復(fù)古音頻放大器的當(dāng)前健康狀況。你將
    的頭像 發(fā)表于 06-11 17:22 ?1007次閱讀
    邊緣計(jì)算中的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>:基于 Linux 系統(tǒng)的實(shí)時(shí)推理<b class='flag-5'>模型</b>部署與工業(yè)集成!

    ?Diffusion生成式動(dòng)作引擎技術(shù)解析

    開發(fā)、虛擬現(xiàn)實(shí)、影視動(dòng)畫和機(jī)器人控制等領(lǐng)域具有廣泛應(yīng)用前景。以下是其核心原理、技術(shù)實(shí)現(xiàn)和應(yīng)用方向的詳細(xì)解析: 一、核心原理 擴(kuò)散模型基礎(chǔ) Diffusion模型通過逐步添加噪聲破壞數(shù)據(jù)(正向過程),再
    的頭像 發(fā)表于 03-17 15:14 ?3071次閱讀