91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook研究開放新框架,讓深度學(xué)習(xí)更加容易

獨愛72H ? 來源:讀芯術(shù) ? 作者:讀芯術(shù) ? 2020-03-13 15:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

(文章來源:讀芯術(shù))

FAIR一直是深度學(xué)習(xí)領(lǐng)域研究和開源框架的定期貢獻(xiàn)者。從PyTorch到ONNX, FAIR團(tuán)隊為實現(xiàn)深度學(xué)習(xí)應(yīng)用程序的簡化做出了不可思議的貢獻(xiàn)。在過去幾周里,F(xiàn)AIR增加了三個新的系列開源框架。Polygames是一個開源的研究框架,通過自我游戲的方式來訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)。Polygames基于著名的“零學(xué)習(xí)”概念,即允許代理無需進(jìn)行任何預(yù)先設(shè)定的訓(xùn)練,而是通過與環(huán)境交互來掌握環(huán)境。

乍看之下,Polygames似乎與Alpha Zero或ELF OpenGo等其他游戲?qū)W習(xí)框架類似,但FAIR堆棧也有自己的貢獻(xiàn)。對于初學(xué)者來說,Polygames支持更廣泛的戰(zhàn)略游戲列表,如Hex、Havannah、Minishogi、Connect6、Minesweeper、Mastermind、EinStein wurfelt nicht!、Nogo和Othello。他們?yōu)檠芯咳藛T提供了更廣泛的環(huán)境來測試深度學(xué)習(xí)網(wǎng)絡(luò)。

此外,Polygames還以一個巧妙的架構(gòu)擴展了傳統(tǒng)的零學(xué)習(xí)概念,該架構(gòu)結(jié)合了深度神經(jīng)網(wǎng)絡(luò)和蒙特卡羅樹搜索方法。這種架構(gòu)允許網(wǎng)絡(luò)泛化到更多的任務(wù)和環(huán)境。Polygames框架的一個意想不到的好處是代理中神經(jīng)可塑性的創(chuàng)建。Polygames的模型是漸進(jìn)式的——框架帶有一個用于添加新層和通道或增加內(nèi)核寬度的腳本——它們能夠進(jìn)行熱啟動訓(xùn)練,允許神經(jīng)網(wǎng)絡(luò)隨訓(xùn)練成長。

編程模型的角度來看,Polygames提供了一個包含游戲的庫,以及一個實現(xiàn)游戲的單文件API。開發(fā)人員的經(jīng)驗是基于PyTorch的,因此易于上手。

FAIR團(tuán)隊在Polygames上取得了一些里程碑式的成績,包括在Hex19游戲中擊敗人類頂級玩家。該游戲由詩人、數(shù)學(xué)家皮特·海因(Piet Hein)、 約翰·納什(John Nash)和經(jīng)濟(jì)學(xué)家于20世紀(jì)40年代開發(fā),它挑戰(zhàn)了一些傳統(tǒng)的人類游戲思維過程。規(guī)則很簡單。黑色和白色依次填充一個空單元格。如果把北方和南方連接起來,黑人就贏了;如果把西方和東方連接起來,白人就贏了。餡餅規(guī)則使游戲更加公平:在第二次移動時,第二個玩家可以決定交換顏色。這款游戲之所以困難,是因為作為一款連接游戲,它的獎勵是基于全局而非局部的標(biāo)準(zhǔn)。

在一系列的實驗中,Polygames在Hex游戲中擊敗了人類中的頂尖玩家。結(jié)果如下圖所示,在圖中,人類玩家操縱白色棋子。第一個圖像表示Hex的開局。在游戲的第二階段,人類(白色)似乎贏了——兩個堅實的組分別連接到東和西,并互相互靠近連接。然而,Polygames能夠扭轉(zhuǎn)這種局面,創(chuàng)造了一個相當(dāng)復(fù)雜的中心位置。隨著Polygames使用兩個可能的路徑之一,它找到了一個成功的組合并展開了這個位置。

PyTorch3D是一個用于在3D環(huán)境中訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)的框架。盡管有大量的視覺智能系統(tǒng)需要在現(xiàn)實環(huán)境中運行,但在3D環(huán)境中訓(xùn)練這類智能體的工具和框架仍然受到高度限制。PyTorch3D是一個高度模塊化和優(yōu)化的庫,具有獨特的功能,旨在讓使用PyTorch的3D深度學(xué)習(xí)更容易。PyTorch3D為快速可微的3D數(shù)據(jù)提供了一組常用的3D操作符和損失函數(shù),以及一個模塊化可微繪制API,使研究人員能夠立即將這些函數(shù)導(dǎo)入當(dāng)前最先進(jìn)的深度學(xué)習(xí)系統(tǒng)。

PyTorch3D利用了最近在3D深度學(xué)習(xí)方面的幾個最新里程碑,如FAIR的MeshR-CNN,它實現(xiàn)了復(fù)雜室內(nèi)空間圖像的完整3D對象重建。該框架還使用Detectron2,這是一個高度優(yōu)化的2D識別庫,可以成功將對象理解推向第三維。PyTorch3D處理旋轉(zhuǎn)和3D轉(zhuǎn)換的功能也是創(chuàng)建C3DPO的核心,C3DPO是一種使用較少注釋的訓(xùn)練數(shù)據(jù)學(xué)習(xí)圖像和3D形狀之間關(guān)聯(lián)的新方法。

探索高維數(shù)據(jù)是深度學(xué)習(xí)應(yīng)用的挑戰(zhàn)之一。HiPlot是一個交互式可視化工具,它幫助人工智能研究人員發(fā)現(xiàn)高維數(shù)據(jù)中的相關(guān)性和模式,并使用平行圖和其他圖形方式來表示信息。HiPlot使用一種稱為平行圖的技術(shù),這是一種可視化和過濾高維數(shù)據(jù)的方便做法。

從功能的角度來看,HiPlot與其他可視化工具相比有以下幾個優(yōu)勢:交互性:在HiPlot中,平行圖是交互式的,這使得在不同的場景中可視化很容易。例如,你可以專注于沿著一個或多個軸獲取范圍或值,根據(jù)另一個軸設(shè)置配色方案,重新排序或刪除軸,或提取特定的數(shù)據(jù)選擇。簡潔性:使用Hiplot只需要幾行代碼。通過帶有“Hiplot”命令的服務(wù)器,就可以通過一個給定的URL訪問它,并使用它來可視化、管理和共享實驗。基于種群的訓(xùn)練可視化:HiPlot提供了一種簡單的方法來可視化XY圖中基于種群的訓(xùn)練實驗,該圖中,不同數(shù)據(jù)點之間是有邊緣的。這種可視化在深度學(xué)習(xí)實驗中非常普遍。

在深度學(xué)習(xí)的幾個領(lǐng)域,F(xiàn)acebook的FAIR團(tuán)隊還在繼續(xù)創(chuàng)新,并積極為開源社區(qū)做出貢獻(xiàn)。PyTorch3D、Polygames和HiPlot是FAIR的最新貢獻(xiàn),旨在實現(xiàn)深度學(xué)習(xí)應(yīng)用程序的簡化。
(責(zé)任編輯:fqj)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1432

    瀏覽量

    58948
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124408
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    強化學(xué)習(xí)自動駕駛模型學(xué)習(xí)更快嗎?

    是一種機器通過“試錯”學(xué)會決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,模型去模仿;而強化學(xué)習(xí)不會把每一步的“正確答案”都告訴
    的頭像 發(fā)表于 01-31 09:34 ?655次閱讀
    強化<b class='flag-5'>學(xué)習(xí)</b>會<b class='flag-5'>讓</b>自動駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    機器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?204次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個常見錯誤與局限性

    【團(tuán)購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設(shè)備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動化領(lǐng)域主流開發(fā)環(huán)境,LabVIEW與深度學(xué)習(xí)的集成
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?230次閱讀

    無壓燒結(jié)銀膏在框架容易發(fā)生樹脂析出的原因和解決辦法

    燒結(jié)優(yōu)化的產(chǎn)品,但其配方可能對某些特定的基板或工藝條件更為敏感。樹脂成分如果與某些框架鍍層的兼容性不佳,就容易發(fā)生分離和析出。 系統(tǒng)的解決辦法 解決這個問題需要從基板、工藝和設(shè)備三方面系統(tǒng)性地進(jìn)行排查
    發(fā)表于 10-08 09:23

    如何在機器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進(jìn)行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概
    的頭像 發(fā)表于 09-10 17:38 ?910次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級結(jié)構(gòu),能夠自動從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級能力。以下從技術(shù)賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1036次閱讀

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4193次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語音識別、圖像識別、自然語言處理等領(lǐng)域,深度
    發(fā)表于 07-14 14:50 ?1252次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    大模型推理顯存和計算量估計方法研究

    ,如乘法、加法等; (2)根據(jù)各層計算操作的類型和復(fù)雜度,確定每層所需的計算量; (3)將各層計算量相加,得到模型總的計算量。 基于硬件加速的算力估計 隨著硬件加速技術(shù)的發(fā)展,許多深度學(xué)習(xí)框架支持
    發(fā)表于 07-03 19:43

    思嵐科技AI工業(yè)機器人開放底盤Phoebus P350全新發(fā)布:深度學(xué)習(xí)導(dǎo)航+300KG負(fù)載

    工業(yè)4.0時代,智能搬運的“底盤力”決定效率天花板。 SLAMTEC全新推出 Phoebus P350工業(yè)級機器人底盤 ,以 “開放AI架構(gòu)+深度學(xué)習(xí)導(dǎo)航” 為核心,融合300KG超強負(fù)載、60cm
    的頭像 發(fā)表于 05-12 11:33 ?1480次閱讀
    思嵐科技AI工業(yè)機器人<b class='flag-5'>開放</b>底盤Phoebus P350全新發(fā)布:<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>導(dǎo)航+300KG負(fù)載

    大模型時代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時代 ,AI模型的參數(shù)規(guī)模都在百萬級別,僅需在單張消費類顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,模型參數(shù)量是約為 25.63M,在ImageNet1K數(shù)據(jù)集上,使用單張消費類顯卡 RTX-4090只需大約35~40個小時 ,即可完成ResNet50模型的預(yù)訓(xùn)練。在 大模型時代 ,由于大模型參數(shù)規(guī)模龐大,無法跟CNN時代的小模型一樣在單張顯卡上完成訓(xùn)練,需要構(gòu)建多張AI加速卡的集群才能完成AI大模型的預(yù)訓(xùn)練
    的頭像 發(fā)表于 04-25 11:43 ?852次閱讀
    大模型時代的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>框架</b>

    百度飛槳框架3.0正式版發(fā)布

    大模型訓(xùn)練成本高?推理效率低?硬件適配難? 4月1日,百度發(fā)布 飛槳框架3.0正式版 !五大特性專為大模型設(shè)計。 作為大模型時代的Infra“基礎(chǔ)設(shè)施”,深度學(xué)習(xí)框架的重要性愈發(fā)凸顯,
    的頭像 發(fā)表于 04-02 19:03 ?1202次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學(xué)習(xí),網(wǎng)絡(luò)的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)框架,可以深度理解數(shù)
    的頭像 發(fā)表于 04-02 18:21 ?1524次閱讀