91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ICLR 2023 Spotlight|節(jié)省95%訓(xùn)練開銷,清華黃隆波團(tuán)隊(duì)提出強(qiáng)化學(xué)習(xí)專用稀疏訓(xùn)練框架RLx2

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-06-11 21:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大模型時(shí)代,模型壓縮和加速顯得尤為重要。傳統(tǒng)監(jiān)督學(xué)習(xí)可通過稀疏神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)模型壓縮和加速,那么同樣需要大量計(jì)算開銷的強(qiáng)化學(xué)習(xí)任務(wù)可以基于稀疏網(wǎng)絡(luò)進(jìn)行訓(xùn)練嗎?本文提出了一種強(qiáng)化學(xué)習(xí)專用稀疏訓(xùn)練框架,可以節(jié)省至多 95% 的訓(xùn)練開銷。

深度強(qiáng)化學(xué)習(xí)模型的訓(xùn)練通常需要很高的計(jì)算成本,因此對深度強(qiáng)化學(xué)習(xí)模型進(jìn)行稀疏化處理具有加快訓(xùn)練速度和拓展模型部署的巨大潛力。然而現(xiàn)有的生成小型模型的方法主要基于知識蒸餾,即通過迭代訓(xùn)練稠密網(wǎng)絡(luò),訓(xùn)練過程仍需要大量的計(jì)算資源。另外,由于強(qiáng)化學(xué)習(xí)自舉訓(xùn)練的復(fù)雜性,訓(xùn)練過程中全程進(jìn)行稀疏訓(xùn)練在深度強(qiáng)化學(xué)習(xí)領(lǐng)域尚未得到充分的研究。 清華大學(xué)黃隆波團(tuán)隊(duì)提出了一種強(qiáng)化學(xué)習(xí)專用的動(dòng)態(tài)稀疏訓(xùn)練框架,“Rigged Reinforcement Learning Lottery”(RLx2),可適用于多種離策略強(qiáng)化學(xué)習(xí)算法。它采用基于梯度的拓?fù)溲莼瓌t,能夠完全基于稀疏網(wǎng)絡(luò)訓(xùn)練稀疏深度強(qiáng)化學(xué)習(xí)模型。RLx2 引入了一種延遲多步差分目標(biāo)機(jī)制,配合動(dòng)態(tài)容量的回放緩沖區(qū),實(shí)現(xiàn)了在稀疏模型中的穩(wěn)健值學(xué)習(xí)和高效拓?fù)涮剿鳌T诙鄠€(gè) MuJoCo 基準(zhǔn)任務(wù)中,RLx2 達(dá)到了最先進(jìn)的稀疏訓(xùn)練性能,顯示出 7.5 倍至 20 倍的模型壓縮,而僅有不到 3% 的性能降低,并且在訓(xùn)練和推理中分別減少了高達(dá) 20 倍和 50 倍的浮點(diǎn)運(yùn)算數(shù)。

131cb890-085d-11ee-962d-dac502259ad0.png

  • 論文主頁:https://arxiv.org/abs/2205.15043
  • 論文代碼:https://github.com/tyq1024/RLx2
背景 在游戲、機(jī)器人技術(shù)等領(lǐng)域,深度強(qiáng)化學(xué)習(xí)(DRL)已經(jīng)取得了重要的應(yīng)用。然而,深度強(qiáng)化學(xué)習(xí)模型的訓(xùn)練需要巨大的計(jì)算資源。例如,DeepMind 開發(fā)的 AlphaGo-Zero 在圍棋游戲中擊敗了已有的圍棋 AI 和人類專家,但需要在四個(gè) TPU 上進(jìn)行 40 多天的訓(xùn)練。OpenAI-Five 是 OpenAI 開發(fā)的 Dota2 AI,同樣擊敗了人類半職業(yè) Dota 高手,但是需要高達(dá) 256 個(gè) GPU 進(jìn)行 180 天的訓(xùn)練。實(shí)際上,即使是簡單的 Rainbow DQN [Hessel et al. 2018] 算法,也需要在單個(gè) GPU 上訓(xùn)練約一周時(shí)間才能達(dá)到較好的性能。

圖:基于強(qiáng)化學(xué)習(xí)的 AlphaGo-Zero 在圍棋游戲中擊敗了已有的圍棋 AI 和人類專家 高昂的資源消耗限制了深度強(qiáng)化學(xué)習(xí)在資源受限設(shè)備上的訓(xùn)練和部署。為了解決這一問題,作者引入了稀疏神經(jīng)網(wǎng)絡(luò)。稀疏神經(jīng)網(wǎng)絡(luò)最初在深度監(jiān)督學(xué)習(xí)中提出,展示出了對深度強(qiáng)化學(xué)習(xí)模型壓縮和訓(xùn)練加速的巨大潛力。在深度監(jiān)督學(xué)習(xí)中,SET [Mocanu et al. 2018] 和 RigL [Evci et al. 2020] 等常用的基于網(wǎng)絡(luò)結(jié)構(gòu)演化的動(dòng)態(tài)稀疏訓(xùn)練(Dynamic sparse training - DST)框架可以從頭開始訓(xùn)練一個(gè) 90% 稀疏的神經(jīng)網(wǎng)絡(luò),而不會(huì)出現(xiàn)性能下降。

13618434-085d-11ee-962d-dac502259ad0.png

圖:SET 和 RigL 等常用的稀疏訓(xùn)練框架會(huì)在訓(xùn)練的過程中周期性地調(diào)整神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 在深度強(qiáng)化學(xué)習(xí)領(lǐng)域,已有的工作已經(jīng)成功生成了極度稀疏的深度強(qiáng)化學(xué)習(xí)網(wǎng)絡(luò)。然而,他們的方法仍然需要迭代地訓(xùn)練稠密網(wǎng)絡(luò),往往需要預(yù)訓(xùn)練的稠密模型作為基礎(chǔ),導(dǎo)致深度強(qiáng)化學(xué)習(xí)的訓(xùn)練成本仍然過高,無法直接應(yīng)用于資源有限設(shè)備。

1379622a-085d-11ee-962d-dac502259ad0.png

圖:迭代剪枝通過迭代地訓(xùn)練稠密網(wǎng)絡(luò)得到稀疏的深度強(qiáng)化學(xué)習(xí)網(wǎng)絡(luò) 從頭開始訓(xùn)練一個(gè)稀疏深度強(qiáng)化學(xué)習(xí)模型,如果能夠完美實(shí)現(xiàn),將極大地減少計(jì)算開銷,并實(shí)現(xiàn)在資源受限設(shè)備上的高效部署,具備優(yōu)秀的模型適應(yīng)性。然而,在深度強(qiáng)化學(xué)習(xí)中從頭開始訓(xùn)練一個(gè)超稀疏網(wǎng)絡(luò)(例如 90% 的稀疏度)具有挑戰(zhàn)性,原因在于自舉訓(xùn)練(Bootstrap training)的非穩(wěn)定性。在深度強(qiáng)化學(xué)習(xí)中,學(xué)習(xí)目標(biāo)不是固定的,而是以自舉方式給出,訓(xùn)練數(shù)據(jù)的分布也可能是非穩(wěn)定的。此外,使用稀疏網(wǎng)絡(luò)結(jié)構(gòu)意味著在一個(gè)較小的假設(shè)空間中搜索,這進(jìn)一步降低了學(xué)習(xí)目標(biāo)的置信度。因此,不當(dāng)?shù)南∈杌赡軐W(xué)習(xí)路徑造成不可逆的傷害,導(dǎo)致性能較差。最近的研究 [Sokar et al. 2021] 表明,在深度強(qiáng)化學(xué)習(xí)中直接采用動(dòng)態(tài)稀疏訓(xùn)練框架仍然無法在不同環(huán)境中實(shí)現(xiàn)模型的良好壓縮。因此,這一重要的開放問題仍然懸而未決:
能否通過全程使用超稀疏網(wǎng)絡(luò)從頭訓(xùn)練出高效的深度強(qiáng)化學(xué)習(xí)智能體?

方法 清華大學(xué)黃隆波團(tuán)隊(duì)對這一問題給出了肯定的答案,并提出了一種強(qiáng)化學(xué)習(xí)專用的動(dòng)態(tài)稀疏訓(xùn)練框架,“Rigged Reinforcement Learning Lottery”(RLx2),用于離策略強(qiáng)化學(xué)習(xí)(Off-policy RL)。這是第一個(gè)在深度強(qiáng)化學(xué)習(xí)領(lǐng)域以 90% 以上稀疏度進(jìn)行全程稀疏訓(xùn)練,并且僅有微小性能損失的算法框架。RLx2 受到了在監(jiān)督學(xué)習(xí)中基于梯度的拓?fù)溲莼膭?dòng)態(tài)稀疏訓(xùn)練方法 RigL [Evci et al. 2020] 的啟發(fā)。然而,直接應(yīng)用 RigL 無法實(shí)現(xiàn)高稀疏度,因?yàn)橄∈璧纳疃葟?qiáng)化學(xué)習(xí)模型由于假設(shè)空間有限而導(dǎo)致價(jià)值估計(jì)不可靠,進(jìn)而干擾了網(wǎng)絡(luò)結(jié)構(gòu)的拓?fù)溲莼?/span> 因此,RLx2 引入了延遲多步差分目標(biāo)(Delayed multi-step TD target)機(jī)制和動(dòng)態(tài)容量回放緩沖區(qū)(Dynamic capacity buffer),以實(shí)現(xiàn)穩(wěn)健的價(jià)值學(xué)習(xí)(Value learning)。這兩個(gè)新組件解決了稀疏拓?fù)湎碌膬r(jià)值估計(jì)問題,并與基于 RigL 的拓?fù)溲莼瘻?zhǔn)則一起實(shí)現(xiàn)了出色的稀疏訓(xùn)練性能。為了闡明設(shè)計(jì) RLx2 的動(dòng)機(jī),作者以一個(gè)簡單的 MuJoCo 控制任務(wù) InvertedPendulum-v2 為例,對四種使用不同價(jià)值學(xué)習(xí)和網(wǎng)絡(luò)拓?fù)涓路桨傅南∈栌?xùn)練方法進(jìn)行了比較。

139c5b4a-085d-11ee-962d-dac502259ad0.png

圖:不同網(wǎng)絡(luò)結(jié)構(gòu)更新方案的性能比較。其中,SS 表示采用靜態(tài)稀疏網(wǎng)絡(luò),RigL 表示使用基于梯度的網(wǎng)絡(luò)拓?fù)溲莼姆椒?,RigL+Q * 表示使用 RigL 的拓?fù)溲莼也捎谜鎸?shí)值函數(shù)引導(dǎo)自舉訓(xùn)練的方法(真實(shí)值函數(shù)在實(shí)際算法中并不可知),RLx2 表示使用 RigL 網(wǎng)絡(luò)拓?fù)溲莼也捎米髡咚嶂倒酪龑?dǎo)自舉訓(xùn)練的方法??梢园l(fā)現(xiàn),RLx2 的性能已經(jīng)非常逼近 RigL+Q * 的方法。 下圖展示了 RLx2 算法的主要部分,包括基于梯度的拓?fù)溲莼⒀舆t多步差分目標(biāo)和動(dòng)態(tài)容量回放緩沖區(qū)。

13b2918a-085d-11ee-962d-dac502259ad0.png

圖:RLx2 算法的概覽 基于梯度的拓?fù)溲莼?/strong> 在 RLx2 中,作者采用了與 RigL [Evci et al. 2020] 相同的方法來進(jìn)行拓?fù)浣Y(jié)構(gòu)的演化。作者計(jì)算了損失函數(shù)對網(wǎng)絡(luò)權(quán)重的梯度值。然后,周期性地增加稀疏網(wǎng)絡(luò)中具有較大梯度的連接,并移除權(quán)重絕對值最小的現(xiàn)有連接。通過周期性的結(jié)構(gòu)演化,獲得了一個(gè)結(jié)構(gòu)合理的稀疏神經(jīng)網(wǎng)絡(luò)。 延遲多步差分目標(biāo) RLx2 框架還引入了多步差分目標(biāo):

13d27964-085d-11ee-962d-dac502259ad0.png

這一概念在現(xiàn)有研究中 [Munos et al. 2016] 已被證實(shí)能夠改善差分學(xué)習(xí)(TD learning)。作者還發(fā)現(xiàn),引入多步目標(biāo)可以通過折扣因子減少稀疏網(wǎng)絡(luò)的擬合誤差,如下式所示:

13e98302-085d-11ee-962d-dac502259ad0.png

然而,訓(xùn)練伊始立即采用多步差分目標(biāo)可能會(huì)導(dǎo)致更大的策略不一致誤差。因此,作者額外采用了延遲方案來抑制策略不一致性并進(jìn)一步提高值函數(shù)的學(xué)習(xí)效果。 動(dòng)態(tài)容量回放緩沖區(qū) 離策略(Off-policy)算法使用回放緩沖區(qū)(Replay buffer)來存儲(chǔ)收集到的數(shù)據(jù),并使用從緩沖區(qū)中抽樣的批次數(shù)據(jù)來訓(xùn)練網(wǎng)絡(luò)。研究表明 [Fedus et al. 2020],當(dāng)使用更大的回放容量時(shí),算法的性能通常會(huì)提高。然而,無限大小的回放緩沖區(qū)會(huì)因?yàn)槎嗖侥繕?biāo)的不一致性和訓(xùn)練數(shù)據(jù)的不匹配導(dǎo)致策略不一致性。動(dòng)態(tài)容量回放緩沖區(qū)是一種通過調(diào)整緩沖區(qū)容量控制緩沖區(qū)中數(shù)據(jù)的不一致性,以實(shí)現(xiàn)穩(wěn)健值函數(shù)學(xué)習(xí)的方法。作者引入了以下策略距離度量來評估緩沖區(qū)中數(shù)據(jù)的不一致性:

13ff45d4-085d-11ee-962d-dac502259ad0.png

隨著訓(xùn)練的進(jìn)行,當(dāng)回放緩存中的策略距離度量大于閾值時(shí),則停止增加緩沖區(qū)容量,使得策略距離度量始終小于設(shè)定的閾值。 實(shí)驗(yàn) 作者在四個(gè) MuJoCo 環(huán)境(HalfCheetah-v3、Hopper-v3、Walker2d-v3 和 Ant-v3),和兩個(gè)常見的深度強(qiáng)化學(xué)習(xí)算法 TD3 和 SAC 中進(jìn)行了實(shí)驗(yàn)。作者定義了一個(gè)終極壓縮比率,即在該比率下,RLx2 的性能下降在原始稠密模型的 ±3% 之內(nèi)。這也可以理解為具有與原始稠密模型完全相同性能的稀疏模型的最小大小。根據(jù)終極壓縮比率,作者在下表中呈現(xiàn)了不同算法在不同環(huán)境采用相同參數(shù)量的神經(jīng)網(wǎng)絡(luò)的性能。

14198e44-085d-11ee-962d-dac502259ad0.png

性能 在所有四個(gè)環(huán)境中,RLx2 的性能在很大程度上優(yōu)于所有基準(zhǔn)算法(除了 Hopper 環(huán)境中與 RigL 和 SAC 的性能相近)。此外,小型稠密網(wǎng)絡(luò)(Tiny)和隨機(jī)靜態(tài)稀疏網(wǎng)絡(luò)(SS)的性能平均最差。SET 和 RigL 的性能較好,但在 Walker2d-v3 和 Ant-v3 環(huán)境中無法保持性能,這意味著在稀疏訓(xùn)練下穩(wěn)健的價(jià)值學(xué)習(xí)是必要的。 模型壓縮 RLx2 實(shí)現(xiàn)了優(yōu)秀的壓縮比,并且僅有輕微的性能下降(不到 3%)。具體而言,使用 TD3 算法的 RLx2 實(shí)現(xiàn)了 7.5 倍至 25 倍的模型壓縮,在 Hopper-v3 環(huán)境中獲得了最佳的 25 倍壓縮比。在每個(gè)環(huán)境中,演員網(wǎng)絡(luò)(Actor network)可以壓縮超過 96% 的參數(shù),評論家網(wǎng)絡(luò)(Critic network)可以壓縮 85% 至 95% 的參數(shù)。SAC 算法的結(jié)果類似。另外,使用 SAC 算法的 RLx2 實(shí)現(xiàn)了 5 倍至 20 倍的模型壓縮。 節(jié)省訓(xùn)練開銷 與基于知識蒸餾或行為克隆的方法 [Vischer et al. 2021] 不同,RLx2 在整個(gè)訓(xùn)練過程中使用了稀疏網(wǎng)絡(luò)。因此,它具有加速訓(xùn)練并節(jié)省計(jì)算資源的額外潛力。四個(gè)環(huán)境的平均結(jié)果表明,表格中 RLx2-TD3 分別減少了 12 倍和 20 倍的訓(xùn)練和推理浮點(diǎn)運(yùn)算數(shù),RLx2-SAC 分別減少了 7 倍和 12 倍的訓(xùn)練和推理浮點(diǎn)運(yùn)算數(shù)。 總結(jié) 作者提出了一種用于離策略強(qiáng)化學(xué)習(xí)的稀疏訓(xùn)練框架 RLx2,能夠適用于各種離策略強(qiáng)化學(xué)習(xí)算法。這一框架利用基于梯度的結(jié)構(gòu)演化方法實(shí)現(xiàn)了高效的拓?fù)涮剿鳎⑼ㄟ^延遲多步差分目標(biāo)和動(dòng)態(tài)容量回放緩沖區(qū)建立了穩(wěn)健的值函數(shù)學(xué)習(xí)。RLx2 不需要像傳統(tǒng)剪枝方法一樣預(yù)訓(xùn)練稠密網(wǎng)絡(luò),卻能夠在訓(xùn)練過程中使用超稀疏網(wǎng)絡(luò)來訓(xùn)練高效的深度強(qiáng)化學(xué)習(xí)智能體,并且?guī)缀鯖]有性能損失。作者在使用 TD3 和 SAC 的 RLx2 上進(jìn)行了實(shí)驗(yàn),結(jié)果表明其稀疏訓(xùn)練性能非常出色:模型壓縮比例為 7.5 倍至 20 倍,性能下降不到 3%,訓(xùn)練和推理的浮點(diǎn)運(yùn)算數(shù)分別減少高達(dá) 20 倍和 50 倍。作者認(rèn)為未來有趣的工作包括將 RLx2 框架擴(kuò)展到更復(fù)雜的 RL 場景,這些場景對計(jì)算資源的需求更高,例如多智能體、離線強(qiáng)化學(xué)習(xí)等場景,也包括真實(shí)世界的復(fù)雜決策問題而非標(biāo)準(zhǔn)的 MuJoCo 環(huán)境。 參考文獻(xiàn)1.Hessel, Matteo, et al. "Rainbow: Combining improvements in deep reinforcement learning." Proceedings of the AAAI conference on artificial intelligence. Vol. 32. No. 1. 2018.2.Mocanu, Decebal Constantin, et al. "Scalable training of artificial neural networks with adaptive sparse connectivity inspired by network science." Nature communications 9.1 (2018): 2383.3.Evci, Utku, et al. "Rigging the lottery: Making all tickets winners." International Conference on Machine Learning. PMLR, 2020.4.Sokar, Ghada, et al. "Dynamic sparse training for deep reinforcement learning." arXiv preprint arXiv:2106.04217 (2021).5.Munos, Rémi, et al. "Safe and efficient off-policy reinforcement learning." Advances in neural information processing systems 29 (2016).6.Fedus, William, et al. "Revisiting fundamentals of experience replay." International Conference on Machine Learning. PMLR, 2020.7.Vischer, Marc Aurel, Robert Tjarko Lange, and Henning Sprekeler. "On lottery tickets and minimal task representations in deep reinforcement learning." arXiv preprint arXiv:2105.01648 (2021).


原文標(biāo)題:ICLR 2023 Spotlight|節(jié)省95%訓(xùn)練開銷,清華黃隆波團(tuán)隊(duì)提出強(qiáng)化學(xué)習(xí)專用稀疏訓(xùn)練框架RLx2

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:ICLR 2023 Spotlight|節(jié)省95%訓(xùn)練開銷,清華黃隆波團(tuán)隊(duì)提出強(qiáng)化學(xué)習(xí)專用稀疏訓(xùn)練框架RLx2

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛中常提的離線強(qiáng)化學(xué)習(xí)是什么?

    ,圖片源自:網(wǎng)絡(luò) 但強(qiáng)化學(xué)習(xí)本身是需要不斷試錯(cuò)的,如果采用這種學(xué)習(xí)方式在真實(shí)道路中不斷嘗試,一定會(huì)導(dǎo)致不可控的事故。于是就有人提出一種猜測,能不能利用已經(jīng)存在的大量行駛?cè)罩?、仿真記錄和人類駕駛數(shù)據(jù),在
    的頭像 發(fā)表于 02-07 09:21 ?221次閱讀
    自動(dòng)駕駛中常提的離線<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>是什么?

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動(dòng)駕駛大模型訓(xùn)練時(shí),有的技術(shù)方案會(huì)采用模仿學(xué)習(xí),而有些會(huì)采用強(qiáng)化學(xué)習(xí)。同樣作為大模型的訓(xùn)練方式,強(qiáng)化學(xué)習(xí)
    的頭像 發(fā)表于 01-31 09:34 ?659次閱讀
    <b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>會(huì)讓自動(dòng)駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    多智能體強(qiáng)化學(xué)習(xí)(MARL)核心概念與算法概覽

    訓(xùn)練單個(gè)RL智能體的過程非常簡單,那么我們現(xiàn)在換一個(gè)場景,同時(shí)訓(xùn)練五個(gè)智能體,而且每個(gè)都有自己的目標(biāo)、只能看到部分信息,還能互相幫忙。這就是多智能體強(qiáng)化學(xué)習(xí)
    的頭像 發(fā)表于 01-21 16:21 ?200次閱讀
    多智能體<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>(MARL)核心概念與算法概覽

    如何訓(xùn)練好自動(dòng)駕駛端到端模型?

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:端到端算法是怎樣訓(xùn)練的?是模仿學(xué)習(xí)、強(qiáng)化學(xué)習(xí)和離線強(qiáng)化學(xué)習(xí)這三類嗎?其實(shí)端到端(end-to-end)算法在自動(dòng)駕駛、智能體
    的頭像 發(fā)表于 12-08 16:31 ?1453次閱讀
    如何<b class='flag-5'>訓(xùn)練</b>好自動(dòng)駕駛端到端模型?

    今日看點(diǎn):智元推出真機(jī)強(qiáng)化學(xué)習(xí);美國軟件公司SAS退出中國市場

    智元推出真機(jī)強(qiáng)化學(xué)習(xí),機(jī)器人訓(xùn)練周期從“數(shù)周”減至“數(shù)十分鐘” ? 近日,智元機(jī)器人宣布其研發(fā)的真機(jī)強(qiáng)化學(xué)習(xí)技術(shù),已在與龍旗科技合作的驗(yàn)證產(chǎn)線中成功落地。據(jù)介紹,此次落地的真機(jī)強(qiáng)化學(xué)習(xí)
    發(fā)表于 11-05 09:44 ?1107次閱讀

    自動(dòng)駕駛中常提的“強(qiáng)化學(xué)習(xí)”是個(gè)啥?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動(dòng)駕駛時(shí),有些方案中會(huì)提到“強(qiáng)化學(xué)習(xí)(Reinforcement Learning,簡稱RL)”,強(qiáng)化學(xué)習(xí)是一類讓機(jī)器通過試錯(cuò)來學(xué)會(huì)做決策的技術(shù)。簡單理解
    的頭像 發(fā)表于 10-23 09:00 ?695次閱讀
    自動(dòng)駕駛中常提的“<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>”是個(gè)啥?

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2訓(xùn)練框架,目標(biāo)是
    發(fā)表于 10-22 07:03

    借助NVIDIA Megatron-Core大模型訓(xùn)練框架提高顯存使用效率

    隨著模型規(guī)模邁入百億、千億甚至萬億參數(shù)級別,如何在有限顯存中“塞下”訓(xùn)練任務(wù),對研發(fā)和運(yùn)維團(tuán)隊(duì)都是巨大挑戰(zhàn)。NVIDIA Megatron-Core 作為流行的大模型訓(xùn)練框架,提供了靈
    的頭像 發(fā)表于 10-21 10:55 ?1166次閱讀
    借助NVIDIA Megatron-Core大模型<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>框架</b>提高顯存使用效率

    NVIDIA Isaac Lab多GPU多節(jié)點(diǎn)訓(xùn)練指南

    NVIDIA Isaac Lab 是一個(gè)適用于機(jī)器人學(xué)習(xí)的開源統(tǒng)一框架,基于 NVIDIA Isaac Sim 開發(fā),其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,可提供各種物理 AI 功能和由 GPU 驅(qū)動(dòng)的物理仿真,縮小仿真與現(xiàn)實(shí)世
    的頭像 發(fā)表于 09-23 17:15 ?2423次閱讀
    NVIDIA Isaac Lab多GPU多節(jié)點(diǎn)<b class='flag-5'>訓(xùn)練</b>指南

    如何在Ray分布式計(jì)算框架下集成NVIDIA Nsight Systems進(jìn)行GPU性能分析

    在大語言模型的強(qiáng)化學(xué)習(xí)訓(xùn)練過程中,GPU 性能優(yōu)化至關(guān)重要。隨著模型規(guī)模不斷擴(kuò)大,如何高效地分析和優(yōu)化 GPU 性能成為開發(fā)者面臨的主要挑戰(zhàn)之一。
    的頭像 發(fā)表于 07-23 10:34 ?2425次閱讀
    如何在Ray分布式計(jì)算<b class='flag-5'>框架</b>下集成NVIDIA Nsight Systems進(jìn)行GPU性能分析

    NVIDIA Isaac Lab可用環(huán)境與強(qiáng)化學(xué)習(xí)腳本使用指南

    Lab 是一個(gè)適用于機(jī)器人學(xué)習(xí)的開源模塊化框架,其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,Isaac Lab 同時(shí)支持模仿學(xué)習(xí)(模仿人類)和強(qiáng)化學(xué)習(xí)
    的頭像 發(fā)表于 07-14 15:29 ?2373次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>腳本使用指南

    【書籍評測活動(dòng)NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    與 PPO 對比示意圖 03.獎(jiǎng)勵(lì)模型的創(chuàng)新 在強(qiáng)化學(xué)習(xí)訓(xùn)練過程中,DeepSeek 研究團(tuán)隊(duì)選擇面向結(jié)果的獎(jiǎng)勵(lì)模型 ,而不是通常的面向過程的獎(jiǎng)勵(lì)模型。這種方式可以較好地避免獎(jiǎng)勵(lì)欺騙,同時(shí),由于
    發(fā)表于 06-09 14:38

    OCR識別訓(xùn)練完成后給的是空壓縮包,為什么?

    OCR識別 一共弄了26張圖片,都標(biāo)注好了,點(diǎn)擊開始訓(xùn)練,顯示訓(xùn)練成功了,也將壓縮包發(fā)到郵箱了,下載下來后,壓縮包里面是空的 OCR圖片20幾張圖太少了。麻煩您多添加點(diǎn),參考我們的ocr識別訓(xùn)練數(shù)據(jù)集 請問
    發(fā)表于 05-28 06:46

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    AI數(shù)據(jù)訓(xùn)練:基于用戶特定應(yīng)用場景,用戶采集照片或視頻,通過AI數(shù)據(jù)訓(xùn)練工程師**(用戶公司****員工)** ,進(jìn)行特征標(biāo)定后,將標(biāo)定好的訓(xùn)練樣本,通過AI訓(xùn)練服務(wù)器,進(jìn)行AI
    發(fā)表于 04-28 11:11

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    ,使用PaddleNLP將FineWeb數(shù)據(jù)集中文本形式的數(shù)據(jù),經(jīng)過分詞化(Tokenize),轉(zhuǎn)換為大語言模型能直接使用的二進(jìn)制數(shù)據(jù),以便提升訓(xùn)練效果。 ChatGPT發(fā)布后,當(dāng)代大語言模型(LLM)的訓(xùn)練流程基本遵循OpenAI提出
    的頭像 發(fā)表于 03-21 18:24 ?4334次閱讀
    用PaddleNLP為GPT-<b class='flag-5'>2</b>模型制作FineWeb二進(jìn)制預(yù)<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集