91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA TensorRT Edge-LLM在汽車與機器人行業(yè)的落地應(yīng)用

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 2026-01-14 09:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大語言模型(LLM)與多模態(tài)推理系統(tǒng)正迅速突破數(shù)據(jù)中心的局限。越來越多的汽車與機器人領(lǐng)域的開發(fā)者希望將對話式 AI 智能體、多模態(tài)感知系統(tǒng)和高級規(guī)劃功能直接部署在端側(cè),因為在這些場景中,低延遲、高可靠性以及離線運行能力至關(guān)重要。

目前主流的 LLM 和視覺語言模型(VLM)推理框架主要圍繞數(shù)據(jù)中心需求設(shè)計,例如應(yīng)對大量并發(fā)用戶請求并最大化其吞吐量,而嵌入式推理場景則需要一套專用的定制化解決方案。

本文介紹了 NVIDIA TensorRT Edge-LLM——一個用于 LLM 和 VLM 推理的新型開源 C++ 框架,旨在滿足日益增長的高性能邊緣端推理需求。該框架專為嵌入式汽車平臺 NVIDIA DRIVE AGX Thor 及機器人平臺 NVIDIA Jetson Thor 上的實時應(yīng)用而打造。該框架已在 GitHub 上隨 NVIDIA JetPack 7.1 版本發(fā)布并開源。

TensorRT Edge-LLM 依賴項很少,專為實現(xiàn)量產(chǎn)級邊緣端應(yīng)用部署而設(shè)計。其精簡輕量化的設(shè)計專注于嵌入式場景的特定功能,能夠顯著降低框架的資源占用。

此外,TensorRT Edge-LLM 所具備的先進功能——如 EAGLE-3 投機采樣、NVFP4 量化支持以及分塊預填充技術(shù),能夠滿足高要求的實時應(yīng)用場景所需的前沿的性能需求。

wKgZPGlm7TaAAlmYAABXzWc4uuI604.png

圖 1. 與主流 LLM 和 VLM 推理框架 vLLM 相比,TensorRT Edge-LLM 性能表現(xiàn)卓越。

面向?qū)崟r邊緣端應(yīng)用的 LLM 與 VLM 推理

邊緣端 LLM 推理任務(wù)和 VLM 推理任務(wù)具有以下特征:

請求來自少數(shù)或單一用戶

批處理規(guī)模較小,通常需跨多個攝像頭輸入

面向關(guān)鍵任務(wù)應(yīng)用的量產(chǎn)級部署

支持離線運行且無需更新

因此,機器人和汽車領(lǐng)域的實時應(yīng)用提出了以下特定要求:

延遲低且可預測

最小化磁盤、內(nèi)存和計算資源的占用

符合量產(chǎn)標準

高魯棒性和高可靠性

TensorRT Edge-LLM 旨在滿足并優(yōu)先處理這些嵌入式場景的特定需求,為嵌入式 LLM 和 VLM 的推理提供堅實基礎(chǔ)。

TensorRT Edge-LLM 在汽車行業(yè)的落地應(yīng)用

合作伙伴已開始將 TensorRT Edge-LLM 作為其車用 AI 產(chǎn)品的基礎(chǔ),其中博世、中科創(chuàng)達和 MediaTek 等企業(yè)在 CES 2026 上展示了其相關(guān)技術(shù)。

博世與 NVIDIA 及微軟共同開發(fā)新一代博世智能座艙,該座艙搭載的車載 AI 助手具備自然語音交互能力。該解決方案集成了嵌入式自動語音識別(ASR)與文本轉(zhuǎn)語音(TTS)AI 模型,并通過 TensorRT Edge-LLM 實現(xiàn) LLM 推理,從而構(gòu)建了一個強大的車載 AI 系統(tǒng)。同時,該系統(tǒng)還可通過精密協(xié)調(diào)器與云端的大型 AI 模型協(xié)同運作。

中科創(chuàng)達將 TensorRT Edge-LLM 集成至其即將推出的 AIBOX 平臺,該平臺基于 NVIDIA DRIVE AGX Orin 架構(gòu),旨在為車內(nèi)提供響應(yīng)迅速的車端 LLM 及多模態(tài)推理能力。通過整合中科創(chuàng)達的汽車軟件棧與 TensorRT Edge-LLM 的輕量級 C++ 運行時及優(yōu)化解碼路徑,該 AIBOX 能在嚴苛的功耗和內(nèi)存限制下,提供低延遲的語音交互與座艙輔助體驗。

MediaTek 在其 CX1 系統(tǒng)級芯片中基于 TensorRT Edge-LLM 進行開發(fā),以支持先進的座艙 AI 與人機交互應(yīng)用。TensorRT Edge-LLM 加速了 LLM 和 VLM 的推理過程,適用于多種應(yīng)用場景,包括駕駛員和座艙活動監(jiān)測。同時,MediaTek 通過開發(fā)新型嵌入式專用推理方法,持續(xù)反哺 TensorRT Edge-LLM 的技術(shù)演進。

隨著 TensorRT Edge-LLM 的發(fā)布,這些 LLM 和 VLM 的推理能力現(xiàn)已面向 NVIDIA Jetson 生態(tài)系統(tǒng)開放,可為機器人技術(shù)提供基礎(chǔ)支撐。

TensorRT Edge-LLM 技術(shù)解析

TensorRT Edge-LLM 旨在為 LLM 和 VLM 的推理提供一個端到端工作流。該流程涵蓋三個階段:

將 Hugging Face 模型導出為 ONNX 格式

針對目標硬件構(gòu)建優(yōu)化的 NVIDIA TensorRT 引擎

在目標硬件上運行推理任務(wù)

wKgZPGlm7TaAbiDzAABVRkKhNVU013.png

圖 2. TensorRT Edge-LLM 工作流及關(guān)鍵組件

Python 導出流程能夠?qū)?Hugging Face 模型轉(zhuǎn)換為 ONNX 格式,并支持量化、LoRA 適配器和 EAGLE-3 投機采樣(圖 3)。

wKgZPGlm7TaATA-JAACOFurX8XY425.png

圖 3. TensorRT Edge-LLM Python導出流程階段與工具

引擎構(gòu)建器負責構(gòu)建專為嵌入式目標硬件優(yōu)化的 TensorRT(圖 4)。

wKgZO2lm7TaAJAdNAABJhqZHf_U160.png

圖 4. TensorRT Edge-LLM 引擎構(gòu)建器工作流

C++ 運行時負責在目標硬件上執(zhí)行 LLM 和 VLM 的推理任務(wù)。它利用 TensorRT 引擎來實現(xiàn)自回歸模型解碼循環(huán):即基于輸入和先前生成 token 進行迭代式的 token 生成。用戶應(yīng)用程序通過與該運行時交互,來處理 LLM 和 VLM 的工作負載。

wKgZO2lm7TaAH7s7AABK9eC5zhU934.png

圖 5. TensorRT Edge-LLM C++ 運行時的預填充與解碼階段

如需了解上述各組件的更多說明,請參閱 TensorRT Edge-LLM 的完整文檔。

開始使用 TensorRT Edge-LLM

準備好在您的 Jetson AGX Thor 開發(fā)套件上開始 LLM 和 VLM 推理了嗎?

下載 JetPack 7.1 版本

克隆 NVIDIA/TensorRT-Edge-LLM GitHub 倉庫的 JetPack 7.1 發(fā)布分支:

git clone https://github.com/NVIDIA/TensorRT-Edge-LLM.git

查閱 TensorRT Edge-LLM 快速入門指南,了解如何從 Hugging Face 獲取開箱即用的支持模型、并將其轉(zhuǎn)換為 ONNX 格式、為 Jetson AGX Thor 平臺構(gòu)建 TensorRT 引擎,以及最終通過 C++ 運行時進行運行的完整步驟。

參閱 TensorRT Edge-LLM 示例,了解更多特性和功能。

若需根據(jù)自身需求定制 TensorRT Edge-LLM,請參閱 TensorRT Edge-LLM 定制指南。

對于 NVIDIA DRIVE AGX Thor 用戶,TensorRT Edge-LLM 已作為 NVIDIA DriveOS 發(fā)行包的標準組件提供。后續(xù) DriveOS 版本將通過 GitHub 倉庫進行發(fā)布。

隨著 LLM 和 VLM 快速向邊緣端遷移,TensorRT Edge-LLM 提供了一條清晰可靠的路徑,能夠?qū)?Hugging Face 模型直接部署至 NVIDIA 汽車和機器人平臺,實現(xiàn)實時、量產(chǎn)級落地。

探索工作流,充分測試模型效果,并著手構(gòu)建下一代智能端側(cè)應(yīng)用。了解更多信息,請訪問 NVIDIA/TensorRT-Edge-LLM GitHub 倉庫。

致謝

感謝 Michael Ferry、Nicky Liu、Martin Chi、Ruo Cheng Jia、Charl Li、Maggie Hu、Krishna Sai Chemudupati、Frederik Kaster、XiangGuo、Yuan Yao、Vincent Wang、Levi Chen、Chen Fu、Le An、Josh Park、Xinru Zhu、Chengming Zhao、Sunny Gai、Ajinkya Rasani、Zhijia Liu、Ever Wong、Wenting Jiang、Jonas Li、Po-Han Huang、Brant Zhao、Yiheng張和 Ashwin Nanjappa,感謝你們對 TensorRT Edge-LLM 的貢獻和支持。

關(guān)于作者

Lin Chai 是 NVIDIA 的高級產(chǎn)品經(jīng)理,負責領(lǐng)導 TensorRT 和 TensorRTEdge-LLM,這是 NVIDIA 跨數(shù)據(jù)中心和嵌入式平臺深度學習的 AI 推理平臺。憑借在自動駕駛和汽車原始設(shè)備制造商 (OEM) 方面的背景,她受到啟發(fā),想要構(gòu)建生產(chǎn)級推理系統(tǒng),為數(shù)據(jù)中心、邊緣和物理 AI 應(yīng)用中的深度學習工作負載提供一流的性能,使系統(tǒng)能夠在現(xiàn)實世界中感知、推理和行動。

Felix Friedmann 是 NVIDIA DRIVE 平臺的產(chǎn)品和工程主管,涵蓋 NVIDIA 嵌入式 AI 推理和 NVIDIA DriveWorks。他將嵌入式視覺語言模型等最新技術(shù)創(chuàng)新與汽車軟件平臺所需的可靠性和安全性相結(jié)合。自 NVIDIA DRIVE 平臺問世以來,F(xiàn)elix 一直在前一個職位上與之合作,當時他在奧迪將早期的深度學習模型引入嵌入式應(yīng)用程序,并為 atVW 的 AID 智能汽車和后來的 Argo AI 設(shè)計了感知和系統(tǒng)架構(gòu)。

Luxiao Zheng 是 NVIDIA 的高級系統(tǒng)軟件工程師。他是 TensorRT 一般性能團隊的成員,專門從事大語言模型推理工作流程。他從事 x86_64 和 aarch64 平臺的端到端 LLM 軟件開發(fā)、性能測量、分析和改進。陸曉持有理科碩士學位。計算機科學專業(yè),理學學士學位。計算機科學和理學學士學位。華盛頓大學化學工程專業(yè)的博士學位。

Fan Shi 是 NVIDIA TensorRT 團隊的高級系統(tǒng)軟件工程師,專門負責在邊緣平臺上高效部署先進的 AI 模型。他的工作重點是優(yōu)化深度學習推理的性能和可用性。風扇擁有 M.S。卡耐基梅隆大學計算數(shù)據(jù)科學博士學位和理學學士學位。來自伊利諾伊大學的統(tǒng)計學和計算機科學博士學位。

Amber Liu 是 NVIDIA 的高級系統(tǒng)軟件工程師,專注于邊緣 AI 和大語言模型應(yīng)用。她與中國的客戶和合作伙伴密切合作,在自動駕駛、AI 駕駛艙和機器人領(lǐng)域?qū)崿F(xiàn) LLM 用例,幫助團隊構(gòu)建生產(chǎn)就緒型邊緣 AI 系統(tǒng)。作為 TensorRT Edge? LLM 的核心貢獻者,她致力于開發(fā)高性能推理解決方案,將先進的大語言模型引入嵌入式平臺。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    31097

    瀏覽量

    222368
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5598

    瀏覽量

    109803
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39866

    瀏覽量

    301517

原文標題:CES 2026 | NVIDIA TensorRT Edge-LLM 加速汽車與機器人領(lǐng)域的 LLM 和 VLM 推理

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    DeepSeek R1 MTPTensorRT-LLM中的實現(xiàn)與優(yōu)化

    TensorRT-LLM NVIDIA Blackwell GPU 上創(chuàng)下了 DeepSeek-R1 推理性能的世界紀錄,Multi-Token Prediction (MTP) 實現(xiàn)了大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4469次閱讀
    DeepSeek R1 MTP<b class='flag-5'>在</b><b class='flag-5'>TensorRT-LLM</b>中的實現(xiàn)與優(yōu)化

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。單張
    的頭像 發(fā)表于 06-12 15:37 ?1905次閱讀
    使用<b class='flag-5'>NVIDIA</b> Triton和<b class='flag-5'>TensorRT-LLM</b>部署TTS應(yīng)用的最佳實踐

    中國機器人行業(yè)的現(xiàn)狀——行業(yè)***

    以高端工業(yè)機器人為主,幾乎壟斷了汽車制造、焊接等高端領(lǐng)域,占比達96%,而國產(chǎn)機器人則以搬運和上下料機器人為主,處于行業(yè)***。
    發(fā)表于 02-13 15:46

    中國工業(yè)機器人行業(yè)發(fā)展和未來趨勢分析

    汽車制造業(yè)推廣到其他制造業(yè),進而推廣到諸如采礦機器人、建筑業(yè)機器人以及水電系統(tǒng)維護維修機器人等各種非制造行業(yè)。 圖片來源:
    發(fā)表于 04-25 16:45

    2016年工業(yè)機器人行業(yè)前瞻

    行業(yè),其中汽車整車及零部件制造一直是工業(yè)機器人的最重要應(yīng)用領(lǐng)域。三、行業(yè)基本風險特征  宏觀經(jīng)濟波動風險:工業(yè)機器人行業(yè)具有一定的周期性特
    發(fā)表于 12-28 17:32

    工業(yè)機器人行業(yè)分析

    自于汽車行業(yè),并且主要用于焊接領(lǐng)域。隨著汽車行業(yè)市場的成熟,一般工業(yè)將逐漸成為各大工業(yè)機器人廠家競相角逐的新市場。因此,汽車工業(yè)是工業(yè)機器人
    發(fā)表于 10-19 15:25

    機器人行業(yè)周報-政策與園區(qū)

    無序競爭,規(guī)范行業(yè)的發(fā)展。此前工信部公布了一批符合《工業(yè)機器人行業(yè)規(guī)范條件》的企業(yè)名單,接下來,工信部將進一步實施行業(yè)的規(guī)范管理,引導政策資源集中集聚。同時利用中國機器人產(chǎn)業(yè)聯(lián)盟等
    發(fā)表于 05-08 17:41

    無線模塊機器人行業(yè)中需求量不斷增長

    中國,機器人制作技術(shù)已經(jīng)逐漸走向成熟,用工難、用工成本高以及經(jīng)濟結(jié)構(gòu)轉(zhuǎn)型的需要進一步推動機器人的發(fā)展。制造業(yè)、物流、醫(yī)療、餐飲、電子商務(wù)等行業(yè)廣泛使用了
    發(fā)表于 08-14 09:52

    機器人行業(yè),我從哪里入手

    各位大神們好,我是剛畢業(yè)的大學生。我想進入機器人行業(yè),但不知道從什么地方入手。你們能不能給我指點一下
    發(fā)表于 12-12 18:12

    新松眼中的機器人行業(yè)是怎么樣的?

    ? 近日,新松發(fā)布《向特定對象發(fā)行股票并在創(chuàng)業(yè)板上市募集說明書》時,對中國機器人行業(yè)的發(fā)展現(xiàn)狀及趨勢做了詳細的分析與說明,下面我們來看下,新松機器人眼中的機器人行業(yè)是怎么樣的? ?
    的頭像 發(fā)表于 03-08 15:38 ?6568次閱讀

    現(xiàn)已公開發(fā)布!歡迎使用 NVIDIA TensorRT-LLM 優(yōu)化大語言模型推理

    能。該開源程序庫現(xiàn)已作為 NVIDIA NeMo 框架的一部分, /NVIDIA/TensorRT-LLM GitHub 資源庫中免費提供。 大語言模型徹底改變了人工智能領(lǐng)域,并創(chuàng)造
    的頭像 發(fā)表于 10-27 20:05 ?2086次閱讀
    現(xiàn)已公開發(fā)布!歡迎使用 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT-LLM</b> 優(yōu)化大語言模型推理

    NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開發(fā)布!
    的頭像 發(fā)表于 11-28 10:43 ?1443次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT-LLM</b> Roadmap現(xiàn)已在GitHub上公開發(fā)布

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計的庫。它提供了多種先進的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?1853次閱讀

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發(fā)并開源的一種新型推測解碼技術(shù),該技術(shù)現(xiàn)在可與 NVIDIA TensorRT-LLM 一起使用。
    的頭像 發(fā)表于 12-25 17:31 ?1497次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT-LLM</b>中啟用ReDrafter的一些變化

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標是突破 NVIDIA 平臺上的推理性能瓶頸。為實
    的頭像 發(fā)表于 10-21 11:04 ?1195次閱讀