91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用NVIDIA DeepStream SDK管理視頻流

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:wnger,Chintan Patel ? 2022-04-01 16:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

交通監(jiān)控系統(tǒng)、醫(yī)療保健和零售業(yè)都從智能視頻分析( IVA )中受益匪淺。 DeepStream 是一個 IVA SDK 。 DeepStream 使您能夠在運行時附加和分離視頻流,而不會影響整個部署。

這篇文章討論了使用 DeepStream 添加和刪除流的細(xì)節(jié)。我還介紹了如何跨多個孤立的數(shù)據(jù)中心集中管理大型部署,使用來自多個攝像頭的流服務(wù)于多個用例。

NVIDIA DeepStream SDK 是一種用于多傳感器處理的流分析工具包。流式數(shù)據(jù)分析用例正在你眼前發(fā)生變化。 IVA 在更智能的空間中有著巨大的幫助。DeepStream 運行在離散的 GPU ,如NVIDIA T4 , Nvidia 安培架構(gòu)和系統(tǒng)芯片上的平臺,如 NVIDIA Jetson 系列的設(shè)備。

DeepStream 具有靈活性,使您能夠使用以下任一功能構(gòu)建復(fù)雜的應(yīng)用程序:

多種深度學(xué)習(xí)框架

多流

多個模型串聯(lián)或并聯(lián)組合形成一個整體

多個模型協(xié)同工作

以不同的精度計算

自定義預(yù)處理和后處理

與庫伯內(nèi)特斯的配器

DeepStream 應(yīng)用程序可以有多個插件,如圖 1 所示。根據(jù)功能,每個插件可以使用 GPU 、 DLA 或?qū)S糜布?/p>

poYBAGJGtNGAGXMgAACrj-Z9xWw416.png

poYBAGJGtNGAGXMgAACrj-Z9xWw416.png

圖 1 。顯示 nvinferserver 和 nvinfer 插件與 DeepStream 的集成。 Nvinfer 服務(wù)器可以與 ONNX 、 TensorFlow 、 PyTorch 和 TensorRT 等后端一起工作。它還支持創(chuàng)建集成模型。

DeepStream 的基本功能是允許大規(guī)模部署,確保在任何給定時間的吞吐量和準(zhǔn)確性。任何 IVA 管道的規(guī)模取決于兩個主要因素:

流管理

計算能力

流管理是任何具有多個攝像頭的大型部署的重要方面。任何大型部署都不能用于添加/刪除流。如此大規(guī)模的部署必須進(jìn)行故障保護(hù),以便在運行時處理虛假流。此外,部署預(yù)計將處理用例到使用特定模型運行的管道的運行時連接/分離。

這篇文章幫助您了解流管理的以下方面:

使用 DeepStream Python API 的河流消耗量

在運行時添加和刪除流

在運行時將特定流附加到具有特定模型的管道

涉及多個數(shù)據(jù)中心的大規(guī)模部署中的流管理

隨著應(yīng)用程序復(fù)雜性的增加,更改變得越來越困難。一個深思熟慮的發(fā)展戰(zhàn)略從一開始就可以起到很大的作用。在下一節(jié)中,我將簡要討論開發(fā) DeepStream 應(yīng)用程序的不同方法。我還討論了如何管理流/用例分配和解除分配,并考慮一些最佳實踐。

DeepStream 應(yīng)用程序開發(fā)

DeepStream 使您能夠為基于 AI 的視頻、音頻和圖像分析創(chuàng)建無縫流媒體管道。 DeepStream 為您提供了使用 C 或 Python 進(jìn)行開發(fā)的選擇,為它們提供了更大的靈活性。 DeepStream 附帶了幾個硬件加速插件。 DeepStream 源于 Gstreamer ,提供 Python 和 C 語言之間的統(tǒng)一 API 。

Python 和用于 DeepStream 的 C API 是統(tǒng)一的。這意味著在 Python 中開發(fā)的任何應(yīng)用程序都可以輕松地轉(zhuǎn)換為 C 和 C 。 Python 和 C 為開發(fā)人員提供了所有級別的自由。使用 DeepStream Python 和 C API ,可以設(shè)計在運行時處理流和用例的動態(tài)應(yīng)用程序。一些示例 Python 應(yīng)用程序位于: NVIDIA-AI-IOT/deepstream_python_apps 。

DeepStream SDK 基于 GStreamer 多媒體框架,包括一個 GPU 加速插件管道。 SDK 中包含用于視頻輸入、視頻解碼、圖像預(yù)處理、基于 NVIDIA TensorRT 的推理、對象跟蹤和顯示的插件,以簡化應(yīng)用程序開發(fā)過程。這些功能可用于創(chuàng)建適應(yīng)性強(qiáng)的多流視頻分析解決方案。

插件是制作管道的核心構(gòu)建塊。輸入(即管道輸入,例如相機(jī)和視頻文件)和輸出(例如屏幕顯示)之間的每個數(shù)據(jù)緩沖區(qū)都通過插件傳遞。視頻解碼和編碼、神經(jīng)網(wǎng)絡(luò)推理以及在視頻流頂部顯示文本就是 plug-ins 的示例。連接的插件構(gòu)成 pipeline 。

PAD 是插件之間的接口。當(dāng)數(shù)據(jù)在管道中從一個插件流向另一個插件時,它從一個插件的源板流向另一個插件的接收器板。每個插件可能有零個、一個或多個源/接收器組件。

pYYBAGJGtNKARRJMAACIjLYv1G8216.png

pYYBAGJGtNKARRJMAACIjLYv1G8216.png

圖 2 。具有多流支持的簡化 DeepStream 應(yīng)用程序。

前面的示例應(yīng)用程序由以下插件組成:

GstUriDecodebin:將 URI 中的數(shù)據(jù)解碼為原始媒體。它選擇一個可以處理給定方案的源插件,并將其連接到decodebin。

Nvstreammux:Gst-nvstreammux插件從多個輸入源形成一批幀。

Nvinfer:Gst-nvinfer插件使用 TensorRT 對輸入數(shù)據(jù)進(jìn)行推斷。

Nvmultistream-tiler:Gst-nvmultistreamtiler插件從批處理緩沖區(qū)合成 2D 磁貼。

Nvvideoconvert:Gst-nvvideoconvert執(zhí)行縮放、裁剪和視頻顏色格式轉(zhuǎn)換。

NvDsosd:Gst-nvdsosd繪制邊界框、文本和感興趣區(qū)域( ROI )多邊形。

GstEglGles:EglGlesSink在 EGL 表面上渲染視頻幀( xOverlay 界面和本機(jī)顯示)。

每個插件可以有一個或多個源和接收器焊盤。在這種情況下,當(dāng)添加流時,Gst-Uridecodebin插件被添加到管道中,每個流一個插件。每個Gst-Uridecodebin插件的源組件連接到單個Nv-streammux插件上的每個接收器組件。Nv-streammux從來自所有以前插件的幀創(chuàng)建批,并將它們推送到管道中的下一個插件。圖 3 顯示了如何將多個攝影機(jī)流添加到管道中。

pYYBAGJGtNSAWcYEAADZnOyNfRA202.png

pYYBAGJGtNSAWcYEAADZnOyNfRA202.png

圖 3 。將焊盤顯示為插件之間的鏈接接口。

緩沖區(qū)通過管道傳輸數(shù)據(jù)。緩沖區(qū)帶有時間戳,包含由各種 DeepStream 插件附加的元數(shù)據(jù)。緩沖區(qū)攜帶諸如有多少插件在使用它、標(biāo)志和指向內(nèi)存中對象的指針等信息。

DeepStream 應(yīng)用程序可以看作是由單個組件插件組成的管道。每個插件使用 TensorRT 或多流解碼表示一個類似于功能塊的推理。在適用的情況下,使用底層硬件加速插件,以提供最佳性能。 DeepStream 的關(guān)鍵價值在于使視頻深度學(xué)習(xí)易于訪問,讓您能夠集中精力快速構(gòu)建和定制高效、可擴(kuò)展的視頻分析應(yīng)用程序。

運行時流添加/刪除應(yīng)用程序

DeepStream 以 Python 和 C 語言提供了運行時添加/刪除功能的示例實現(xiàn)。樣本位于以下位置:

DeepStream 源添加和刪除( C ): https://github.com/NVIDIA-AI-IOT/deepstream_reference_apps/tree/master/runtime_source_add_delete

DeepStream 源代碼添加和刪除( Python ): https://github.com/NVIDIA-AI-IOT/deepstream_python_apps/tree/master/apps/runtime_source_add_delete

這些應(yīng)用程序的設(shè)計考慮到了簡單性。這些應(yīng)用程序接受一個輸入流,同一個流在設(shè)定的時間間隔后多次添加到正在運行的管道中。這就是在不重新啟動應(yīng)用程序的情況下將指定數(shù)量的流添加到管道的方式。最終,在每個時間間隔刪除每個流。刪除最后一個流后,應(yīng)用程序?qū)⒄MV埂?/p>

要從示例應(yīng)用程序開始,請執(zhí)行以下步驟。

創(chuàng)建基于 Python 的應(yīng)用程序

從 ngc 拔出 DeepStream Docker 映像 。NVIDIA 。通用域名格式。

在服務(wù)器上運行 git clone Python 應(yīng)用程序存儲庫 在 Docker 容器中。

轉(zhuǎn)到 Docker 容器中的以下位置: deepstream \ u python \ u apps / apps / runtime \ u source \ u add \ u delete

設(shè)置 Python 先決條件 。

轉(zhuǎn)到應(yīng)用程序/運行時\源\添加\刪除并按如下方式執(zhí)行應(yīng)用程序:

poYBAGJGtTeAA_zTAAAM8XGTqgU406.png

創(chuàng)建基于 C 的應(yīng)用程序

從 ngc 拔出 DeepStream Docker 映像 。NVIDIA 。通用域名格式。 :

在 Docker 容器內(nèi)/opt/nvidia/deepstream/deepstream/sources/apps/sample_apps/的 C 應(yīng)用程序存儲庫 上運行 git clone 。

轉(zhuǎn)到deepstream_reference_apps/runtime_source_add_delete,編譯并運行應(yīng)用程序,如下所示:

poYBAGJGtY6AG6naAAAM31GPVvU046.png

應(yīng)用程序方面:運行時攝影機(jī)添加和刪除

DeepStream Python 或 C 應(yīng)用程序在運行腳本時通常將輸入流作為參數(shù)列表。代碼執(zhí)行后,會發(fā)生一系列事件,最終將流添加到正在運行的管道中。

在這里,您使用uridecodebin插件將 URI 中的數(shù)據(jù)解碼為原始媒體。它選擇一個可以處理給定方案的源插件,并將其連接到解碼箱。

以下是注冊任何流時發(fā)生的序列列表:

源 bin 是通過函數(shù)create_uridecode_bin從Curidecodebin插件創(chuàng)建的。函數(shù)create_uridecode_bin接受第一個參數(shù)source_id,它是一個整數(shù),第二個參數(shù)是rtsp_url。在本例中,此整數(shù)是流的順序,從 1 …。。 N 。此整數(shù)用于創(chuàng)建唯一可識別的source-bin名稱,如source-bin-1、source-bin-2、…source-bin- N 。

g_source_bin_list字典在source-bin和id值之間映射。

創(chuàng)建源 bin 后,程序參數(shù)中的 RTSP 流 URL 將附加到此源 bin 。

稍后,uridecodebin的源 bin 值鏈接到下一個插件streammux的接收器 bin 。

創(chuàng)建多個uridecodebin插件,每個插件對應(yīng)一個流,并連接到streammux插件。

下面的代碼示例顯示了 Python 中用于將多個流連接到 DeepStream 管道的最小代碼。

pYYBAGJGtZeAS70KAAAT_tENz-Q976.png

在更有組織的應(yīng)用程序中,負(fù)責(zé)流添加的這些代碼行被轉(zhuǎn)移到一個函數(shù),該函數(shù)使用兩個參數(shù)來附加流:stream_id和rtsp_url。您可以隨時調(diào)用此類函數(shù),并將更多流附加到正在運行的應(yīng)用程序中。

類似地,當(dāng)流必須與應(yīng)用程序分離時,會發(fā)生以下事件:

已連接流的source_id被賦予函數(shù)stop_release_source。

連接到要釋放的source_id的streammux的sink-pad與uridecodebin的source bin分離。

然后將 uridecodebin 的源 bin 從管道中移除。

活動源計數(shù)減少 1 。

下面的代碼示例顯示了 Python 和 C 從 DeepStream 管道分離流的最小代碼。

poYBAGJGtaGAEle0AAAcqurrQGU699.png

部署方面:運行時攝影機(jī)和用例管理

前面,我討論了如何在代碼中添加和刪除流??紤]到部署方面,還有一些因素。

以前,您使用命令行參數(shù)獲取所有輸入流。但是,在程序執(zhí)行之后,當(dāng)它處于部署中時,您不能向它提供任何附加參數(shù)。如何向正在運行的程序傳遞要附加或分離哪個流的指令?

部署需要額外的代碼,用于定期檢查是否有必須附加的新流可用。應(yīng)刪除以下流:

流不再需要監(jiān)視。

攝像頭問題導(dǎo)致沒有流。

先前附加的流必須用于另一個用例。

在多個數(shù)據(jù)中心進(jìn)行流處理的情況下,優(yōu)先考慮距離數(shù)據(jù)中心最近的流源。

DeepStream 管道在主螺紋中運行。需要一個單獨的線程來檢查要添加或刪除的流。謝天謝地, Glib 有一個名為g_timeout_add_seconds的函數(shù)。 Glib 是 gnuclibrary 項目,它為 GNU 系統(tǒng)和 GNU / Linux 系統(tǒng)以及許多其他使用 Linux 作為內(nèi)核的系統(tǒng)提供核心庫。

g_timeout_add_seconds( set )是管道運行時定期調(diào)用的函數(shù)。重復(fù)調(diào)用該函數(shù),直到返回 FALSE ,此時超時將自動銷毀,并且不會再次調(diào)用該函數(shù)。

guint g_timeout_add_seconds (guint interval, GSourceFunc function, gpointer data);

g_timeout_add_seconds接受三個輸入:

Interval:調(diào)用函數(shù)之間的時間,以秒為單位。

function:要調(diào)用的函數(shù)。

data:要傳遞給函數(shù)的數(shù)據(jù)和參數(shù)。

例如,調(diào)用函數(shù)watchDog時需要GSourceBinList。streamURL和streamId之間的字典映射。streamId是將流添加到管道后生成的內(nèi)部 ID (整數(shù))。最后一個調(diào)用方函數(shù)類似于以下代碼示例:

pYYBAGJGtbSAX5VwAAAIOYjG77s998.png

根據(jù)當(dāng)前間隔設(shè)置,watchDog函數(shù)每 10 秒調(diào)用一次。必須維護(hù)一個數(shù)據(jù)庫來管理和跟蹤多個流。表 1 顯示了這樣一個示例數(shù)據(jù)庫表。函數(shù)watchDog可用于查詢數(shù)據(jù)庫,其中根據(jù)當(dāng)前狀態(tài)和用例維護(hù)了所有可用流的列表。

poYBAGJGtb2Ab5WLAAAy9aEt79w566.png

表 1 。管理流和相應(yīng)用例所需的最小數(shù)據(jù)庫表。

下面是一個同時管理多個流所需的最小數(shù)據(jù)庫結(jié)構(gòu)( SQL / no SQL )示例:

Source ID: 一個唯一的 ID ,也是nvstreammux連接到的接收器板 ID 。source_id對于監(jiān)視nv-gst事件非常有用,例如, pad 為每個流添加了已刪除的 EOS 。請記住,在前面的簡單應(yīng)用程序中,您考慮過按參數(shù)輸入順序?qū)⒃?bin 設(shè)置為source-bin-1、source-bin-2、…source-bin- N 。對許多攝影機(jī)使用相同的方法,并跟蹤應(yīng)用程序范圍內(nèi)的所有活動源存儲箱。

RTSP URL: 源插件應(yīng)使用的 URL 。

Stream state: 有助于管理流的狀態(tài),如打開或關(guān)閉。數(shù)據(jù)庫客戶機(jī)還必須能夠根據(jù)客戶機(jī)感知到的情況更改攝像頭,例如壞流、無 STREAMm 攝像頭故障等。這有助于即時維護(hù)。

Use case: 為相機(jī)分配一個用例。將選中此用例,并且僅連接模型當(dāng)前處于活動狀態(tài)的攝影機(jī)。

Camera Location: 有助于根據(jù)攝像機(jī)的位置定位計算機(jī)。此檢查可避免從位于遠(yuǎn)處的攝影機(jī)進(jìn)行不必要的捕獲,并且可以更好地分配給附近的其他計算群集。

Taken: 假設(shè)部署是具有多個節(jié)點的多 GPU 。當(dāng)在任何機(jī)器和任何 GPU 上運行的 DeepStream 應(yīng)用程序添加任何源時,它會將標(biāo)志設(shè)置為True。這可以防止另一個實例再次重復(fù)添加相同的源。

如前所述維護(hù)一個模式可以從一個中心位置輕松創(chuàng)建和監(jiān)控儀表板。

回到watchDog函數(shù),下面是檢查流狀態(tài)并根據(jù)位置和用例附加新視頻流的偽代碼:

pYYBAGJGtceAY0UyAAAycFmgYiI806.png

在模塊加載和全局變量初始化之后,應(yīng)用程序進(jìn)入主功能。

在主函數(shù)中,初始化本地模塊和變量。

當(dāng)應(yīng)用程序第一次啟動時,它會在應(yīng)用位置和用例過濾器后從數(shù)據(jù)庫請求流列表。

收到流列表后, DeepStream 管道的所有插件都將初始化、鏈接并設(shè)置為PLAY狀態(tài)。此時,應(yīng)用程序正在使用提供的所有流運行。

在每個設(shè)置的時間間隔之后,一個單獨的線程檢查數(shù)據(jù)庫中當(dāng)前流的狀態(tài)。如果數(shù)據(jù)庫中任何已添加流的狀態(tài)更改為OFF,則該流將被釋放。該線程還檢查數(shù)據(jù)庫中是否列出了狀態(tài)為ON的新攝像頭,在應(yīng)用位置和用例過濾器后,該流將添加到 DeepStream 管道中。

添加流后,數(shù)據(jù)庫的Taken列中的標(biāo)志必須設(shè)置為True,以便其他進(jìn)程無法再次添加相同的流。

圖 4 顯示了有效地添加、刪除攝像機(jī)流并連接到使用適當(dāng)模型運行的服務(wù)器所需的功能調(diào)用的總體流程。

pYYBAGJGtNWAMV-GAABAHcH0axE305.jpg

pYYBAGJGtNWAMV-GAABAHcH0axE305.jpg

圖 4 。管理流和附加/分離用例的總體控制流 。

僅僅更改源的數(shù)量沒有幫助,因為源的下游組件必須能夠根據(jù)流的數(shù)量更改其屬性。為此,已經(jīng)對 DeepStream 應(yīng)用程序的組件進(jìn)行了優(yōu)化,以在運行時更改屬性。

然而,許多插件在初始化期間使用批大小作為參數(shù)來分配計算/內(nèi)存資源。在這種情況下,建議在執(zhí)行應(yīng)用程序時指定最大批量大小。表 2 顯示了一些這樣的插件示例:

pYYBAGJGtdWADfjlAACUSoDV61A708.png

nd cleanup of resources when sources are removed.

表 2 。插件及其適應(yīng)運行時更改的能力。

當(dāng)檢測到流的數(shù)量時,可以顯式更改屬性。要在運行時手動調(diào)整插件的屬性,請使用 set_property 在 Python 和 C 或 g_object_set 函數(shù)在 C 。

最佳做法

在添加到管道之前,請始終檢查流屬性。 可以使用gst-discoverer-1.0命令行實用程序檢查流屬性。它從命令行接受 URI ,并打印有關(guān)流的所有信息。了解用于生成媒體的容器和編解碼器,以及必須在管道中放入哪些插件才能播放媒體,這非常有用。 Gst Discover 可通過使用各自的 API 與 Python 和 C 一起使用。

在開發(fā) DeepStream 應(yīng)用程序時對其進(jìn)行概要分析。 這是優(yōu)化和調(diào)整應(yīng)用程序的第一步。分析有助于理解應(yīng)用程序的性能特征,并可以輕松識別代碼中有改進(jìn)機(jī)會的部分。查找應(yīng)用程序中的熱點和瓶頸,幫助您決定優(yōu)化工作的重點。

通過分析應(yīng)用程序,計算可在 GPU 上運行的最大流數(shù)。在運行時,確保將最大流保持在支持的最大值以下,以便應(yīng)用程序性能保持穩(wěn)定。

關(guān)于作者

wnger:

Chintan Patel是NVIDIA的高級產(chǎn)品經(jīng)理,致力于將GPU加速的解決方案引入HPC社區(qū)。 他負(fù)責(zé)NVIDIA GPU Cloud注冊表中HPC應(yīng)用程序容器的管理和提供。 在加入NVIDIA之前,他曾在Micrel,Inc.擔(dān)任產(chǎn)品管理,市場營銷和工程職位。他擁有圣塔克拉拉大學(xué)的MBA學(xué)位以及UC Berkeley的電氣工程和計算機(jī)科學(xué)學(xué)士學(xué)位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5597

    瀏覽量

    109797
  • 監(jiān)控系統(tǒng)

    關(guān)注

    21

    文章

    4175

    瀏覽量

    184906
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    深度解析:SDK中貼片SD卡Flash讀寫速度測試流程與結(jié)果#存儲 #SDK

    SDK
    雷龍Lucca
    發(fā)布于 :2026年03月04日 11:05:52

    利用NVIDIA Nemotron開放模型構(gòu)建智能文檔處理系統(tǒng)

    基于 NVIDIA Nemotron 開放模型的 AI 驅(qū)動文檔智能,增強(qiáng)科學(xué)研究、金融和法律等領(lǐng)域工作。
    的頭像 發(fā)表于 02-25 11:21 ?433次閱讀

    超擎數(shù)智為您深度解析NVIDIA Quantum-X800 InfiniBand平臺

    NVIDIA
    專精特新
    發(fā)布于 :2026年01月08日 19:47:03

    NVIDIA Omniverse基于Container的部署推方案

    為了讓客戶能夠高效安裝和部署 NVIDIA Omniverse 及 NVIDIA Isaac 平臺,NVIDIA 現(xiàn)已推出簡單便捷的容器化部署方案,以支持在數(shù)據(jù)中心的服務(wù)器中實現(xiàn)流式仿真或協(xié)作。
    的頭像 發(fā)表于 12-17 10:17 ?684次閱讀
    <b class='flag-5'>NVIDIA</b> Omniverse基于Container的部署推<b class='flag-5'>流</b>方案

    NVIDIA 收購開源工作負(fù)載管理提供商 SchedMD

    軟件的主要開發(fā)商,Slurm 是一款用于 HPC 和 AI 的開源工作負(fù)載管理系統(tǒng)。此次收購旨在幫助強(qiáng)化開源軟件生態(tài)系統(tǒng),并推動研究人員、開發(fā)者和企業(yè)的 AI 創(chuàng)新。 NVIDIA 將繼續(xù)開發(fā)并提
    的頭像 發(fā)表于 12-16 18:24 ?1354次閱讀

    Termux手機(jī)攝像頭采集圖像/視頻 部署 YOLO 模型推理

    Termux手機(jī)攝像頭采集圖像/視頻 部署 YOLO 模型推理
    的頭像 發(fā)表于 12-14 07:26 ?2869次閱讀

    RK3576輕松搭建RTMP視頻,基于FFmpeg+Nginx協(xié)同

    瑞芯微RK3576芯片平臺實現(xiàn)多路RTMP視頻,基于觸覺智能RK3576開發(fā)板PurplePiOH2演示。RTMP視頻RTMP視頻
    的頭像 發(fā)表于 12-11 17:17 ?932次閱讀
    RK3576輕松搭建RTMP<b class='flag-5'>視頻</b>推<b class='flag-5'>流</b>,基于FFmpeg+Nginx協(xié)同

    NVIDIA開源Audio2Face模型及SDK

    NVIDIA 現(xiàn)已開源 Audio2Face 模型與 SDK,讓所有游戲和 3D 應(yīng)用開發(fā)者都可以構(gòu)建并部署帶有先進(jìn)動畫的高精度角色。NVIDIA 開源 Audio2Face 的訓(xùn)練框架,任何人都可以針對特定用例對現(xiàn)有模型進(jìn)行微
    的頭像 發(fā)表于 10-21 11:11 ?832次閱讀
    <b class='flag-5'>NVIDIA</b>開源Audio2Face模型及<b class='flag-5'>SDK</b>

    rt-thread studio v2.2.7 SDK管理器無法下載怎么解決?

    使用rt-thread studio v2.2.7中sdk管理器下載包時,資源下載源已切換到gitee,但是下載時仍使用github源。 rt-thread 包還不支持導(dǎo)入功能,哎?。。。。?/div>
    發(fā)表于 09-16 08:08

    NVIDIA助力樞途科技突破視頻提取具身數(shù)據(jù)技術(shù)鴻溝

    樞途科技(Synapath AI)基于 NVIDIA GPU、Jetson AGX Orin 等算力底座、成熟的 AI 加速生態(tài)、NVIDIA Isaac Sim、Omniverse 平臺的仿真合成
    的頭像 發(fā)表于 08-30 16:11 ?1835次閱讀

    Nordic nRF5 SDK和softdevice介紹

    SDK和Softdevice的區(qū)別是什么?怎么選擇SDK和softdevice版本?芯片,SDK和softdevice有沒有版本兼容問題?怎么理解SDK目錄結(jié)構(gòu)?
    的頭像 發(fā)表于 08-20 09:54 ?3109次閱讀
    Nordic nRF5 <b class='flag-5'>SDK</b>和softdevice介紹

    NVIDIA Jetson + Isaac SDK 人形機(jī)器人方案全面解析

    NVIDIA Jetson + Isaac SDK 人形機(jī)器人方案全面解析 一、方案概述 Jetson 硬件平臺 :提供 AI + GPU 運算能力,配合多傳感器、視覺、傳動控制體系 Isaac
    的頭像 發(fā)表于 07-30 16:12 ?2206次閱讀

    NVIDIA Jetson + Isaac SDK 在人形機(jī)器人領(lǐng)域的方案詳解

    NVIDIA Jetson + Isaac SDK 在人形機(jī)器人領(lǐng)域的 方案詳解 ,涵蓋芯片型號、軟件平臺、開發(fā)工具鏈、應(yīng)用場景與典型客戶等。 一、方案概述:Jetson + Isaac SDK
    的頭像 發(fā)表于 07-30 16:05 ?3631次閱讀

    如何保存al視頻中的一幀照片?

    如何保存al視頻中的一幀照片
    發(fā)表于 07-11 08:07

    FCX3上的視頻亂碼怎么解決?

    我們在使用 CX3 和 1.3.5 EzUSB SDK 運行視頻傳感器時遇到了一些間歇性問題。 打開視頻任意時間后,視頻
    發(fā)表于 05-16 07:32