91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Edge AI 挑戰(zhàn)內(nèi)存技術(shù)

梁宏滿 ? 來源:uwjfisgw ? 作者:uwjfisgw ? 2022-07-19 17:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著邊緣人工智能的興起,對存儲系統(tǒng)提出了一系列新要求。當(dāng)今的內(nèi)存技術(shù)能否滿足這一具有挑戰(zhàn)性的新應(yīng)用的嚴格要求,新興內(nèi)存技術(shù)對邊緣 AI 的長期承諾是什么?

首先要意識到的是,沒有標(biāo)準(zhǔn)的“邊緣人工智能”應(yīng)用;最廣泛解釋的邊緣涵蓋了云外所有支持人工智能的電子系統(tǒng)。這可能包括“近邊緣”,通常涵蓋企業(yè)數(shù)據(jù)中心和本地服務(wù)器。

更進一步的是用于自動駕駛計算機視覺等應(yīng)用。用于制造的網(wǎng)關(guān)設(shè)備執(zhí)行 AI 推理以檢查生產(chǎn)線上產(chǎn)品的缺陷。電線桿上的 5G“邊緣盒”分析智能城市應(yīng)用(如交通管理)的視頻流。5G 基礎(chǔ)設(shè)施在邊緣使用人工智能來實現(xiàn)復(fù)雜但高效的波束形成算法。

在“遠端”,人工智能在手機等設(shè)備中得到支持——想想 Snapchat 過濾器——在將結(jié)果發(fā)送到另一個網(wǎng)關(guān)設(shè)備之前,工廠中執(zhí)行傳感器融合的設(shè)備和物聯(lián)網(wǎng)傳感器節(jié)點的語音控制。

內(nèi)存在邊緣 AI 系統(tǒng)中的作用——存儲神經(jīng)網(wǎng)絡(luò)權(quán)重、模型代碼、輸入數(shù)據(jù)和中間激活——對于大多數(shù) AI 應(yīng)用程序來說都是相同的。必須加速工作負載以最大化 AI 計算能力以保持高效,因此對容量和帶寬的要求通常很高。然而,特定應(yīng)用的需求是多種多樣的,可能包括尺寸、功耗、低電壓操作、可靠性、熱/冷卻考慮和成本。

邊緣數(shù)據(jù)中心

邊緣數(shù)據(jù)中心是一個關(guān)鍵的邊緣市場。用例范圍從醫(yī)學(xué)成像、研究和復(fù)雜的金融算法,其中隱私阻止上傳到云。另一個是自動駕駛汽車,延遲會阻止它。

這些系統(tǒng)使用與其他應(yīng)用程序中的服務(wù)器相同的內(nèi)存。

“在開發(fā)和訓(xùn)練 AI 算法的應(yīng)用中,將低延遲 DRAM 用于快速、字節(jié)級的主內(nèi)存非常重要,”內(nèi)存產(chǎn)品設(shè)計師和開發(fā)商 Smart Modular Technologies 的解決方案架構(gòu)師 Pekon Gupta 說?!按笮蛿?shù)據(jù)集需要高容量 RDIMM 或 LRDIMM。系統(tǒng)加速需要 NVDIMM——我們將它們用于寫入緩存和檢查點,而不是速度較慢的 SSD?!?/p>

poYBAGLPB2eAQG9FAA2MfYOezrI268.png


佩孔古普塔

將計算節(jié)點定位在靠近最終用戶的位置是電信運營商采用的方法。

“我們看到了使這些[電信] 邊緣服務(wù)器更有能力運行復(fù)雜算法的趨勢,”Gupta 說。因此,“服務(wù)提供商正在使用 RDIMM、LRDIMM 和 NVDIMM 等高可用性持久內(nèi)存等設(shè)備為這些邊緣服務(wù)器增加更多內(nèi)存和處理能力?!?/p>

Gupta 認為英特爾 Optane 是該公司的 3D-Xpoint 非易失性內(nèi)存,其特性介于 DRAM 和閃存之間,是服務(wù)器 AI 應(yīng)用程序的良好解決方案。

“Optane DIMM 和 NVDIMM 都被用作 AI 加速器,”他說?!癗VDIMM 為 AI 應(yīng)用程序加速提供了非常低延遲的分層、緩存、寫入緩沖和元數(shù)據(jù)存儲功能。Optane 數(shù)據(jù)中心 DIMM 用于內(nèi)存數(shù)據(jù)庫加速,其中數(shù)百 GB 到 TB 的持久內(nèi)存與 DRAM 結(jié)合使用。盡管這些都是用于 AI/ML 加速應(yīng)用程序的持久內(nèi)存解決方案,但它們有不同且獨立的用例?!?/p>

英特爾 Optane 產(chǎn)品營銷總監(jiān) Kristie Mann 告訴EE Times , Optane正在服務(wù)器 AI 領(lǐng)域獲得應(yīng)用。

pYYBAGLPB4CAGPeXAANGq_ZQNwk429.png


英特爾的克里斯蒂曼

“我們的客戶現(xiàn)在已經(jīng)在使用 Optane 持久內(nèi)存來支持他們的 AI 應(yīng)用程序,”她說?!八麄冋诔晒Φ貫殡娮由虅?wù)、視頻推薦引擎和實時財務(wù)分析應(yīng)用提供支持。由于可用容量的增加,我們看到了向內(nèi)存應(yīng)用程序的轉(zhuǎn)變?!?/p>

DRAM 的高價格使 Optane 越來越成為有吸引力的替代品。配備兩個 Intel Xeon Scalable 處理器和 Optane 持久內(nèi)存的服務(wù)器可以為需要大量數(shù)據(jù)的應(yīng)用程序容納多達 6 TB 的內(nèi)存。

“DRAM 仍然是最受歡迎的,但從成本和容量的角度來看,它有其局限性,”Mann 說?!坝捎谄涑杀尽⑷萘亢托阅軆?yōu)勢,Optane 持久內(nèi)存和 Optane SSD 等新的內(nèi)存和存儲技術(shù)正在 [新興] 作為 DRAM 的替代品。Optane SSD 是特別強大的緩存 HDD 和 NAND SSD 數(shù)據(jù),可以持續(xù)為 AI 應(yīng)用程序提供數(shù)據(jù)?!?/p>

她補充說,Optane 還優(yōu)于目前尚未完全成熟或可擴展的其他新興存儲器。

poYBAGLPB5qAPYhrABG_49rqtwE403.png


英特爾傲騰 200 系列模塊。英特爾表示,Optane 目前
已用于為 AI 應(yīng)用程序提供動力。(來源:英特爾)

GPU 加速

對于高端邊緣數(shù)據(jù)中心和邊緣服務(wù)器應(yīng)用程序,GPU 等 AI 計算加速器正在獲得關(guān)注。除 DRAM 外,這里的內(nèi)存選擇還包括GDDR,一種用于為高帶寬 GPU 供電的特殊 DDR SDRAM,以及HBM,一種相對較新的芯片堆疊技術(shù),它將多個內(nèi)存芯片與 GPU 本身放在同一個封裝中。

兩者都是為 AI 應(yīng)用程序所需的極高內(nèi)存帶寬而設(shè)計的。

對于最苛刻的 AI 模型訓(xùn)練,HBM2E 提供 3.6 Gbps 并提供 460 GB/s 的內(nèi)存帶寬(兩個 HBM2E 堆棧提供接近 1 TB/s)。這是可用的性能最高的內(nèi)存之一,在最小的區(qū)域內(nèi)具有最低的功耗。GPU 領(lǐng)導(dǎo)者Nvidia 在其所有數(shù)據(jù)中心產(chǎn)品中都使用 HBM 。

Rambus IP 內(nèi)核產(chǎn)品營銷高級總監(jiān) Frank Ferro 表示,GDDR6 還用于邊緣的 AI 推理應(yīng)用程序。Ferro 表示,GDDR6 可以滿足邊緣 AI 推理系統(tǒng)的速度、成本和功耗要求。例如,GDDR6 可以提供 18 Gbps 并提供 72 GB/s。擁有四個 GDDR6 DRAM 可提供接近 300 GB/s 的內(nèi)存帶寬。

“GDDR6 用于 AI 推理和 ADAS 應(yīng)用,”Ferro 補充道。

在將 GDDR6 與 LPDDR(從 Jetson AGX Xavier 到 Jetson Nano 的大多數(shù)非數(shù)據(jù)中心邊緣解決方案的 Nvidia 方法)進行比較時,F(xiàn)erro 承認 LPDDR 適用于邊緣或端點的低成本 AI 推理。

“LPDDR 的帶寬限制為 LPDDR4 的 4.2 Gbps 和 LPDDR5 的 6.4 Gbps,”他說?!半S著內(nèi)存帶寬需求的增加,我們將看到越來越多的設(shè)計使用 GDDR6。這種內(nèi)存帶寬差距有助于推動對 GDDR6 的需求?!?/p>

poYBAGLPB7GAYr6WAAilqmR5OZU102.png


Rambus 的弗蘭克·費羅

盡管設(shè)計為與 GPU 一起使用,但其他處理加速器可以利用 GDDR 的帶寬。Ferro 重點介紹了 Achronix Speedster7t,這是一款基于 FPGA 的 AI 加速器,用于推理和一些低端訓(xùn)練。

“在邊緣 AI 應(yīng)用中,HBM 和 GDDR 內(nèi)存都有空間,”Ferro 說。HBM“將繼續(xù)用于邊緣應(yīng)用。對于 HBM 的所有優(yōu)點,由于 3D 技術(shù)和 2.5D 制造,成本仍然很高。鑒于此,GDDR6 是成本和性能之間的良好權(quán)衡,尤其是對于網(wǎng)絡(luò)中的 AI 推理?!?/p>

HBM 用于高性能數(shù)據(jù)中心 AI ASIC,例如Graphcore IPU。雖然它提供了出色的性能,但對于某些應(yīng)用來說,它的價格可能很高。

高通公司就是使用這種方法的公司之一。其 Cloud AI 100 針對邊緣數(shù)據(jù)中心、5G“邊緣盒”、ADAS/自動駕駛和 5G 基礎(chǔ)設(shè)施中的 AI 推理加速。

“與 HBM 相比,使用標(biāo)準(zhǔn) DRAM 對我們來說很重要,因為我們希望降低材料成本,”高通計算和邊緣云部門總經(jīng)理 Keith Kressin 說?!拔覀兿M褂每梢詮亩鄠€供應(yīng)商處購買的標(biāo)準(zhǔn)組件。我們有客戶想要在芯片上做所有事情,我們也有客戶想要跨卡。但他們都希望保持合理的成本,而不是選擇 HBM 甚至更奇特的內(nèi)存。

“在訓(xùn)練中,”他繼續(xù)說,“你有可以跨越[多個芯片]的非常大的模型,但對于推理[Cloud AI 100的市場],很多模型都更加本地化?!?/p>

遙遠的邊緣

在數(shù)據(jù)中心之外,邊緣人工智能系統(tǒng)通常專注于推理,但有一些明顯的例外,例如聯(lián)邦學(xué)習(xí)和其他增量訓(xùn)練技術(shù)。

一些用于功耗敏感應(yīng)用的 AI 加速器使用內(nèi)存進行 AI 處理。基于多維矩陣乘法的推理適用于具有用于執(zhí)行計算的存儲單元陣列的模擬計算技術(shù)。使用這種技術(shù),Syntiant 的設(shè)備專為消費電子產(chǎn)品的語音控制而設(shè)計,而Gyrfalcon 的設(shè)備已被設(shè)計成智能手機,用于處理相機效果的推理。

在另一個例子中,智能處理單元專家Mythic使用閃存單元的模擬操作在單個閃存晶體管上存儲一個 8 位整數(shù)值(一個權(quán)重參數(shù)),使其比其他內(nèi)存計算技術(shù)更密集。編程的閃存晶體管用作可變電阻器;輸入作為電壓提供,輸出作為電流收集。結(jié)合 ADCDAC,結(jié)果是一個高效的矩陣乘法引擎。

Mythic 的 IP 在于補償和校準(zhǔn)技術(shù),可消除噪聲并實現(xiàn)可靠的 8 位計算。

pYYBAGLPB8mAVB0xAAQ5UsQ5TzM804.png


Mythic 使用閃存晶體管陣列來制造密集的乘法累加引擎(來源:Mythic)

除了內(nèi)存計算設(shè)備外,ASIC 在特定的邊緣領(lǐng)域也很受歡迎,特別是低功耗和超低功耗系統(tǒng)。ASIC 的內(nèi)存系統(tǒng)使用多種內(nèi)存類型的組合。分布式本地 SRAM 是最快、最節(jié)能的,但不是很節(jié)省面積。在芯片上擁有一個大容量 SRAM 的面積效率更高,但會帶來性能瓶頸。片外 DRAM 更便宜,但耗電量更大。

Flex Logix 的首席執(zhí)行官 Geoff Tate 表示,要為其 InferX X1 在分布式 SRAM、大容量 SRAM 和片外 DRAM 之間找到適當(dāng)?shù)钠胶?,需要進行一系列性能模擬。目標(biāo)是最大化每美元的推理吞吐量——這是芯片尺寸、封裝成本和使用的 DRAM 數(shù)量的函數(shù)。

“最佳點是單個 x32 LPDDR4 DRAM;4K MAC(933MHz 時為 7.5 TOPS);和大約 10MB 的 SRAM,”他說?!癝RAM 速度很快,但與 DRAM 相比價格昂貴。使用臺積電的16納米制程技術(shù),1MB的SRAM大約需要1.1mm 2。“我們的 InferX X1 只有 54mm 2,由于我們的架構(gòu),DRAM 訪問很大程度上與計算重疊,因此沒有性能影響。對于具有單個 DRAM 的大型模型來說,這是正確的權(quán)衡,至少對于我們的架構(gòu)而言,”Tate 說。

Flex Logix 芯片將用于需要實時操作的邊緣 AI 推理應(yīng)用,包括以低延遲分析流視頻。這包括 ADAS 系統(tǒng)、安全鏡頭分析、醫(yī)學(xué)成像和質(zhì)量保證/檢查應(yīng)用程序。

在這些應(yīng)用中,什么樣的 DRAM 將與 InferX X1 一起使用?

“我們認為 LPDDR 將是最受歡迎的:單個 DRAM 提供超過 10GB/秒的帶寬……但有足夠的位來存儲權(quán)重/中間激活,”Tate 說?!叭魏纹渌?DRAM 都需要更多的芯片和接口,并且需要購買更多未使用的位?!?/p>

這里有任何新興內(nèi)存技術(shù)的空間嗎?

“當(dāng)使用任何新興存儲器時,晶圓成本會急劇上升,而 SRAM 是‘免費的’,除了硅片面積,”他補充道?!半S著經(jīng)濟的變化,臨界點也可能發(fā)生變化,但它會更進一步?!?/p>

涌現(xiàn)的記憶

盡管具有規(guī)模經(jīng)濟性,但其他內(nèi)存類型為人工智能應(yīng)用提供了未來的可能性。

MRAM(磁阻式 RAM)通過由施加電壓控制的磁體方向存儲每一位數(shù)據(jù)。如果電壓低于翻轉(zhuǎn)位所需的電壓,則只有位翻轉(zhuǎn)的可能性。這種隨機性是不受歡迎的,因此用更高的電壓驅(qū)動 MRAM 以防止它發(fā)生。盡管如此,一些人工智能應(yīng)用程序可以利用這種固有的隨機性(可以被認為是隨機選擇或生成數(shù)據(jù)的過程)。

實驗已將其 MRAM 的隨機性功能應(yīng)用于Gyrfalcon 的設(shè)備,這是一種將所有權(quán)重和激活的精度降低到 1 位的技術(shù)。這用于顯著降低遠端應(yīng)用程序的計算和功率要求。取決于重新訓(xùn)練網(wǎng)絡(luò)的方式,可能會在準(zhǔn)確性上進行權(quán)衡。一般來說,盡管精度降低,神經(jīng)網(wǎng)絡(luò)仍可以可靠地運行。

“二值化神經(jīng)網(wǎng)絡(luò)的獨特之處在于,即使數(shù)字為 -1 或 +1 的確定性降低,它們也能可靠地運行,”Spin Memory 產(chǎn)品副總裁 Andy Walker 說?!拔覀儼l(fā)現(xiàn),這種 BNN 仍然可以以高準(zhǔn)確度運行,因為 [通過] 引入錯誤寫入的內(nèi)存位的所謂‘誤碼率’降低了這種確定性?!?/p>

poYBAGLPB-WAWQm3ACnws1nBnFo303.png


自旋記憶的安迪沃克

MRAM 可以在低電壓水平下以受控方式自然地引入誤碼率,在保持精度的同時進一步降低功耗要求。關(guān)鍵是在最低電壓和最短時間下確定最佳精度。沃克說,這轉(zhuǎn)化為最高的能源效率。

雖然這項技術(shù)也適用于更高精度的神經(jīng)網(wǎng)絡(luò),但它特別適用于 BNN,因為 MRAM 單元有兩種狀態(tài),與 BNN 中的二進制狀態(tài)相匹配。

Walker 表示,在邊緣使用 MRAM 是另一個潛在應(yīng)用。

“對于邊緣人工智能,MRAM 能夠在不需要高性能精度的應(yīng)用中以較低的電壓運行,但提高能效和內(nèi)存耐用性非常重要,”他說?!按送?,MRAM 固有的非易失性允許在沒有電源的情況下保存數(shù)據(jù)。

一種應(yīng)用是作為所謂的統(tǒng)一存儲器,“這種新興存儲器可以作為嵌入式閃存和 SRAM 的替代品,節(jié)省芯片面積并避免 SRAM 固有的靜態(tài)功耗?!?/p>

雖然 Spin Memory 的 MRAM 正處于商業(yè)應(yīng)用的邊緣,但 BNN 的具體實施最好在基本 MRAM 單元的變體上工作。因此,它仍處于研究階段。

神經(jīng)形態(tài) ReRAM

用于邊緣 AI 應(yīng)用的另一種新興內(nèi)存是 ReRAM。Politecnico Milan 最近使用 Weebit Nano 的氧化硅 (SiOx) ReRAM 技術(shù)進行的研究顯示了神經(jīng)形態(tài)計算的前景。ReRAM 為神經(jīng)網(wǎng)絡(luò)硬件增加了一個可塑性維度;也就是說,它可以隨著條件的變化而發(fā)展——神經(jīng)形態(tài)計算中的一個有用品質(zhì)。

當(dāng)前的神經(jīng)網(wǎng)絡(luò)無法在不忘記他們接受過訓(xùn)練的任務(wù)的情況下學(xué)習(xí),而大腦可以很容易地做到這一點。在 AI 術(shù)語中,這是“無監(jiān)督學(xué)習(xí)”,算法在沒有標(biāo)簽的數(shù)據(jù)集上執(zhí)行推理,在數(shù)據(jù)中尋找自己的模式。最終的結(jié)果可能是支持 ReRAM 的邊緣 AI 系統(tǒng),它可以就地學(xué)習(xí)新任務(wù)并適應(yīng)周圍的環(huán)境。

總體而言,內(nèi)存制造商正在引入提供人工智能應(yīng)用所需的速度和帶寬的技術(shù)。各種內(nèi)存,無論是與 AI 計算在同一芯片上、在同一封裝中還是在單獨的模塊上,都可用于適應(yīng)許多邊緣 AI 應(yīng)用。

雖然邊緣 AI 的內(nèi)存系統(tǒng)的確切性質(zhì)取決于應(yīng)用程序,但 GDDR、HBM 和 Optane 被證明在數(shù)據(jù)中心中很受歡迎,而 LPDDR 與片上 SRAM 競爭端點應(yīng)用程序。

新興記憶正在將其新穎的特性用于研究,旨在推動神經(jīng)網(wǎng)絡(luò)超越當(dāng)今硬件的能力,以實現(xiàn)未來的節(jié)能、受大腦啟發(fā)的系統(tǒng)。


、審核編輯 黃昊宇
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 內(nèi)存
    +關(guān)注

    關(guān)注

    9

    文章

    3212

    瀏覽量

    76388
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39911

    瀏覽量

    301538
  • EDGE
    +關(guān)注

    關(guān)注

    0

    文章

    191

    瀏覽量

    44141
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    南亞科技3D堆疊AI內(nèi)存UltraWIO技術(shù)

    南亞科技近日首度對外界披露其定制化AI內(nèi)存的研發(fā)進度。公司表示,正與多家邏輯IC廠及生態(tài)系伙伴合作,部分產(chǎn)品已進入試產(chǎn)階段,預(yù)計今年下半年將浮現(xiàn)更多具體成果。 此次南亞科技主推的技術(shù)
    的頭像 發(fā)表于 03-06 14:10 ?1749次閱讀

    使用NORDIC AI的好處

    原始傳感器數(shù)據(jù),可顯著降低功耗、延長電池壽命。[Edge AI 概述; Nordic Edge AI 技術(shù)頁] 降低云依賴與時延 直接在
    發(fā)表于 01-31 23:16

    意法半導(dǎo)體STM32 AI模型庫助力邊緣AI落地應(yīng)用

    在開發(fā)邊緣AIEdge AI)時,可以說“理解問題本身”就已成功了一半。然而,隨著AI模型持續(xù)演進,即便是經(jīng)驗豐富的工程師,也會發(fā)現(xiàn)優(yōu)化變得越來越復(fù)雜。除此之外,如何在嚴格的
    的頭像 發(fā)表于 01-14 11:07 ?637次閱讀

    聯(lián)想集團想幫幫服務(wù)智能體榮膺2025 EDGE AWARDS最佳AI創(chuàng)新應(yīng)用

    2025年12月21日,鈦媒體2025 EDGE AWARDS全球創(chuàng)新評選正式收官,想幫幫服務(wù)智能體憑借其卓越的創(chuàng)新技術(shù)和應(yīng)用實力,成功入選年度創(chuàng)新AI榜,并榮膺「最佳AI創(chuàng)新應(yīng)用獎項
    的頭像 發(fā)表于 12-30 11:26 ?640次閱讀

    探索PSOC Edge E84 AI Kit:開啟下一代機器學(xué)習(xí)邊緣設(shè)備設(shè)計之旅

    探索PSOC Edge E84 AI Kit:開啟下一代機器學(xué)習(xí)邊緣設(shè)備設(shè)計之旅 在電子工程師的世界里,不斷追求創(chuàng)新和高效是永恒的主題。今天,我們將深入探討一款專為快速原型開發(fā)而設(shè)計的強大
    的頭像 發(fā)表于 12-18 14:45 ?627次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰(zhàn)

    當(dāng)今社會,AI已經(jīng)發(fā)展很迅速了,但是你了解AI的發(fā)展歷程嗎?本章作者將為我們打開AI的發(fā)展歷程以及需求和挑戰(zhàn)的面紗。 從2017年開始生成式AI
    發(fā)表于 09-12 16:07

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+內(nèi)容總覽

    ,其中第一章是概論,主要介紹大模型浪潮下AI芯片的需求與挑戰(zhàn)。第二章和第三章分別介紹實現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法和架構(gòu)。以及一些新型的算法和思路。第四章是全面介紹半導(dǎo)體芯產(chǎn)業(yè)的前沿技術(shù)
    發(fā)表于 09-05 15:10

    科普:什么AI 內(nèi)存技術(shù)

    AI 內(nèi)存是一種專為人工智能 (AI) 應(yīng)用設(shè)計的新型內(nèi)存技術(shù)。與傳統(tǒng)的通用內(nèi)存(如 DDR5
    的頭像 發(fā)表于 09-03 15:44 ?1417次閱讀

    2.0.0版本的ST Edge AI Core在linux平臺上可以把量化后的onnx模型轉(zhuǎn)換為.nb,但是運行報錯,缺少文件,為什么?

    2.0.0版本的ST Edge AI Core工具在linux平臺上應(yīng)該是可以把量化后的onnx模型轉(zhuǎn)換為.nb,但是運行報錯,缺少文件。
    發(fā)表于 06-17 06:29

    邊緣AI的優(yōu)勢和技術(shù)基石

    在萬物皆可AI(人工智能)的今天,市場上幾乎每家企業(yè)都在宣稱自己的業(yè)務(wù)中有了AI成分。因此,將AI接入極靠近終端客戶的網(wǎng)絡(luò)邊緣也就沒什么懸念了。這里的邊緣人工智能(即Edge
    的頭像 發(fā)表于 06-12 10:14 ?1489次閱讀
    邊緣<b class='flag-5'>AI</b>的優(yōu)勢和<b class='flag-5'>技術(shù)</b>基石

    2025研華嵌入式設(shè)計論壇上海站:聚焦Edge Computing &amp;amp; Edge AI,共探技術(shù)創(chuàng)新與生態(tài)融合

    2025研華嵌入式設(shè)計論壇上海站圓滿落幕:聚焦Edge Computing Edge AI技術(shù)創(chuàng)新,聚勢生態(tài)”為主題的嵌入式設(shè)計論壇。本次論壇匯聚了眾多行業(yè)專家及企業(yè)代表,共同探討
    發(fā)表于 05-30 11:56 ?1210次閱讀
    2025研華嵌入式設(shè)計論壇上海站:聚焦<b class='flag-5'>Edge</b> Computing &amp;amp; <b class='flag-5'>Edge</b> <b class='flag-5'>AI</b>,共探<b class='flag-5'>技術(shù)</b>創(chuàng)新與生態(tài)融合

    面向AI與機器學(xué)習(xí)應(yīng)用的開發(fā)平臺 AMD/Xilinx Versal? AI Edge VEK280

    AMD/Xilinx Versal? AI Edge VEK280評估套件是一款面向AI與機器學(xué)習(xí)應(yīng)用的開發(fā)平臺,專為邊緣計算場景優(yōu)化設(shè)計。以下從核心配置、技術(shù)特性、應(yīng)用場景及開發(fā)支持
    的頭像 發(fā)表于 04-11 18:33 ?2479次閱讀
    面向<b class='flag-5'>AI</b>與機器學(xué)習(xí)應(yīng)用的開發(fā)平臺 AMD/Xilinx Versal? <b class='flag-5'>AI</b> <b class='flag-5'>Edge</b> VEK280

    Edge AI+儲能——能源新方向 2025研華儲能合伙伙伴會議圓滿落幕!

    及合作伙伴參與,共同探討儲能技術(shù)創(chuàng)新與產(chǎn)業(yè)智能化升級路徑。 ? 聚焦前沿技術(shù),共話產(chǎn)業(yè)未來 會議開場,研華以《 Edge AI創(chuàng)新方案:加速光儲充產(chǎn)業(yè)智能化應(yīng)用與高效部署 》為題,分享
    發(fā)表于 04-02 11:32 ?402次閱讀
    <b class='flag-5'>Edge</b> <b class='flag-5'>AI</b>+儲能——能源新方向 2025研華儲能合伙伙伴會議圓滿落幕!

    研華科技全棧式Edge AI產(chǎn)品助力工業(yè)智能化升級

    在2025慕尼黑上海電子設(shè)備展上,研華展示了其全棧式Edge AI產(chǎn)品,助力工業(yè)智能化升級。通過邊緣計算與AI技術(shù)的深度融合,研華賦能智能制造,推動產(chǎn)業(yè)創(chuàng)新發(fā)展。本文深入解析研華的
    的頭像 發(fā)表于 03-28 17:23 ?1433次閱讀

    ST EDGE AI云服務(wù)最后一步無法下載工程是怎么回事?

    ST EDGE AI云服務(wù)我選擇使用ST提供的模型,使用cube ai 9.0.0,選擇STM32板卡。之后就按照文檔一步一步操作,基準(zhǔn)測試也能運行的到結(jié)果(說明云端是生成工程并編譯下載到開發(fā)板中
    發(fā)表于 03-13 08:17