91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)在時(shí)間序列預(yù)測(cè)的總結(jié)和未來(lái)方向分析

穎脈Imgtec ? 2024-02-24 08:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來(lái)源:DeepHub IMBA


2023年是大語(yǔ)言模型和穩(wěn)定擴(kuò)散的一年,時(shí)間序列領(lǐng)域雖然沒(méi)有那么大的成就,但是卻有緩慢而穩(wěn)定的進(jìn)展。Neurips、ICML和AAAI等會(huì)議都有transformer 結(jié)構(gòu)(BasisFormer、Crossformer、Inverted transformer和Patch transformer)的改進(jìn),還出現(xiàn)了將數(shù)值時(shí)間序列數(shù)據(jù)與文本和圖像合成的新體系結(jié)構(gòu)(CrossVIVIT), 也出現(xiàn)了直接應(yīng)用于時(shí)間序列的可能性的LLM,以及新形式的時(shí)間序列正則化/規(guī)范化技術(shù)(san)。

我們這篇文章就來(lái)總結(jié)下2023年深度學(xué)習(xí)在時(shí)間序列預(yù)測(cè)中的發(fā)展和2024年未來(lái)方向分析


Neurips 2023

在今年的NIPs上,有一些關(guān)于transformer 、歸一化、平穩(wěn)性和多模態(tài)學(xué)習(xí)的有趣的新論文。但是在時(shí)間序列領(lǐng)域沒(méi)有任何重大突破,只有一些實(shí)際的,漸進(jìn)的性能改進(jìn)和有趣的概念證明。1、Adaptive Normalization for Non-stationary Time Series

657dd9de-d2ab-11ee-9118-92fbcf53809c.jpg

論文介紹了一種“模型不可知的歸一化框架”來(lái)簡(jiǎn)化非平穩(wěn)時(shí)間序列數(shù)據(jù)的預(yù)測(cè)。作者讓SAN分兩步操作:訓(xùn)練一個(gè)統(tǒng)計(jì)預(yù)測(cè)模型(通常是ARIMA),然后訓(xùn)練實(shí)際的深度時(shí)間序列基礎(chǔ)模型(使用統(tǒng)計(jì)模型對(duì)TS數(shù)據(jù)進(jìn)行切片、歸一化和反歸一化)。統(tǒng)計(jì)模型對(duì)輸入時(shí)間序列進(jìn)行切片,以便學(xué)習(xí)更健壯的時(shí)間序列表示并去除非平穩(wěn)屬性。作者指出:“通過(guò)對(duì)切片級(jí)特性進(jìn)行建模,SAN能夠消除局部區(qū)域的非平穩(wěn)性?!盨AN還顯式地預(yù)測(cè)目標(biāo)窗口的統(tǒng)計(jì)信息(標(biāo)準(zhǔn)差/平均值)。這使得它在處理非平穩(wěn)數(shù)據(jù)時(shí),與普通模型相比,能夠更好地適應(yīng)隨時(shí)間的變化。采用transformer 模型作為基本預(yù)測(cè)模型,對(duì)典型的時(shí)間序列預(yù)測(cè)基準(zhǔn)(如電力、交換、交通等)進(jìn)行指標(biāo)驗(yàn)證。作者發(fā)現(xiàn)SAN在這些基準(zhǔn)數(shù)據(jù)集上持續(xù)提高了基本模型的性能(盡管他們沒(méi)有測(cè)試Inverted Transformer,因?yàn)檫@篇論文是在Inverted Transformer之前發(fā)布的)。由于該模型結(jié)合了一個(gè)統(tǒng)計(jì)模型(通常是ARIMA)和一個(gè)普通的transformer ,我認(rèn)為調(diào)優(yōu)和調(diào)試(特別是在新的數(shù)據(jù)集上)可能會(huì)很棘手和麻煩。因?yàn)閹缀跛械臅r(shí)間序列模型都將序列輸入長(zhǎng)度作為超參數(shù)。另外就是“切片”的切片與普通的序列窗口有何不同?作者還是沒(méi)有說(shuō)清楚??偟膩?lái)說(shuō),我認(rèn)為這仍然是一個(gè)相當(dāng)強(qiáng)大的貢獻(xiàn),因?yàn)樗膶?shí)驗(yàn)結(jié)果和即插即用屬性。2、BasisFormer658229e4-d2ab-11ee-9118-92fbcf53809c.jpgBasisFormer使用可學(xué)習(xí)和可解釋的“basis”來(lái)改進(jìn)一般的transformer 體系結(jié)構(gòu)。這里的“basis”指的是創(chuàng)建一個(gè)類(lèi)似于NBeats的神經(jīng)“basis”(例如,為基于多項(xiàng)式的函數(shù)學(xué)習(xí)趨勢(shì)、季節(jié)性等的系數(shù))。該模型分為三個(gè)部分:基礎(chǔ)模塊、系數(shù)模塊和預(yù)測(cè)模塊?;K試圖以自監(jiān)督的方式確定一組適用于歷史和未來(lái)時(shí)間序列數(shù)據(jù)的數(shù)據(jù)基礎(chǔ)趨勢(shì)。basis模塊通過(guò)對(duì)比學(xué)習(xí)和一個(gè)名為InfoNCE loss的特定損失函數(shù)(該函數(shù)試圖學(xué)習(xí)未來(lái)和過(guò)去時(shí)間序列之間的聯(lián)系)。coef模型試圖“模擬時(shí)間序列和一組基礎(chǔ)趨勢(shì)之間的相似性”。對(duì)于coef模型,作者使用了一個(gè)交叉注意力模塊,該模塊將basis和時(shí)間序列作為輸入。然后將輸出輸入到包含多個(gè)MLP的預(yù)測(cè)模塊中。作者在典型的時(shí)間序列預(yù)測(cè)數(shù)據(jù)集(ETH1, ETH, weather, exchange)上評(píng)估他們的論文。發(fā)現(xiàn)BasisFormer比其他模型(Fedformer、Informer等)的性能提高了11-15%。BasisFormer還沒(méi)有被拿來(lái)和Inverted Transformer比較,因?yàn)樗€沒(méi)有發(fā)布。似乎Inverted Transformer和可能的Crossformer 可能會(huì)略?xún)?yōu)于BasisFormer。還記的去年我們看到了“Are Transformers Effective for Time Series Forecasting?”這篇論文批評(píng)了許多Transformers 模型,并展示了一個(gè)簡(jiǎn)單的模型“D-Linear”如何超越它們。在2023年從BasisFromer開(kāi)始,已經(jīng)開(kāi)始緩慢的解決這些問(wèn)題,并超越上面提到的基準(zhǔn)模型。這篇論文模型的技術(shù)是可靠的,但這篇論文優(yōu)點(diǎn)難理解。因?yàn)樽髡呓榻B了學(xué)習(xí)“basis”的概念,但并沒(méi)有真正解釋這種方法的新穎性以及它與其他模型的不同之處。

3、Improving day-ahead Solar Irradiance Time Series Forecasting by Leveraging Spatio-Temporal Context論文提出了一種基于混合(視覺(jué)和時(shí)間序列)深度學(xué)習(xí)的架構(gòu),用于預(yù)測(cè)第二天的太陽(yáng)能產(chǎn)量。太陽(yáng)能的生產(chǎn)經(jīng)常受到云層覆蓋的影響,這在衛(wèi)星圖像數(shù)據(jù)中可以看到,但在數(shù)值數(shù)據(jù)中沒(méi)有很好地體現(xiàn)出來(lái)。除了模型本身外,論文的另外貢獻(xiàn)是研究人員構(gòu)建并開(kāi)源的多模態(tài)衛(wèi)星圖像數(shù)據(jù)集。作者描述了一個(gè)多級(jí)Transformers 架構(gòu),同時(shí)關(guān)注數(shù)值時(shí)間序列和圖像數(shù)據(jù)。時(shí)間序列數(shù)據(jù)通過(guò)時(shí)間Transformers 圖像通過(guò)視覺(jué)Transformers 。然后,交叉注意力模塊將前兩個(gè)模塊的圖像數(shù)據(jù)綜合起來(lái)。最后數(shù)據(jù)進(jìn)入一個(gè)輸出預(yù)測(cè)的最終時(shí)態(tài)Transformers 。作者在論文中提到的另一個(gè)有用的想法被稱(chēng)為ROPE或旋轉(zhuǎn)位置編碼。這將在編碼/位置嵌入中創(chuàng)建坐標(biāo)對(duì)。這是用來(lái)描述從云層到太陽(yáng)能站的距離。作者對(duì)他們的新數(shù)據(jù)集進(jìn)行評(píng)估和基準(zhǔn)測(cè)試,比較了Informer、Reformer、Crossformer和其他深度時(shí)間序列模型的性能。作者還在整合圖像數(shù)據(jù)方面區(qū)分了困難和容易的任務(wù),他們的方法優(yōu)于其他模型。這篇論文提供了一個(gè)有趣的框架,ROPE的概念也很有趣,對(duì)于任何使用坐標(biāo)形式的地理數(shù)據(jù)的人都有潛在的幫助。數(shù)據(jù)集本身對(duì)于多模態(tài)預(yù)測(cè)的持續(xù)工作非常有用,這是一項(xiàng)非常有益的貢獻(xiàn)。

4、Large Language Models Are Zero-Shot Time Series Forecasters這篇論文探討了預(yù)訓(xùn)練的llm能否直接以整數(shù)形式輸入時(shí)間序列數(shù)據(jù),并以零樣本的方式預(yù)測(cè)未來(lái)數(shù)據(jù)。作者描述了使用GPT-3和GPT-4和開(kāi)源LLMs不進(jìn)一步修改結(jié)構(gòu)直接與時(shí)間序列值交互的情況。最后還描述了他們對(duì)模型零樣本訓(xùn)練行為起源的思考。作者假設(shè),這種行為是提取知識(shí)的預(yù)訓(xùn)練的普遍通用性的結(jié)果。在上面提到的標(biāo)準(zhǔn)時(shí)間序列基準(zhǔn)數(shù)據(jù)集評(píng)估他們的模型。雖然模型沒(méi)有達(dá)到SOTA性能,但考慮到它完全是零樣本并且沒(méi)有額外的微調(diào),所以表現(xiàn)還是很好的。

llm可以開(kāi)箱即用地進(jìn)行TS預(yù)測(cè),因?yàn)樗鼈兌际窃谖谋緮?shù)據(jù)上訓(xùn)練的。這一領(lǐng)域可能值得未來(lái)進(jìn)一步探索,這篇論文是一個(gè)很好的一步。但是該模型目前只能處理單變量時(shí)間序列


ICML 、ICLR 2023

除了Neurips之外,ICML和ICLR 2023還重點(diǎn)介紹了幾篇關(guān)于時(shí)間序列預(yù)測(cè)/分析的深度學(xué)習(xí)的論文。以下是一些我覺(jué)得很有趣的,并且對(duì)未來(lái)一年仍有意義的建議:1、Crossformer6586cc06-d2ab-11ee-9118-92fbcf53809c.jpg

該模型是專(zhuān)門(mén)為多元時(shí)間序列預(yù)測(cè)(MTS)開(kāi)發(fā)的。該模型采用維度分段嵌入(DSW)機(jī)制。DSW嵌入與傳統(tǒng)嵌入的不同之處在于它采用二維格式的數(shù)據(jù)。并且跨變量和時(shí)間維度顯式地從MTS數(shù)據(jù)生成段。該模型在標(biāo)準(zhǔn)MTS數(shù)據(jù)集(ETH, exchange等)上進(jìn)行了評(píng)估:在發(fā)布時(shí)時(shí)優(yōu)于大多數(shù)其他模型,例如Informer和DLinear。作者還對(duì)dSW進(jìn)行了消融研究。這篇來(lái)自ICLR的關(guān)于的論文在預(yù)測(cè)河流流量時(shí)表現(xiàn)不錯(cuò),但是是在一次預(yù)測(cè)多個(gè)目標(biāo)時(shí),性能似乎會(huì)下降很多。也就是說(shuō),它的表現(xiàn)肯定比Informer和相關(guān)的Transformers 模型要好。

2、Learning Perturbations to Explain Time Series Predictions658b9f10-d2ab-11ee-9118-92fbcf53809c.jpg

大多數(shù)用于深度學(xué)習(xí)解釋的擾動(dòng)技術(shù)都是面向靜態(tài)數(shù)據(jù)(圖像和文本)的。但是對(duì)于時(shí)間序列特別是多元TS需要更大范圍的擾動(dòng)來(lái)學(xué)習(xí)隨機(jī)影響。作者提出了一種基于深度學(xué)習(xí)的方法,可以學(xué)習(xí)數(shù)據(jù)的掩碼和相關(guān)的擾動(dòng),更好地解釋特征的重要性。然后將掩碼和擾動(dòng)的輸入傳遞給模型,并將輸出與未擾動(dòng)數(shù)據(jù)的輸出進(jìn)行比較。據(jù)兩個(gè)輸出之間的差值計(jì)算損失。越來(lái)越多的研究人員正在深入研究解釋深度學(xué)習(xí)模型這是件好事。本文概述了現(xiàn)有的方法及其不足,并提出了一種改進(jìn)的方法。我認(rèn)為使用額外的神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)擾動(dòng)的想法增加了不必要的復(fù)雜性,因?yàn)槊慨?dāng)我們?cè)黾痈嗟膶雍皖~外的網(wǎng)絡(luò)時(shí),就會(huì)增加發(fā)生問(wèn)題的概率,特別是在已經(jīng)很大的網(wǎng)絡(luò)上。別忘了奧卡姆剃刀定律如無(wú)必要,勿增實(shí)體

3、Learning Deep Time Index Models65908624-d2ab-11ee-9118-92fbcf53809c.jpg

本文通過(guò)光流和元學(xué)習(xí)來(lái)討論預(yù)測(cè),描述了學(xué)習(xí)如何預(yù)測(cè)非平穩(wěn)時(shí)間序列。對(duì)于那些不熟悉的人來(lái)說(shuō),元學(xué)習(xí)通常被應(yīng)用在計(jì)算機(jī)視覺(jué)數(shù)據(jù)集上,像MAML這樣的論文可以對(duì)新的圖像類(lèi)進(jìn)行少量的學(xué)習(xí)。MAML和其他模型都有一個(gè)內(nèi)部循環(huán)和一個(gè)外部循環(huán),其中外部循環(huán)教模型如何學(xué)習(xí),內(nèi)部循環(huán)對(duì)其進(jìn)行微調(diào)以適應(yīng)特定的任務(wù)。論文的作者采用了這一思想,并將其應(yīng)用于幾乎將每個(gè)非平穩(wěn)性視為一個(gè)新的學(xué)習(xí)任務(wù)。新的“任務(wù)”是長(zhǎng)時(shí)間序列序列的塊。作者在ETH,temperature和exchange 數(shù)據(jù)集上測(cè)試了他們的模型。盡管他們的模型沒(méi)有達(dá)到SOTA的結(jié)果,但它與當(dāng)前的SOTA體系結(jié)構(gòu)具有競(jìng)爭(zhēng)力。這篇論文為時(shí)間序列預(yù)測(cè)提供了一個(gè)有趣的角度,相對(duì)于常規(guī)方法有了一個(gè)新的突破,我想就是他雖然沒(méi)有超過(guò)SOTA但是還是被錄用的原因之一吧。

4、Inverted Transformers are Effective for Time Series Forecasting6594ab50-d2ab-11ee-9118-92fbcf53809c.jpg

《Inverted Transformers》是2024年發(fā)表的一篇論文。這也是目前時(shí)間序列預(yù)測(cè)數(shù)據(jù)集上的SOTA?;旧希琁nverted Transformers采用時(shí)間序列的Transformers架構(gòu)并進(jìn)行了翻轉(zhuǎn)。整個(gè)時(shí)間序列序列用于創(chuàng)建令牌。然后,時(shí)間序列彼此獨(dú)立進(jìn)行嵌入表示。注意力對(duì)多個(gè)時(shí)間序列嵌入進(jìn)行操作。它有點(diǎn)類(lèi)似于Crossformer,但它的不同之處在于,它遵循標(biāo)準(zhǔn)Transformers架構(gòu)。作者在標(biāo)準(zhǔn)時(shí)間序列數(shù)據(jù)集上評(píng)估模型目前優(yōu)于所有其他模型,包括Informer, Reformer, Crossformer等。

這是一篇強(qiáng)大的論文,因?yàn)槟P偷谋憩F(xiàn)優(yōu)于現(xiàn)有的模型。但是在某些情況下,它優(yōu)于模型的數(shù)值并不是那么顯著。所以可以?xún)?yōu)先看看這篇論文并且進(jìn)行測(cè)試。


TimeGPT

最后說(shuō)說(shuō)TimeGPT,它沒(méi)有在任何主要會(huì)議上被接受,而且它的評(píng)估方法也優(yōu)點(diǎn)可疑,由于它不幸地在互聯(lián)網(wǎng)上獲得了相當(dāng)多的介紹,所以我們要再提一下:

1、作者沒(méi)有將他們的結(jié)果與其他SOTA類(lèi)型模型進(jìn)行比較,只是引用“測(cè)試集包括來(lái)自多個(gè)領(lǐng)域的30多萬(wàn)個(gè)時(shí)間序列,包括金融、網(wǎng)絡(luò)流量、物聯(lián)網(wǎng)、天氣、需求和電力?!辈⑶覜](méi)有提供測(cè)試集的鏈接,也沒(méi)有在他們的論文中說(shuō)明這些數(shù)據(jù)集是什么。

2、論文中架構(gòu)圖和模型體系結(jié)構(gòu)的描述非常糟糕。這看起來(lái)就像是作者復(fù)制了其他論文的圖表,強(qiáng)加上注意力的定義和LLM相關(guān)的流行詞匯。

3、作者的Nixtla公司非常小,可能是一家小型初創(chuàng)公司,它是否有足夠的計(jì)算資源來(lái)完全訓(xùn)練一個(gè)“成功的時(shí)間序列基礎(chǔ)模型”。雖然這樣說(shuō)法優(yōu)點(diǎn)歧視,但是如果我說(shuō)我一個(gè)人用一周訓(xùn)練了一個(gè)LLM,那估計(jì)都沒(méi)人相信,對(duì)吧。OpenAI、谷歌、亞馬遜、Meta等公司提供足夠的計(jì)算資源來(lái)創(chuàng)建龐大的模型。如果TimeGPT真的是一個(gè)簡(jiǎn)單的Transformers 模型,并在大量的時(shí)間序列數(shù)據(jù)上訓(xùn)練它,為什么其他機(jī)構(gòu),甚至個(gè)人不能用它的大量gpu做到這一點(diǎn)呢?答案是,事情肯定沒(méi)那么簡(jiǎn)單。時(shí)間序列創(chuàng)建“基礎(chǔ)模型”的能力目前還不夠完善。多元時(shí)間序列預(yù)測(cè)的一個(gè)重要組成部分是學(xué)習(xí)協(xié)變量之間的依賴(lài)關(guān)系。MTS的維度在不同的數(shù)據(jù)集之間差異很大。對(duì)于具有文本數(shù)據(jù)的Transformers ,我們總是將一個(gè)單詞映射到一個(gè)數(shù)字id,然后創(chuàng)建一個(gè)特定維度的嵌入。對(duì)于MTS,不僅值可以更改,而且在一個(gè)數(shù)據(jù)集上可能有100個(gè)變量,而在另一個(gè)數(shù)據(jù)集上只有10個(gè)變量。這使得幾乎不可能設(shè)計(jì)所有用途的映射層來(lái)將不同大小的MTS數(shù)據(jù)集映射到公共嵌入維度。所以還記得我們前幾天發(fā)的Lag-Llama,也只是單變量的預(yù)測(cè)。

在其他時(shí)間序列(即使是那些具有相同數(shù)量變量的時(shí)間序列)上預(yù)訓(xùn)模型不會(huì)產(chǎn)生改進(jìn)的結(jié)果(至少在當(dāng)前架構(gòu)下不會(huì))。


總結(jié)及未來(lái)方向分析

在2023年,我們看到了Transformers 在時(shí)間序列預(yù)測(cè)中的一些持續(xù)改進(jìn),以及l(fā)lm和多模態(tài)學(xué)習(xí)的新方法。隨著2024年的進(jìn)展,我們將繼續(xù)看到在時(shí)間序列中使用Transformers 架構(gòu)的進(jìn)步和改進(jìn)??赡軙?huì)看到在多模態(tài)時(shí)間序列預(yù)測(cè)和分類(lèi)領(lǐng)域的進(jìn)一步發(fā)展。

作者:Isaac Godfried

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39926

    瀏覽量

    301564
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    572

    瀏覽量

    11323
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124424
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度解析DS1830/A復(fù)位序列器:特性、操作與應(yīng)用

    深度解析DS1830/A復(fù)位序列器:特性、操作與應(yīng)用 電子系統(tǒng)設(shè)計(jì)中,復(fù)位序列器是確保系統(tǒng)穩(wěn)定啟動(dòng)和可靠運(yùn)行的關(guān)鍵組件。今天我們就來(lái)深入探討DALLAS SEMICONDUCTOR(
    的頭像 發(fā)表于 02-28 15:10 ?154次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注
    的頭像 發(fā)表于 01-07 15:37 ?212次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    ATA-D60090功率放大器時(shí)間調(diào)制序列生成中的應(yīng)用

    利用計(jì)算機(jī)生成波束掃描所需的的波束掃描的時(shí)間編碼序列。根據(jù)時(shí)間編碼序列,任意信號(hào)發(fā)生器產(chǎn)生的方波信號(hào)通過(guò)功率放大器產(chǎn)生控制電壓信號(hào)。
    的頭像 發(fā)表于 11-30 14:27 ?439次閱讀
    ATA-D60090功率放大器<b class='flag-5'>在</b><b class='flag-5'>時(shí)間</b>調(diào)制<b class='flag-5'>序列</b>生成中的應(yīng)用

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    檢測(cè)應(yīng)用 微細(xì)缺陷識(shí)別:檢測(cè)肉眼難以發(fā)現(xiàn)的微小缺陷和異常 紋理分析:對(duì)材料表面紋理進(jìn)行智能分析和缺陷識(shí)別 3D表面重建:通過(guò)深度學(xué)習(xí)進(jìn)行高精度3D建模和檢測(cè) 電子行業(yè)應(yīng)用 PCB板復(fù)雜
    的頭像 發(fā)表于 11-27 10:19 ?230次閱讀

    【新啟航】深度學(xué)習(xí)玻璃晶圓 TTV 厚度數(shù)據(jù)智能分析中的應(yīng)用

    。隨著深度學(xué)習(xí)在數(shù)據(jù)處理領(lǐng)域展現(xiàn)出強(qiáng)大能力,將其應(yīng)用于玻璃晶圓 TTV 厚度數(shù)據(jù)智能分析,有助于實(shí)現(xiàn)高精度、高效率的質(zhì)量檢測(cè)與工藝優(yōu)化,為行業(yè)發(fā)展提供新動(dòng)能。
    的頭像 發(fā)表于 10-11 13:32 ?647次閱讀
    【新啟航】<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>在</b>玻璃晶圓 TTV 厚度數(shù)據(jù)智能<b class='flag-5'>分析</b>中的應(yīng)用

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的未來(lái):提升算力還是智力

    : 超維計(jì)算與芯片實(shí)現(xiàn): ①實(shí)向量法 ②復(fù)數(shù)向量 ③稀疏向量 超維計(jì)算的實(shí)驗(yàn)結(jié)果: 超維計(jì)算未來(lái)的研究方向: 2、集體狀態(tài)計(jì)算和序列狀態(tài)計(jì)算 集體狀態(tài)計(jì)算和序列狀態(tài)計(jì)算對(duì)比:
    發(fā)表于 09-14 14:04

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實(shí)施路徑三個(gè)維度展開(kāi)分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價(jià)值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)中70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振動(dòng)波形、紅外圖像、日志文本),傳統(tǒng)方法難以
    的頭像 發(fā)表于 08-20 14:56 ?1040次閱讀

    電磁軌跡預(yù)測(cè)分析系統(tǒng)

    電磁軌跡預(yù)測(cè)分析系統(tǒng)軟件全面解析
    的頭像 發(fā)表于 07-30 16:32 ?625次閱讀
    電磁軌跡<b class='flag-5'>預(yù)測(cè)</b><b class='flag-5'>分析</b>系統(tǒng)

    晶圓切割深度動(dòng)態(tài)補(bǔ)償?shù)闹悄軟Q策模型與 TTV 預(yù)測(cè)控制

    摘要:本文針對(duì)超薄晶圓切割過(guò)程中 TTV 均勻性控制難題,研究晶圓切割深度動(dòng)態(tài)補(bǔ)償?shù)闹悄軟Q策模型與 TTV 預(yù)測(cè)控制方法。分析影響切割深度與 TTV 的關(guān)鍵因素,闡述智能決策模型的構(gòu)建
    的頭像 發(fā)表于 07-23 09:54 ?584次閱讀
    晶圓切割<b class='flag-5'>深度</b>動(dòng)態(tài)補(bǔ)償?shù)闹悄軟Q策模型與 TTV <b class='flag-5'>預(yù)測(cè)</b>控制

    大模型半導(dǎo)體行業(yè)的應(yīng)用可行性分析

    有沒(méi)有這樣的半導(dǎo)體專(zhuān)用大模型,能縮短芯片設(shè)計(jì)時(shí)間,提高成功率,還能幫助新工程師更快上手?;蛘哕浻布梢?b class='flag-5'>在設(shè)計(jì)和制造環(huán)節(jié)確實(shí)有實(shí)際應(yīng)用。會(huì)不會(huì)存在AI缺陷檢測(cè)。 能否應(yīng)用在工藝優(yōu)化和預(yù)測(cè)性維護(hù)中
    發(fā)表于 06-24 15:10

    存儲(chǔ)示波器的存儲(chǔ)深度對(duì)信號(hào)分析有什么影響?

    存儲(chǔ)深度(Memory Depth)是數(shù)字示波器的核心參數(shù)之一,它直接決定了示波器單次采集過(guò)程中能夠記錄的采樣點(diǎn)數(shù)量。存儲(chǔ)深度對(duì)信號(hào)分析的影響貫穿時(shí)域細(xì)節(jié)捕捉、頻域
    發(fā)表于 05-27 14:39

    提高IT運(yùn)維效率,深度解讀京東云AIOps落地實(shí)踐(異常檢測(cè)篇)

    基于深度學(xué)習(xí)對(duì)運(yùn)維時(shí)序指標(biāo)進(jìn)行異常檢測(cè),快速發(fā)現(xiàn)線上業(yè)務(wù)問(wèn)題 時(shí)間序列的異常檢測(cè)是實(shí)際應(yīng)用中的一個(gè)關(guān)鍵問(wèn)題,尤其是 IT 行業(yè)。我們沒(méi)有采
    的頭像 發(fā)表于 05-22 16:38 ?1041次閱讀
    提高IT運(yùn)維效率,<b class='flag-5'>深度</b>解讀京東云AIOps落地實(shí)踐(異常檢測(cè)篇)

    時(shí)間間隔測(cè)量分析儀特點(diǎn)總結(jié)

    時(shí)間頻率行業(yè),時(shí)間間隔測(cè)量是不可缺少的一部分,選擇一款合適的時(shí)間間隔測(cè)量?jī)x就會(huì)顯得尤為重要,今天我們來(lái)分析一下
    的頭像 發(fā)表于 05-08 11:29 ?544次閱讀
    <b class='flag-5'>時(shí)間</b>間隔測(cè)量<b class='flag-5'>分析</b>儀特點(diǎn)<b class='flag-5'>總結(jié)</b>

    電磁軌跡預(yù)測(cè)分析系統(tǒng)軟件全面解析

    電磁軌跡預(yù)測(cè)分析系統(tǒng)軟件:深度解析 系統(tǒng)概述 北京華盛恒輝電磁軌跡預(yù)測(cè)分析系統(tǒng)軟件,借助電磁學(xué)原理和先進(jìn)計(jì)算技術(shù),能實(shí)時(shí)
    的頭像 發(fā)表于 04-12 16:10 ?1066次閱讀

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1527次閱讀