91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

幫助弱者讓你變得更強(qiáng):利用多任務(wù)學(xué)習(xí)提升非自回歸翻譯質(zhì)量

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:南大NLP ? 作者:南大NLP ? 2022-11-09 16:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

01

研究動(dòng)機(jī)

目前最先進(jìn)的神經(jīng)機(jī)器翻譯模型主要是自回歸(autoregressive, AR)[1][2]模型,即在解碼時(shí)從左向右依次生成目標(biāo)端單詞。盡管具有很強(qiáng)的性能,但這種順序解碼會(huì)導(dǎo)致較高的解碼時(shí)延,在效率方面不令人滿意。相比之下,非自回歸(non-autoregressive, NAR)模型[3]使用更加高效的并行解碼,在解碼時(shí)同時(shí)生成所有的目標(biāo)端單詞。為此,NAR模型需要對(duì)目標(biāo)端引入條件獨(dú)立假設(shè)。然而,這一假設(shè)無(wú)法在概率上準(zhǔn)確地描述人類語(yǔ)言數(shù)據(jù)中的多模態(tài)現(xiàn)象(或多樣性現(xiàn)象,即一條源端句存在多個(gè)正確的翻譯結(jié)果)。這為NAR模型帶來(lái)了嚴(yán)峻的挑戰(zhàn),因?yàn)闂l件獨(dú)立假設(shè)與傳統(tǒng)的極大似然估計(jì)(Maximum Likelihood Estimate, MLE)訓(xùn)練方式無(wú)法為NAR模型提供足夠信息量的學(xué)習(xí)信號(hào)和梯度。因此,NAR模型經(jīng)常產(chǎn)生較差的神經(jīng)表示,尤其是在解碼器(Decoder)部分。而由于解碼器部分直接控制生成,從而導(dǎo)致了NAR模型顯著的性能下降。為了提升NAR模型的性能,大多數(shù)先前的研究旨在使用更多的條件信息來(lái)改進(jìn)目標(biāo)端依賴關(guān)系的建模(GLAT[4], CMLM[5])。我們認(rèn)為,這些研究工作相當(dāng)于在不改變NAR模型概率框架的前提下提供更好的替代學(xué)習(xí)信號(hào)。并且,這些工作中的大部分需要對(duì)模型結(jié)構(gòu)進(jìn)行特定的修改。

沿著這個(gè)思路,我們希望能夠?yàn)镹AR模型提供更具信息量的學(xué)習(xí)信號(hào),以便更好地捕獲目標(biāo)端依賴。同時(shí),最好可以無(wú)需對(duì)模型結(jié)構(gòu)進(jìn)行特定的修改,適配多種不同的NAR模型。因此,在本文中我們提出了一種簡(jiǎn)單且有效的多任務(wù)學(xué)習(xí)框架。我們引入了一系列解碼能力較弱的AR Decoder來(lái)輔助NAR模型訓(xùn)練。隨著弱AR Decoder的訓(xùn)練,NAR模型的隱層表示中將包含更多的上下文和依賴信息,繼而提高了NAR模型的解碼性能。同時(shí),我們的方法是即插即用的,且對(duì)NAR模型的結(jié)構(gòu)沒(méi)有特定的要求。并且我們引入的AR Decoder僅在訓(xùn)練階段使用,因此沒(méi)有帶來(lái)額外的解碼開(kāi)銷。

02

貢獻(xiàn)

1、我們提出了一個(gè)簡(jiǎn)單有效的多任務(wù)學(xué)習(xí)框架,使NAR模型隱層表示包含更豐富的上下文和依賴信息。并且我們的方法無(wú)需對(duì)模型結(jié)構(gòu)進(jìn)行特定的修改,適配多種NAR模型。

2、一系列AR Decoder的引入帶來(lái)了較大的訓(xùn)練開(kāi)銷。為此我們提出了兩種降低訓(xùn)練開(kāi)銷的方案,在幾乎不損失性能的前提下顯著降低了參數(shù)量和訓(xùn)練時(shí)間。

3、在多個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,我們的方法能夠?yàn)椴煌腘AR模型帶來(lái)顯著的提升。當(dāng)使用束搜索解碼時(shí),我們的模型在所有數(shù)據(jù)集上均優(yōu)于強(qiáng)大的Transformer模型,同時(shí)不引入額外的解碼開(kāi)銷。

03

解決方案

3.1、模型結(jié)構(gòu)

我們的模型結(jié)構(gòu)如圖1所示。對(duì)于每個(gè)NAR Decoder層,我們都引入了一個(gè)輔助的弱AR Decoder(每個(gè)AR Decoder僅包含1層Transformer Layer)。我們令這些AR Decoder基于對(duì)應(yīng)的NAR隱層表示進(jìn)行解碼,即令NAR隱層表示作為AR Decoder Cross-Attention的Key和Value。由于AR Decoder的解碼能力較弱,因此很難自行捕捉目標(biāo)句的依賴關(guān)系。只有當(dāng)其對(duì)應(yīng)的NAR隱層表示中的信息足夠充分,AR Decoder才能夠正確地解碼。因此,AR Decoder為NAR模型帶來(lái)了新的訓(xùn)練信號(hào),迫使NAR Decoder變得更強(qiáng),在隱層表示中包含更多的上下文和依賴信息來(lái)支持AR Decoder的解碼。在這個(gè)過(guò)程中,NAR提升了自己的表示能力,從而在實(shí)際解碼時(shí)獲得了更好的表現(xiàn)。

9a185f60-5f58-11ed-8abf-dac502259ad0.png

圖1:我們的方法示意圖

3.2、訓(xùn)練目標(biāo)

我們的訓(xùn)練目標(biāo)如下式所示

9a3715d6-5f58-11ed-8abf-dac502259ad0.png

對(duì)于NAR部分,我們保持NAR模型的原始訓(xùn)練目標(biāo)不變。如對(duì)于CTC模型,我們使用CTC Loss作為NAR的損失函數(shù)。對(duì)于AR部分,我們使用交叉熵?fù)p失進(jìn)行訓(xùn)練,并將所有AR Decoder的損失相加。最終的損失函數(shù)是兩部分的加權(quán)和,權(quán)重是超參數(shù)。

3.3、Glancing Training訓(xùn)練策略

Glancing Training是一種有效提升NAR模型性能的訓(xùn)練策略[4]。我們?cè)谖覀兊姆椒ㄖ袘?yīng)用了Glancing Training。具體來(lái)說(shuō),在訓(xùn)練時(shí)根據(jù)模型當(dāng)前的解碼質(zhì)量,隨機(jī)采樣參考句中的token作為NAR Decoder的輸入。模型當(dāng)前解碼質(zhì)量越差則采樣越多,反之亦然。然后令A(yù)R Decoder基于NAR隱層表示進(jìn)行解碼。

3.4、降低解碼開(kāi)銷

我們?yōu)槊繉覰AR Decoder都配置了一個(gè)AR Decoder,這可能會(huì)帶來(lái)較大的訓(xùn)練開(kāi)銷。為此,我們從模型參數(shù)量和訓(xùn)練時(shí)間的角度,提出了兩種降低訓(xùn)練開(kāi)銷的方案。

Parameter Sharing:令所有的AR Decoder之間共享參數(shù),降低參數(shù)量;

Layer Dropout:每個(gè)訓(xùn)練步隨機(jī)選擇一半數(shù)量的AR Decoder進(jìn)行訓(xùn)練,降低訓(xùn)練時(shí)間。

3.5、解碼過(guò)程

在解碼時(shí),我們不使用AR Decoder,僅使用NAR模型自身進(jìn)行解碼。因此,我們的方法沒(méi)有引入額外的解碼開(kāi)銷。

04

實(shí)驗(yàn)

我們?cè)跈C(jī)器翻譯領(lǐng)域目前最廣泛使用的數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn):WMT14英德(4.5M語(yǔ)言對(duì))、WMT16英羅(610K語(yǔ)言對(duì))、IWSLT14德英(160K語(yǔ)言對(duì))。我們遵循Gu和Kong[6]的工作中的數(shù)據(jù)預(yù)處理方式,并且使用了BLEU[9]指標(biāo)作為機(jī)器翻譯質(zhì)量評(píng)價(jià)指標(biāo)。為了緩解數(shù)據(jù)集中多模態(tài)現(xiàn)象導(dǎo)致的訓(xùn)練困難,我們對(duì)所有數(shù)據(jù)集使用了知識(shí)蒸餾技術(shù)進(jìn)行處理[3]。

4.1、實(shí)驗(yàn)結(jié)果

我們的方法可以對(duì)不同類型的NAR模型帶來(lái)提升。

我們使用了Vanilla-NAR[3]和CTC[7]作為我們的基線模型,并在基線模型上應(yīng)用我們的方法,實(shí)驗(yàn)結(jié)果如表1所示。可以看到,我們的方法一致且顯著地提高了每個(gè)基線模型在每個(gè)語(yǔ)言對(duì)上的翻譯質(zhì)量。這說(shuō)明了我們方法的通用性。

表1:對(duì)不同的基線模型應(yīng)用我們的方法

9a494d1e-5f58-11ed-8abf-dac502259ad0.png

與其他的NAR模型相比,我們的方法獲得了更好的結(jié)果。

我們選用CTC模型應(yīng)用我們的方法作為我們的模型,并與其他強(qiáng)大的NAR模型進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表2所示??梢钥吹?,我們的方法顯著提高了翻譯質(zhì)量,并優(yōu)于其他強(qiáng)大的基線模型。此外,當(dāng)應(yīng)用Glancing Training技術(shù)后,我們的方法可以帶來(lái)更大程度的提升。

與采取迭代解碼的模型(CMLM)相比,我們的方法僅使用單步解碼,具備更快的解碼速度,并在除了WMT14英德之外的所有語(yǔ)言對(duì)上獲得了更好的性能。

Hao等人[8]的工作與我們的工作相關(guān),都使用了多任務(wù)學(xué)習(xí)框架。我們?cè)贑TC模型上復(fù)現(xiàn)了他們的方法(CTC+MTL)。實(shí)驗(yàn)結(jié)果表明我們的方法可以為模型帶來(lái)更明顯的提升。

表2:與其他強(qiáng)大的NAR模型比較。9a5b6e7c-5f58-11ed-8abf-dac502259ad0.png代表使用k輪迭代解碼

9a70d4a6-5f58-11ed-8abf-dac502259ad0.png

4.2、實(shí)驗(yàn)分析

較弱的AR Decoder是否有必要?

在我們的方法中,AR Decoder的解碼能力需要足夠弱,由此強(qiáng)迫NAR Decoder變得更強(qiáng)。我們對(duì)這一點(diǎn)進(jìn)行了驗(yàn)證。我們使用不同層數(shù)的AR Decoder進(jìn)行實(shí)驗(yàn)(1、3、6層),實(shí)驗(yàn)結(jié)果如圖2所示。每種深度的AR Decoder都可以為NAR模型帶來(lái)增益,但是隨著AR Decoder層數(shù)的增加,AR Decoder解碼能力增強(qiáng),為NAR模型帶來(lái)的增益也在逐漸降低。這也驗(yàn)證了我們的動(dòng)機(jī):一個(gè)較弱的AR Decoder能夠使NAR Decoder包含更多有用的信息。

9a946d9e-5f58-11ed-8abf-dac502259ad0.png

圖2:不同層數(shù)的AR Decoder為模型帶來(lái)了不同程度的增益

關(guān)于訓(xùn)練開(kāi)銷的消融實(shí)驗(yàn)。

我們?cè)贗WSLT14德英數(shù)據(jù)集上評(píng)估了我們提出的降低訓(xùn)練開(kāi)銷策略的效果。如表3所示,在使用了Param Sharing和Layer Dropout兩種策略后,參數(shù)量(83.8M vs 55.3M)和訓(xùn)練時(shí)間(31.2h vs 19.4h)均得到了顯著的降低,同時(shí)保持模型性能幾乎沒(méi)有變化

表3:兩種降低訓(xùn)練開(kāi)銷策略的效果評(píng)估

9aaa27d8-5f58-11ed-8abf-dac502259ad0.png

我們的方法使模型能夠更好地解碼長(zhǎng)句。

為了進(jìn)一步分析NAR模型在生成不同長(zhǎng)度目標(biāo)端句時(shí)的表現(xiàn)差異,我們?cè)赪MT14英德數(shù)據(jù)集的測(cè)試集上進(jìn)行了實(shí)驗(yàn),將目標(biāo)端句按照長(zhǎng)度分成不同的區(qū)間。如表4所示,隨著句子長(zhǎng)度的增加,我們的模型和Transformer之間的差距在逐漸降低。當(dāng)目標(biāo)端句長(zhǎng)度大于60時(shí),我們的模型能夠超過(guò)Transformer的解碼性能。在解碼更長(zhǎng)的句子時(shí),模型需要處理更復(fù)雜的上下文關(guān)聯(lián)。我們推測(cè)我們提出的多任務(wù)學(xué)習(xí)方法顯著改善了NAR隱藏狀態(tài)下包含的上下文和依賴信息,因此在長(zhǎng)句子翻譯中具有更好的性能。

表4:生成不同長(zhǎng)度目標(biāo)端句時(shí)的性能差異

9ac170e6-5f58-11ed-8abf-dac502259ad0.png

我們的方法使模型減少了重復(fù)生成。

由于數(shù)據(jù)集中的多模態(tài)現(xiàn)象,NAR模型會(huì)出現(xiàn)重復(fù)生成的翻譯錯(cuò)誤。表5展示了在應(yīng)用我們的方法前后,NAR模型出現(xiàn)重復(fù)生成現(xiàn)象的比率??梢钥吹剑覀兊姆椒@著降低了重復(fù)單詞的出現(xiàn)頻率,使NAR模型的生成質(zhì)量更好。值得注意的是,盡管CTC模型本身已經(jīng)能夠產(chǎn)生很少的重復(fù)生成,我們的方法依然可以進(jìn)一步降低重復(fù)生成的比率。

表5:重復(fù)生成的比率

9adb01aa-5f58-11ed-8abf-dac502259ad0.png

不使用知識(shí)蒸餾技術(shù)時(shí)的性能表現(xiàn)。

盡管知識(shí)蒸餾是一種常用的約減多模態(tài)現(xiàn)象的手段,但它限制了NAR模型在AR教師模型下的性能,同時(shí)構(gòu)建教師模型也需要額外的開(kāi)銷。為了驗(yàn)證我們的方法在原始數(shù)據(jù)場(chǎng)景中的有效性,我們?cè)赪MT14和IWSLT14數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。如表6所示,我們的方法可以為基線模型(CTC)帶來(lái)非常顯著的提升,進(jìn)一步縮小了與Transformer模型的差距。

表6:不使用知識(shí)蒸餾的實(shí)驗(yàn)結(jié)果

9afd0700-5f58-11ed-8abf-dac502259ad0.png

我們的方法相對(duì)于其他多任務(wù)學(xué)習(xí)方法的優(yōu)勢(shì)。

Hao等人[8]的工作也使用了多任務(wù)學(xué)習(xí)框架,但我們的方法能夠?yàn)镹AR模型帶來(lái)更顯著的提升。我們認(rèn)為我們的方法在多任務(wù)學(xué)習(xí)模塊(即AR Decoder)的位置和容量上更有優(yōu)勢(shì)。

對(duì)于AR Decoder的位置,我們認(rèn)為Decoder決定生成過(guò)程,因此將AR Decoder部署于NAR Decoder上能夠更直接和顯式地改善NAR的生成過(guò)程,而Hao等人的工作是部署于NAR Encoder上的。

對(duì)于AR Decoder的容量,我們認(rèn)為AR Decoder應(yīng)盡可能弱,這樣AR Decoder無(wú)法自行對(duì)目標(biāo)端句進(jìn)行建模,從而迫使NAR Decoder隱層表示包含更多的上下文和依賴信息。而Hao等人的工作使用的標(biāo)準(zhǔn)AR Decoder,對(duì)NAR隱層表示的要求更低,因此為NAR帶來(lái)的提升更少。

05

總結(jié)

在本文中,我們?yōu)镹AR模型提出了一個(gè)多任務(wù)學(xué)習(xí)框架,引入了一系列弱AR解碼器輔助訓(xùn)練NAR模型。隨著弱AR解碼器的訓(xùn)練,NAR隱藏狀態(tài)將包含更多的上下文和依賴信息,從而提高NAR模型的性能。在多個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)表明,我們的方法可以顯著且一致地提高翻譯質(zhì)量。當(dāng)使用束搜索解碼時(shí),我們基于CTC的NAR模型在所有基準(zhǔn)測(cè)試上都優(yōu)于強(qiáng)大的Transformer,同時(shí)不引入額外的解碼開(kāi)銷。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1220

    瀏覽量

    43451
  • Ar
    Ar
    +關(guān)注

    關(guān)注

    25

    文章

    5284

    瀏覽量

    176330
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3757

    瀏覽量

    52130

原文標(biāo)題:EMNLP'22 | 幫助弱者讓你變得更強(qiáng):利用多任務(wù)學(xué)習(xí)提升非自回歸翻譯質(zhì)量

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    算法工程師需要具備哪些技能?

    :自動(dòng)化任務(wù)(如數(shù)據(jù)預(yù)處理、模型訓(xùn)練調(diào)度)。Git版本控制:團(tuán)隊(duì)協(xié)作開(kāi)發(fā)(如分支管理、代碼合并)。 機(jī)器學(xué)習(xí)監(jiān)督學(xué)習(xí):線性回歸、邏輯回歸、決
    發(fā)表于 02-27 10:53

    嵌入式單片機(jī)開(kāi)發(fā)學(xué)習(xí)路徑

    嵌入式系統(tǒng)是現(xiàn)代科技的重要組成部分,廣泛應(yīng)用于智能家居、汽車電子、工業(yè)控制、醫(yī)療設(shè)備等領(lǐng)域。學(xué)習(xí)嵌入式單片機(jī)開(kāi)發(fā)不僅能提升個(gè)人技能,還能開(kāi)拓職業(yè)發(fā)展路徑。本文將為提供一條詳細(xì)的嵌入式單片機(jī)開(kāi)發(fā)
    發(fā)表于 02-09 15:42

    強(qiáng)化學(xué)習(xí)會(huì)自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    是一種機(jī)器通過(guò)“試錯(cuò)”學(xué)會(huì)決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,模型去模仿;而強(qiáng)化學(xué)習(xí)不會(huì)把每一步的“正確答案”都告訴
    的頭像 發(fā)表于 01-31 09:34 ?661次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)<b class='flag-5'>讓</b>自動(dòng)駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    西得樂(lè)利用 CADENAS ENTERPRISE 3Dfindit 優(yōu)化批量生產(chǎn)

    的戰(zhàn)略零件管理之前,Seidel 不得不手動(dòng)執(zhí)行許多任務(wù),這往往會(huì)減慢甚至完全停止生產(chǎn)流程。自從引入ENTERPRISE 3Dfindit 后,Seidel 看到了成功,如節(jié)約成本、節(jié)省時(shí)間和更好的組織性
    發(fā)表于 01-22 13:49

    一文說(shuō)透了如何實(shí)現(xiàn)單片機(jī)的多任務(wù)并發(fā)!

    在嵌入式系統(tǒng)開(kāi)發(fā)中,多任務(wù)并發(fā)是非常常見(jiàn)的,對(duì)于處理復(fù)雜的應(yīng)用場(chǎng)景、提升系統(tǒng)的并發(fā)能力、提高系統(tǒng)的實(shí)時(shí)性等方面都有很大好處。在單片機(jī)中實(shí)現(xiàn)多任務(wù)并發(fā)是非常重要的,本文將為大家介紹如何在單片機(jī)中實(shí)現(xiàn)
    發(fā)表于 01-06 06:46

    多任務(wù)系統(tǒng)中,如何平衡任務(wù)調(diào)度以防止因高負(fù)載導(dǎo)致的再次進(jìn)入低功耗模式的延遲?

    多任務(wù)系統(tǒng)中,如何平衡任務(wù)調(diào)度以防止因高負(fù)載導(dǎo)致的再次進(jìn)入低功耗模式的延遲?
    發(fā)表于 12-04 06:37

    學(xué)習(xí)RTOS的意義?

    對(duì)于嵌入式軟件工程師,學(xué)習(xí)RTOS非常有必要。 1. 項(xiàng)目需要 隨著產(chǎn)品要實(shí)現(xiàn)的功能越來(lái)越多,單純的裸機(jī)系統(tǒng)已經(jīng)不能完美地解決問(wèn)題,反而會(huì)使編程變得更加復(fù)雜,如果想降低編程的難度,就必須引入
    發(fā)表于 11-27 08:16

    一句話,多個(gè)命令同時(shí)執(zhí)行,AI語(yǔ)音模組也能多任務(wù)處理?

    、 Ai-WV02-32S ? 將語(yǔ)音識(shí)別、喚醒、語(yǔ)義理解等核心功能, 濃縮在一顆小小的模組中。 安信可AI語(yǔ)音模組支持 MCP 協(xié)議(Multi Command Processing,多命令并行處理) ,語(yǔ)音交互從“單線程”進(jìn)化為真正的“多任務(wù)協(xié)同”! 一句話喚醒“
    的頭像 發(fā)表于 10-31 14:45 ?535次閱讀
    一句話,多個(gè)命令同時(shí)執(zhí)行,AI語(yǔ)音模組也能<b class='flag-5'>多任務(wù)</b>處理?

    愛(ài)普科技PSRAM加速wisun無(wú)線模塊多任務(wù)處理

    愛(ài)普科技256Mb PSRAM(如APS256XXN-OBR-BG)為WiSUN無(wú)線模塊提供高速數(shù)據(jù)緩存與臨時(shí)存儲(chǔ)解決方案,其166MHz速率、1.8V低功耗及小尺寸封裝顯著提升模塊在智能電網(wǎng)、工業(yè)自動(dòng)化中的多任務(wù)處理能力和穩(wěn)定性。
    的頭像 發(fā)表于 10-14 09:25 ?396次閱讀
    愛(ài)普科技PSRAM加速wisun無(wú)線模塊<b class='flag-5'>多任務(wù)</b>處理

    NFC讀寫器助力標(biāo)簽質(zhì)量檢測(cè),提升應(yīng)用優(yōu)勢(shì)!

    NFC讀寫器在智能標(biāo)簽質(zhì)量檢測(cè)中展現(xiàn)出顯著優(yōu)勢(shì):采用接觸式檢測(cè),避免標(biāo)簽損傷且提升效率;能全面驗(yàn)證標(biāo)簽功能與性能,確保可靠性;支持自動(dòng)化批量檢測(cè),大幅提高生產(chǎn)效率;易于集成開(kāi)發(fā),成本效益高。這些優(yōu)勢(shì)使其成為工業(yè)制造中
    的頭像 發(fā)表于 09-17 10:22 ?698次閱讀
    NFC讀寫器助力標(biāo)簽<b class='flag-5'>質(zhì)量</b>檢測(cè),<b class='flag-5'>提升</b>應(yīng)用優(yōu)勢(shì)!

    揭秘LuatOS Task:多任務(wù)管理的“智能中樞”

    Task任務(wù)作為L(zhǎng)uatOS的核心組成部分,通過(guò)智能化的任務(wù)管理機(jī)制,實(shí)現(xiàn)任務(wù)的創(chuàng)建、調(diào)度與協(xié)同運(yùn)行,復(fù)雜應(yīng)用得以高效并行處理,滿足實(shí)時(shí)場(chǎng)景下的嚴(yán)苛需求。 sys核心庫(kù)是LuatOS
    的頭像 發(fā)表于 08-28 13:48 ?667次閱讀
    揭秘LuatOS Task:<b class='flag-5'>多任務(wù)</b>管理的“智能中樞”

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實(shí)施路徑三個(gè)維度展開(kāi)分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價(jià)值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)中70%以上的數(shù)據(jù)為結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振動(dòng)波形、紅外圖像、日志文本),傳統(tǒng)方法難以
    的頭像 發(fā)表于 08-20 14:56 ?1038次閱讀

    電控系統(tǒng)的 “功率翻譯官”:車規(guī)電容如何能源利用效率提升 10%?

    官"的關(guān)鍵角色。最新行業(yè)數(shù)據(jù)顯示,采用新一代車規(guī)電容技術(shù)的電控系統(tǒng),可實(shí)現(xiàn)能源利用效率提升10%的突破性進(jìn)展,這相當(dāng)于為續(xù)航500公里的電動(dòng)車額外增加50公里續(xù)航能力。 車規(guī)電容之所以能成為能源效率提升的"幕后功臣",源于其
    的頭像 發(fā)表于 07-31 16:07 ?866次閱讀

    快速入門——LuatOS:sys庫(kù)多任務(wù)管理實(shí)戰(zhàn)攻略!

    在嵌入式開(kāi)發(fā)中,多任務(wù)管理是提升系統(tǒng)效率的關(guān)鍵。本教程專為快速入門設(shè)計(jì),聚焦LuatOS的sys庫(kù),通過(guò)實(shí)戰(zhàn)案例帶你快速掌握多任務(wù)創(chuàng)建、調(diào)度與同步技巧。無(wú)論是零基礎(chǔ)新手還是希望快速
    的頭像 發(fā)表于 05-29 14:36 ?869次閱讀
    快速入門——LuatOS:sys庫(kù)<b class='flag-5'>多任務(wù)</b>管理實(shí)戰(zhàn)攻略!

    工業(yè)通信的“超級(jí)翻譯官”Modbus轉(zhuǎn)Profinet如何稱重設(shè)備實(shí)現(xiàn)語(yǔ)言自由

    在競(jìng)爭(zhēng)激烈的工業(yè)自動(dòng)化領(lǐng)域,設(shè)備間通信協(xié)議的差異常常成為提升生產(chǎn)效率的絆腳石。但別擔(dān)心,我們?yōu)槟鷰?lái)了一個(gè)卓越的解決方案——VING微硬創(chuàng)新Modbus轉(zhuǎn)Profinet連接稱重設(shè)備的實(shí)現(xiàn)方案,
    發(fā)表于 05-21 15:45