91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

關于三篇論文中自然語言研究進展與發(fā)展方向詳解

深度學習自然語言處理 ? 來源:復旦DISC ? 作者:姚倩媛 ? 2021-03-30 16:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

自然語言理解(Natural Language Understanding,NLU)是希望機器像人一樣,具備正常人的語言理解能力,是人機對話系統(tǒng)中重要的組成部分。NLU主要包括兩大任務,分別是意圖識別(Intent Detection)和槽填充(Slot Filling)。其中,意圖識別就是判斷用戶的意圖,是一個文本分類的問題;槽填充是識別句子中重要的語義成分,常建模成序列標注的任務。

本次分享EMNLP2020中的三篇和NLU相關的文章,介紹這個領域目前的研究進展和關注方向。

文章概覽

SlotRefine: A Fast Non-Autoregressive Model for Joint Intent Detection and Slot Filling

論文提出了一個非自回歸的意圖識別和槽填充聯(lián)合模型,該模型以Transformer為基本結(jié)構(gòu),使用兩階段迭代機制顯著地提高了模型性能和模型速度。

論文地址:https://www.aclweb.org/anthology/2020.emnlp-main.152

Incremental Processing in the Age of Non-Incremental Encoders: An Empirical Assessment of Bidirectional Models for Incremental NLU

論文提出了三種適用于增量NLU任務的評價指標,探究了目前非增量編碼器在增量系統(tǒng)中的模型性能。

論文地址:https://www.aclweb.org/anthology/2020.emnlp-main.26

End-to-End Slot Alignment and Recognition for Cross-Lingual NLU

論文提出了用于一種跨語言自然語言理解的端到端槽位標簽對齊和識別模型,該模型運用注意力機制將目標語言文本表示和源語言的槽位標簽軟對齊,并且同時預測意圖和槽標簽。

論文地址:https://www.aclweb.org/anthology/2020.emnlp-main.410/

1論文細節(jié)

f2488e5e-8e8e-11eb-8b86-12bb97331649.png

論文動機

以往的自然語言理解模型大多依賴于自回歸的方法(例如,基于RNN的模型或seq2seq的架構(gòu))來捕捉話語中的語法結(jié)構(gòu),并且在槽填充任務中常使用條件隨機場(CRF)模塊來確保序列標簽之間的合理性。然而本文作者發(fā)現(xiàn),對于槽填充任務而言,從槽塊之間建模依賴關系就足以滿足任務需要,而使用自回歸的方法對整個序列的依賴關系建模會導致冗余計算和高延遲。因此作者使用非自回歸的方法來建模意圖識別和槽填充兩個任務,從而消除非必要的時間依賴,并且采用兩階段迭代機制來處理由于條件獨立性導致的槽標簽之間的不合理問題。

模型

模型主要包括兩個方面,分別是非自回歸的聯(lián)合模型以及兩階段改善機制。

非自回歸的聯(lián)合模型

模型使用了《Attention is all you need》(Vaswani等人, 2017)這篇論文中提出的Transformer模型的encoder部分作為本文模型編碼層的主要結(jié)構(gòu)。與原始Transformer不同的是,作者將絕對位置編碼改為相對位置表示來建模文本序列信息。

對于每個輸入的文本序列,都會在初始位置添加一個特殊的符號“CLS”來表示句子信息。文本序列的輸入為,經(jīng)過Multi-Head Self Attention編碼后得到輸出向量為 。其中,向量將用于意圖分類,將和每個時刻的拼接用于對應的槽位預測。意圖識別和槽填充的計算公式如下:

聯(lián)合模型的任務目標是通過優(yōu)化交叉熵損失函數(shù)來最大化條件概率分布:

與自回歸模型不同的是,這個模型中每個槽位預測可以并行優(yōu)化,由此提高了模型速度。

兩階段改善機制

由于槽位標簽之間的條件獨立性,上述非自回歸聯(lián)合模型難以捕獲每個槽位塊之間的依賴關系,從而導致一些槽位標簽不合理現(xiàn)象。如下圖所示,根據(jù)BIO標簽規(guī)則,“I-song”并不能跟在“B-singer”后面。

f320fe4c-8e8e-11eb-8b86-12bb97331649.png

因此,作者提出兩階段的迭代機制,使用兩次槽位預測的方法來改善這個問題。模型的輸入除了文本信息之外,還有槽位標簽信息,初始化的槽位標簽均為“O”。在第一階段,模型的目標是預測每個槽塊的起始標簽“B-tags”,在第二階段,預測的“B-tags”將作為相應槽位標簽的輸入,由此,模型可以進一步預測出“B-tags”后面對應的標簽。兩階段的改善機制可以看作是自回歸與非自回歸之間的權衡,其中完整的馬爾可夫過程可以表示為:

其中,是第一階段的槽標簽預測結(jié)果。

實驗

實驗使用的數(shù)據(jù)集是NLU領域兩個經(jīng)典的公開數(shù)據(jù)集:ATIS(Tur等人,2010)和Snips(Coucke等人,2018)。作者將本文模型與六種意圖識別和槽填充聯(lián)合模型進行了比較。結(jié)果如下:

f3b153ca-8e8e-11eb-8b86-12bb97331649.png

由上表可知,本文模型SlotRefine在ATIS數(shù)據(jù)集上取得了最佳效果,在槽填充F1值、意圖識別準確率和句子層面準確率三個指標上均超過了現(xiàn)有模型。在Snips數(shù)據(jù)集上,模型效果沒有Stack-Propagation好。從消融實驗結(jié)果看到,在非自回歸聯(lián)合模型上加入CRF層會有效提高槽填充任務的性能,但會降低意圖識別準確率和句子層面準確率,而本文提出的兩階段改善機制則可以顯著提高模型效果。

f42ef956-8e8e-11eb-8b86-12bb97331649.png

作者還比較了模型速度上的改進效果,由上表可知,在ATIS數(shù)據(jù)集上,與現(xiàn)有的最優(yōu)模型Stack-Propagation相比,本文提出的模型SlotRefine的速度提高了4.31倍。由于每個槽標簽均可以并行計算,因此模型的推理延遲可以顯著減少。

f490a552-8e8e-11eb-8b86-12bb97331649.png

2論文動機

增量學習是指模型能夠不斷地處理現(xiàn)實世界中連續(xù)的信息流,在吸收新知識的同時保留甚至整合、優(yōu)化舊知識的能力。在NLP領域,增量處理方式在認知上更加合理,并且在工程層面,一些實時應用(如自然語言理解、對話狀態(tài)追蹤、自然語言生成、語音合成和語音識別)要求在一定時間步長的部分輸入的基礎上必須提供部分輸出。雖然人類使用增量的方式處理語言,但目前在NLP中效果最好的語言編碼器(如BiLSTM和Transformer)并不是這樣的。BiLSTM和Transformer均假定編碼的整個序列是完全可用的,可以向前或向后處理(BiLSTM),也可以作為一個整體處理(Transformer)。本文主要想探究這些非增量模型在增量系統(tǒng)下的效果,作者在不同的NLU數(shù)據(jù)集上實驗了五個非增量模型,并使用三個增量評估指標比較它們的性能。

增量系統(tǒng)評價指標

增量系統(tǒng)可以通過添加、撤銷和替換輸出部分來編輯輸出。一個效果良好的增量系統(tǒng)應當能夠盡快產(chǎn)生準確的輸出,并且撤銷和替換要盡可能少。由此,本文提出三個評價指標:編輯開銷、校正時間和相對正確性。

編輯開銷(Edit Overhead,EO):不必要的編輯比例,范圍在0-1之間,越接近于0,說明編輯越少。

校正時間(Correction Time,CT):系統(tǒng)提交某一輸出內(nèi)容的最終決策之前所花的時間,范圍在0-1之間,越接近于0,說明系統(tǒng)越快做出最終決策。

相對正確性(Relative Correctness,RC):輸出相對于非增量輸出時正確的比例,范圍在0-1之間,越接近于1表示系統(tǒng)的輸出大部分時刻下都是非增量輸出的正確前綴。

作者以詞性標注任務為例展示了三個評價指標的計算過程。如下圖所示:

f4edd3bc-8e8e-11eb-8b86-12bb97331649.png

模型

作者一共探究了五種非增量模型在增量系統(tǒng)中的表現(xiàn),分別是:(a) LSTM模型;(b)BiLSTM模型;(c)LSTM+CRF;(d)BiLSTM+CRF;(e)BERT。其中,(a)、(b)、(e)模型同時用于序列標注和文本分類任務,(c)和(d)模型只用于序列標注任務。

本文探索了三種策略的效果,分別是截斷訓練、延遲輸出和語言:

截斷訓練(truncated training):去掉訓練集中每個句子的結(jié)尾來修改訓練機制。

延遲輸出(delayed output):允許模型在輸出當前時刻單詞的標簽之前觀察后續(xù)1-2個時刻的單詞。

語言(prophecies):使用GPT-2語言模型將每個時刻的輸入前綴作為左上下文,并由此生成一個持續(xù)到句子末尾的文本,創(chuàng)建一個假設的完整上下文,以滿足模型的非增量特性的需要。如下圖所示:

f5f0d408-8e8e-11eb-8b86-12bb97331649.png

實驗

作者一共在十個英文數(shù)據(jù)集上進行了實驗,六個數(shù)據(jù)集用于序列標注任務:組塊分析(Chunk)、槽填充(Slot Filling (ATIS)和Slot Filling (SNIPS))、命名實體識別(NER)、詞性標注(Part-of-Speech Tagging) 、語義角色標注(Semantic Role Labeling);四個數(shù)據(jù)集用于文本分類任務:意圖識別(Intent (ATIS)和Intent (SNIPS))、情感分析(Positive/Negative和Pros/Cons)。其中,Chunking、NER、SRL和Slot Filling均使用BIO標簽體系并且使用F1值進行評估,其他的任務使用準確率評價。

五種模型在上述數(shù)據(jù)集上的實驗結(jié)果如下所示,括號里代表使用了截斷訓練的結(jié)果。從中可知,大部分情況下BiLSTM比LSTM效果好;BERT可以提升所有任務性能;截斷訓練后模型性能都有所下降,但BERT仍優(yōu)于其他所有模型。整體來說,目前的非增量編碼器可以適應在增量系統(tǒng)下使用,其性能產(chǎn)生不會有太大影響。

f64ab446-8e8e-11eb-8b86-12bb97331649.png

模型在三個增量系統(tǒng)的評價指標上的表現(xiàn)結(jié)果如下所示。從中可以發(fā)現(xiàn),除BERT外,模型在序列標注任務的編輯開銷和校正時間均較低;在文本分類中,由于往往需要捕捉全局信息,編輯開銷和校正時間均較高;對于相對正確性這個指標,在序列標注任務中BERT比其他模型效果都差,在文本分類任務中性能差不多。

f6ba4888-8e8e-11eb-8b86-12bb97331649.png

作者還探究了不同策略的效果,從圖中可知,截斷訓練可以有效減少編輯開銷,提高相對正確性;預言對于文本分類任務有負面作用,但對于一些序列標注任務可能有效。BERT模型在增量評價指標上的缺陷可以通過這些策略得到一定緩解,從而使其在增量系統(tǒng)下的模型效果與其他模型一樣好。

f741cf60-8e8e-11eb-8b86-12bb97331649.png

3

f7adfbb8-8e8e-11eb-8b86-12bb97331649.png

論文動機

NLU可以將話語解析成特定的語義框架,以識別用戶的需求。雖然目前神經(jīng)網(wǎng)絡模型在意圖檢測和槽填充方面取得了很高的準確性,在兩個公開的英文數(shù)據(jù)集上模型的效果已經(jīng)達到95%以上,但如果使用一種新的語言訓練這樣的模型仍需要大量的數(shù)據(jù)和人工標注工作。因此考慮通過跨語言學習將模型從高資源語言遷移到低資源語言,從而減少數(shù)據(jù)收集和標注的工作量。

跨語言遷移學習主要有兩種方式:一種是使用多語言模型來實現(xiàn)語言的遷移,例如multilingual BERT;另一種是通過機器翻譯的方式先統(tǒng)一語言類型,雖然它在跨語言文本分類上取得了很好的效果,但在序列標注任務上存在一些挑戰(zhàn),源語言的標簽需要映射到目標語言中,而如果兩個語言差別較大,則較難找到良好的映射關系。

目前跨語言NLU任務中存在一些挑戰(zhàn):(1)可以使用的數(shù)據(jù)集(Multilingual ATIS)僅支持三種語言,語言類型不足;(2)現(xiàn)有的模型使用機器翻譯和槽標簽投影的方法將NLU系統(tǒng)擴展到新語言中,這種方法對標簽投影錯誤很敏感。

因此,這篇文章發(fā)布了一個新的跨語言NLU數(shù)據(jù)庫(MultiATIS++),探索了不同的跨語言遷移方法的效果,并且提出了一種新的端到端模型,該模型可以對目標語言槽標簽進行聯(lián)合對齊和預測,以實現(xiàn)跨語言遷移。

數(shù)據(jù)集

MultiATIS++數(shù)據(jù)集在Multilingual ATIS數(shù)據(jù)集基礎上新增了六種語言,共覆蓋九種語言,并對每種語言人工打上槽位標簽(使用BIO標簽體系)。數(shù)據(jù)集樣例和數(shù)據(jù)集的描述特征如下所示:

f81e3392-8e8e-11eb-8b86-12bb97331649.png

f880ac48-8e8e-11eb-8b86-12bb97331649.png

模型

f905679e-8e8e-11eb-8b86-12bb97331649.png

上圖為作者提出的端到端槽對齊和識別模型,使用Attention機制將目標語言表示與源語言槽標簽進行軟對齊,模型直接將編碼器模塊連接到意圖和槽分類層,對目標語言同時預測意圖和槽標簽。該模型使用額外的Attention層來同時完成槽標簽對齊和識別任務,不需要額外的槽標簽投影過程。

記為源語言文本序列,為目標語言文本序列,源語言文本經(jīng)過Embedding之后得到向量表示,目標語言經(jīng)過Embedding和Encoder后得到上下文表示,其中是額外添加的符號,用于表示目標語言句子表示。意圖識別任務的公式如下:

對于槽填充任務,先計算目標語言和源語言的注意力向量,然后再進行目標語言的槽位預測,其公式如下:

此外,作者還提出了一個重構(gòu)模塊來提高目標語言和源語言的對齊效果:

意圖識別、槽填充和重構(gòu)模塊的損失函數(shù)如下所示,模型的損失函數(shù)為三者相加:

實驗結(jié)果

Multilingual NLU

作者使用multilingual BERT預訓練模型作為encoder,并比較了僅使用目標語言進行NLU和使用全部的語言進行NLU時監(jiān)督訓練的效果。如圖所示,BERT相比于LSTM在不同語言上均能顯著提高模型性能,并且多語言監(jiān)督訓練能進一步提高模型性能。

f9a0b708-8e8e-11eb-8b86-12bb97331649.png

Cross-Lingual Transfer

作者比較了不同的跨語言遷移學習方法,其中源語言是英語,目標語言共有八種。實驗結(jié)果和模型速度如下所示:

fa584d82-8e8e-11eb-8b86-12bb97331649.png

fb170998-8e8e-11eb-8b86-12bb97331649.png

MT+soft-align是本文提出的模型,在八個目標語言數(shù)據(jù)集中,有五個語言本文模型相比于MT+fast-align的效果更好,并且在意圖識別和槽填充任務中本文模型的魯棒性更強。本文模型的速度明顯優(yōu)于MT+TMP模型,在模型性能上,意圖識別任務中,本文模型在六個語言上表現(xiàn)更好,槽填充任務中,本文模型在四個語言上表現(xiàn)更佳。綜合模型性能和模型速度,端到端的槽標簽軟對齊和識別模型在跨語言NLU任務上具有一定優(yōu)勢。

參考文獻

[1] Vaswani A , Shazeer N , Parmar N , et al. Attention Is All You Need[J]。 arXiv, 2017.

[2] Tur G , Hakkani-Tur D , Heck L 。 What is left to be understood in ATIS?[C]// Spoken Language Technology Workshop (SLT), 2010 IEEE. IEEE, 2011.

[3] Coucke A , Saade A , Ball A , et al. Snips Voice Platform: an embedded Spoken Language Understanding system for private-by-design voice interfaces. 2018.
編輯:lyn

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 識別模型
    +關注

    關注

    0

    文章

    5

    瀏覽量

    6868
  • 自然語言
    +關注

    關注

    1

    文章

    292

    瀏覽量

    13996

原文標題:【論文分享】EMNLP 2020 自然語言理解

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    未來時鐘系統(tǒng)的發(fā)展方向是什么?

    ,演變?yōu)閿?shù)字化社會的“隱形基石”。對于負責設備采購的您來說,了解未來時鐘系統(tǒng)的發(fā)展方向,不僅有助于前瞻性規(guī)劃,也能在選型時做出更具長遠眼光的決策。 一、從“精準”到“極致精準”:時間精度的持續(xù)突破 時鐘系統(tǒng)的核心
    的頭像 發(fā)表于 03-11 14:32 ?42次閱讀

    江蘇省語言計算及應用實驗室多項成果入選ICASSP 2026

    近日,國際聲學、語音與信號處理會議 ICASSP 2026 公布錄用結(jié)果。江蘇省語言計算及應用實驗室多論文被會議接收。ICASSP 長期被視為聲學、語音與信號處理領域最具國際影響力的學術會議之一,其錄用成果集中反映了語音
    的頭像 發(fā)表于 03-11 11:47 ?368次閱讀
    江蘇省<b class='flag-5'>語言</b>計算及應用實驗室多項成果入選ICASSP 2026

    自然語言處理NLP的概念和工作原理

    自然語言處理 (NLP) 是人工智能 (AI) 的一個分支,它會教計算機如何理解口頭和書面形式的人類語言。自然語言處理將計算語言學與機器學習和深度學習相結(jié)合來處理語音和文本數(shù)據(jù),這些數(shù)
    的頭像 發(fā)表于 01-29 14:01 ?416次閱讀
    <b class='flag-5'>自然語言</b>處理NLP的概念和工作原理

    后摩智能六論文入選四大國際頂會

    2025年以來,后摩智能在多項前沿研究領域取得突破性進展,近期在NeurIPS、ICCV、AAAI、ACMMM四大國際頂會上有 6 論文入選。致力于大模型的推理優(yōu)化、微調(diào)、部署等關鍵
    的頭像 發(fā)表于 11-24 16:42 ?1294次閱讀
    后摩智能六<b class='flag-5'>篇</b><b class='flag-5'>論文</b>入選四大國際頂會

    云知聲論文入選自然語言處理頂會EMNLP 2025

    近日,自然語言處理(NLP)領域國際權威會議 ——2025 年計算語言學與自然語言處理國際會議(EMNLP 2025)公布論文錄用結(jié)果,云知聲提交的《面向門診病歷生成的高質(zhì)量醫(yī)患對話合
    的頭像 發(fā)表于 11-10 17:30 ?823次閱讀
    云知聲<b class='flag-5'>論文</b>入選<b class='flag-5'>自然語言</b>處理頂會EMNLP 2025

    應用多光譜數(shù)字圖像區(qū)分苗期作物與雜草的研究進展

    處理與機器學習算法,為自動化、智能化的雜草管理提供了新思路。本文綜述該技術的研究現(xiàn)狀、核心方法、挑戰(zhàn)及未來發(fā)展方向。 技術原理與方法 1. 多光譜成像技術 多光譜成像(Multispectral Imaging)通過同時采集可見光(400-700 n
    的頭像 發(fā)表于 10-21 15:25 ?372次閱讀

    多光譜圖像顏色特征用于茶葉分類的研究進展

    多光譜成像技術結(jié)合顏色特征分析為茶葉分類提供了高效、非破壞性的解決方案。本文系統(tǒng)綜述了該技術的原理、方法、應用案例及挑戰(zhàn),探討了其在茶葉品質(zhì)分級、品種識別和產(chǎn)地溯源中的研究進展,并展望了未來發(fā)展方向
    的頭像 發(fā)表于 10-17 17:09 ?612次閱讀
    多光譜圖像顏色特征用于茶葉分類的<b class='flag-5'>研究進展</b>

    高光譜成像在作物病蟲害監(jiān)測的研究進展

    特性會發(fā)生顯著變化,例如: 葉綠素含量下降 :導致可見光波段(400-700 nm)反射率異常 細胞結(jié)構(gòu)破壞 :引起近紅外波段(700-1300 nm)散射特征改變 水分與糖分異常 :影響短波紅外波段(1300-2500 nm)吸收峰分布 研究進展與關鍵技術突破 (一)光譜特征提取方法 植被指數(shù)優(yōu)
    的頭像 發(fā)表于 10-16 15:53 ?573次閱讀
    高光譜成像在作物病蟲害監(jiān)測的<b class='flag-5'>研究進展</b>

    【HZ-T536開發(fā)板免費體驗】5- 無需死記 Linux 命令!用 CangjieMagic 在 HZ-T536 開發(fā)板上搭建 MCP 服務器,自然語言輕松控板

    引言:為什么需要 “自然語言控板”? 痛點引入 :嵌入式開發(fā)中,開發(fā)者常需通過 SSH 等工具登錄開發(fā)板,手動輸入復雜的 Linux 命令(如ls -l、gpio readall、ifconfig等
    發(fā)表于 08-23 13:10

    思必馳與上海交大聯(lián)合實驗室研究成果入選兩大頂級會議

    近日,計算語言學與自然語言處理領域全球頂級會議ACL 2025及語音研究領域旗艦會議INTERSPEECH 2025相繼公布論文錄用結(jié)果。思必馳-上海交大聯(lián)合實驗室表現(xiàn)亮眼,共有13
    的頭像 發(fā)表于 07-11 16:24 ?942次閱讀
    思必馳與上海交大聯(lián)合實驗室<b class='flag-5'>研究</b>成果入選兩大頂級會議

    理想汽車八論文入選ICCV 2025

    ,最終僅接受2698論文,錄用率為24%,競爭激烈。理想汽車此次入選8論文,展示出深厚的技術積累和強大的研究實力。
    的頭像 發(fā)表于 07-03 13:58 ?1127次閱讀

    后摩智能四論文入選大國際頂會

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 大國際頂會收錄 5 論文后,后摩智能近期又有 4 論文入選CVPR、ICML
    的頭像 發(fā)表于 05-29 15:37 ?1352次閱讀

    云知聲四論文入選自然語言處理頂會ACL 2025

    結(jié)果正式公布。云知聲在此次國際學術盛會中表現(xiàn)卓越,共有4論文被接收,其中包括2主會論文(Main Paper)和2Findings。入
    的頭像 發(fā)表于 05-26 14:15 ?1331次閱讀
    云知聲四<b class='flag-5'>篇</b><b class='flag-5'>論文</b>入選<b class='flag-5'>自然語言</b>處理頂會ACL 2025

    【「零基礎開發(fā)AI Agent」閱讀體驗】總體預覽及入門

    工具和廠家都提供了豐富的圖形界面以及自然語言的設計,極大的方便了開發(fā)Agent的流程和操作方式。像我之前開發(fā)的心靈管家智能體就是完全用到了拖拉拽的圖形界面方式,非常的方便。 總結(jié) 時間有限目前看了入門
    發(fā)表于 04-20 21:53

    自然語言提示原型在英特爾Vision大會上首次亮相

    在英特爾Vision大會上,Network Optix首次展示了自然語言提示原型,該方案將重新定義視頻管理,為各行各業(yè)由AI驅(qū)動的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?983次閱讀