91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

回顧2018年深度學(xué)習(xí)NLP十大創(chuàng)新思路

mK5P_AItists ? 來源:cg ? 2019-01-08 11:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Sebastian Ruder 是一位 NLP 方向的博士生、研究科學(xué)家,目前供職于一家做 NLP 相關(guān)服務(wù)的愛爾蘭公司 AYLIEN,同時(shí),他也是一位活躍的博客作者,發(fā)表了多篇機(jī)器學(xué)習(xí)、NLP 和深度學(xué)習(xí)相關(guān)的文章。最近,他基于十幾篇經(jīng)典論文盤點(diǎn)了 2018 年 NLP 領(lǐng)域十個(gè)令人激動(dòng)并具有影響力的想法,并將文章發(fā)布在 Facebook 上。

今年,我發(fā)現(xiàn)了 十個(gè)令人激動(dòng)并具有影響力的想法,并將其匯總成了這篇文章。在未來,我們可能還會(huì)對(duì)它們有更多了解。

對(duì)于每個(gè)想法,我都挑選 1-2 篇對(duì)該想法執(zhí)行良好的論文。我試圖保持這份清單的簡潔性,因此如果沒有覆蓋到所有相關(guān)工作,還請(qǐng)大家見諒。這份清單包含主要與遷移學(xué)習(xí)相關(guān)的想法及其概述,不過也必然會(huì)帶有一定的主觀性。其中的大部分(一些例外)并不是一種趨勢(但我預(yù)測其中的一些想法在 2019 年會(huì)變得更具趨勢性)。

最后,我希望在評(píng)論區(qū)中看到你的精彩評(píng)論或者其他領(lǐng)域的精彩文章。

1)無監(jiān)督的機(jī)器翻譯翻譯(Unsupervised MT)

ICLR 2018 收錄的兩篇關(guān)于無監(jiān)督機(jī)器翻譯翻譯的論文(https://arxiv.org/abs/1710.11041)中,無監(jiān)督機(jī)器翻譯的整個(gè)過程的表現(xiàn)好得讓人感到驚訝,但結(jié)果卻不如監(jiān)督系統(tǒng)。在 EMNLP 2018,兩篇同樣來自這兩個(gè)團(tuán)隊(duì)的論文(https://arxiv.org/abs/1809.01272)顯著改進(jìn)了之前的方法,讓無監(jiān)督的機(jī)器翻譯取得了進(jìn)展。代表性論文:

《基于短語和神經(jīng)的無監(jiān)督機(jī)器翻譯》(EMNLP 2018)

Phrase-Based & Neural Unsupervised Machine Translation

論文地址:https://arxiv.org/abs/1804.0775

這篇論文很好地為無監(jiān)督機(jī)器翻譯提取了三個(gè)關(guān)鍵要求:良好的初始化、語言建模以及你想任務(wù)建模(通過反向翻譯)。我們在下文中會(huì)看到,這三項(xiàng)要求同樣對(duì)其他的無監(jiān)督場景有益。反向任務(wù)建模要求循環(huán)的一致性,其已在不同方法(尤其是 CycleGAN,https://arxiv.org/abs/1703.10593)中得到應(yīng)用。這篇論文甚至在兩個(gè)低資源語言對(duì)——英語-烏爾都語以及英語-羅馬尼亞語上進(jìn)行了廣泛的實(shí)驗(yàn)和評(píng)估。未來我們有希望看到更多針對(duì)資源匱乏類語言的工作。

無監(jiān)督機(jī)器翻譯三項(xiàng)原則的插圖說明:A)兩個(gè)單語數(shù)據(jù)集;B)初始化;C)語言建模;D)反向翻譯(Lample et al., 2018)。

2)預(yù)訓(xùn)練的語言模型(Pretrained language models)

使用預(yù)訓(xùn)練的語言模型可能是今年最重要的 NLP 趨勢,因此我在這里就不過多描述。針對(duì)預(yù)訓(xùn)練的語言模型,這里有很多讓人印象深刻的方法:ELMo(https://arxiv.org/abs/1802.05365), ULMFiT(https://arxiv.org/abs/1801.06146)、 OpenAI Transformer以及 BERT(https://arxiv.org/abs/1810.04805)。代表性論文:

《深度的語境化詞語表示》(NAACL-HLT 2018)

《Deep contextualized word representations》

論文地址:https://arxiv.org/abs/1802.05365

這篇論文介紹了 ELMo,頗受好評(píng)。除了實(shí)證結(jié)果讓人印象深刻,這篇論文的詳細(xì)的分析部分也非常顯眼,該部分梳理了各類因素的影響,并且分析了在表示中所捕獲的信息。詞義消歧(WSD)分析自身(下圖左)也執(zhí)行得很好。這兩者都表明,機(jī)器學(xué)習(xí)本身就提供了接近最新技術(shù)的詞義消歧和詞性標(biāo)注性能。

與基線相比的第一層和第二層雙向語言模型的詞義消歧(左)和詞性標(biāo)注(右)結(jié)果(Peters et al., 2018)。

3)常識(shí)推理數(shù)據(jù)集(Common sense inference datasets)

將常識(shí)融入模型是向前發(fā)展的最重要方向之一。然而,創(chuàng)建好的數(shù)據(jù)集并不容易,甚至最常用的那些好的數(shù)據(jù)集還存在很大的偏差。今年出現(xiàn)了一些執(zhí)行良好的數(shù)據(jù)集,它們試圖教模型一些常識(shí),比如同樣都源自華盛頓大學(xué)的 Event2Mind(https://arxiv.org/abs/1805.06939)和 SWAG(https://arxiv.org/abs/1808.05326)。其中,SWAG 學(xué)到常識(shí)的速度出乎意料地快。代表性論文:

《視覺常識(shí)推理》(arXiv 2018)

Visual Commonsense Reasoning

論文地址:http://visualcommonsense.com/

這是第一個(gè)包含了每個(gè)答案所對(duì)應(yīng)的基本原理(解釋)的視覺 QA 數(shù)據(jù)集。此外,問題要求復(fù)雜的推理。創(chuàng)建者通過確保每個(gè)答案正確的先驗(yàn)概率為 25%(每個(gè)答案在整個(gè)數(shù)據(jù)集中出現(xiàn) 4 次,其中,錯(cuò)誤答案出現(xiàn) 3 次,正確答案出現(xiàn) 1 次)來不遺余力地解決可能存在的偏差;這就要求使用計(jì)算相關(guān)性和相似性的模型來解決約束優(yōu)化問題。我希望,在創(chuàng)建數(shù)據(jù)集時(shí)預(yù)防可能的偏倚可以成為未來研究人員們的常識(shí)。最終,看看數(shù)據(jù)精彩地呈現(xiàn)出來就可以了。

VCR:給定一張圖片、一個(gè)區(qū)域列表和一個(gè)問題,模型必須回答這個(gè)問題,并給出一個(gè)可解釋其答案為何正確的理由。(Zellers et al., 2018).

4)元學(xué)習(xí)(Meta-learning)

元學(xué)習(xí)已在小樣本學(xué)習(xí)、強(qiáng)化學(xué)習(xí)和機(jī)器人技術(shù)中得到廣泛應(yīng)用——最突出的例子是與模型無關(guān)的元學(xué)習(xí)(MAML,https://arxiv.org/abs/1703.03400),但其很少在 NLP 中得到成功應(yīng)用。元學(xué)習(xí)對(duì)于訓(xùn)練示例數(shù)量有限的問題非常有用。代表性論文:

《低資源神經(jīng)機(jī)器翻譯的元學(xué)習(xí)》(EMNLP 2018)

Meta-Learning for Low-Resource Neural Machine Translation

論文地址:http://aclweb.org/anthology/D18-1398

作者使用 MAML 方法學(xué)習(xí)翻譯的良好初始化,將每一個(gè)語言對(duì)都視為單獨(dú)的元任務(wù)。適應(yīng)低資源語言對(duì),可能是對(duì) NLP 中的元學(xué)習(xí)最有用的設(shè)置。特別地,將多語種遷移學(xué)習(xí)(例如多語種 BERT,https://github.com/google-research/bert/blob/master/multilingual.md)、無監(jiān)督學(xué)習(xí)和元學(xué)習(xí)結(jié)合起來是一個(gè)有前景的研究方向。

遷移學(xué)習(xí)、多語言遷移學(xué)習(xí)與元學(xué)習(xí)之間的區(qū)別。 實(shí)線:初始化學(xué)習(xí)。 虛線:調(diào)整路徑(Gu et al., 2018).

5)穩(wěn)健的無監(jiān)督方法(Robust unsupervised methods)

今年,我們(http://aclweb.org/anthology/P18-1072)和其他研究者(http://aclweb.org/anthology/D18-1056)都已經(jīng)觀察到,當(dāng)語言不同時(shí),無監(jiān)督的跨語言詞向量方法就會(huì)失效。這是遷移學(xué)習(xí)中的常見現(xiàn)象,其中源和目標(biāo)設(shè)置(例如,域適應(yīng)中的域https://www.cs.jhu.edu/~mdredze/publications/sentiment_acl07.pdf、連續(xù)學(xué)習(xí)https://arxiv.org/abs/1706.08840和多任務(wù)學(xué)習(xí)http://www.aclweb.org/anthology/E17-1005中的任務(wù))之間的差異會(huì)導(dǎo)致模型的退化或失敗。因此,讓模型對(duì)于這些變化更加穩(wěn)健非常重要。代表性論文:

《用于完全無監(jiān)督的跨語言詞向量的穩(wěn)健自學(xué)習(xí)方法》(ACL 2018)

A robust self-learning method for fully unsupervised cross-lingual mappings of word embeddings

論文地址:http://www.aclweb.org/anthology/P18-1073

該論文利用他們對(duì)問題的理解來設(shè)計(jì)更好的初始化,而不是在初始化上應(yīng)用元學(xué)習(xí)。特別地,他們將兩種語言中與相似詞具有相似的詞分布的詞進(jìn)行配對(duì)。這是利用領(lǐng)域?qū)I(yè)知識(shí)和分析見解來使模型變得更穩(wěn)健的非常好的案例。

三個(gè)詞的相似度分布。 等效翻譯(「two」和「due」)的分布比非相關(guān)詞(「two」和「cane」——意思是「dog」)的分布更為相似。(Artexte et al., 2018)

6)理解表示(Understanding representations)

研究者們未來更好地理解表示,已經(jīng)做了很多努力。特別是「診斷分類器」(diagnostic classifiers,https://arxiv.org/abs/1608.04207)(旨在評(píng)估學(xué)習(xí)到的表示能否預(yù)測某些屬性的任務(wù)) 已經(jīng)變得非常常用(http://arxiv.org/abs/1805.01070)了。代表性論文:

《語境化詞向量解析:架構(gòu)和表示》(EMNLP 2018)

Dissecting Contextual Word Embeddings: Architecture and Representation

論文地址:http://aclweb.org/anthology/D18-1179

該論文對(duì)預(yù)訓(xùn)練語言模型表示實(shí)現(xiàn)了更好的理解。作者在精心設(shè)計(jì)的無監(jiān)督和有監(jiān)督的任務(wù)上對(duì)詞和跨度表示進(jìn)行了廣泛的學(xué)習(xí)研究。結(jié)果表明:預(yù)訓(xùn)練的表示可以在較低的層中學(xué)習(xí)到低級(jí)形態(tài)和句法任務(wù)相關(guān)的任務(wù),并且可以在較高的層中學(xué)習(xí)到更長范圍的語義相關(guān)的任務(wù)。

對(duì)我來說,這個(gè)結(jié)果真正表明了,預(yù)訓(xùn)練語言模型確實(shí)捕獲到了與在 ImageNet 上預(yù)訓(xùn)練的計(jì)算機(jī)視覺模型(https://thegradient.pub/nlp-imagenet/)相類似的屬性。

BiLSTM 和 Transformer預(yù)訓(xùn)練表示在詞性標(biāo)注、選區(qū)分析和無監(jiān)督共指解析((從左到右)上每層的性能。(Peters et al., 2018)

7)巧妙的輔助任務(wù)(Clever auxiliary tasks)

在許多場景下,我們看到研究者越來越多地將精心挑選的輔助任務(wù)與多任務(wù)學(xué)習(xí)一起使用。一個(gè)好的輔助任務(wù)來說,它必須是易于獲取數(shù)據(jù)的。最重要的例子之一是 BERT(https://arxiv.org/abs/1810.04805),它使用下一個(gè)句子的預(yù)測(該預(yù)測方法在 Skip-thoughts,https://papers.nips.cc/paper/5950-skip-thought-vectors.pdf以及最近的 Quick-thoughts,https://arxiv.org/pdf/1803.02893.pdf中應(yīng)用過)來產(chǎn)生很大的效果。代表性論文:

《語義結(jié)構(gòu)的句法框架》(EMNLP 2018)

Syntactic Scaffolds for Semantic Structures

論文地址:http://aclweb.org/anthology/D18-1412

該論文提出了輔助任務(wù),它通過預(yù)測每個(gè)跨度對(duì)應(yīng)的句法成分類型,來對(duì)跨度表示進(jìn)行預(yù)訓(xùn)練。輔助任務(wù)雖然在概念上非常簡單,但它為語義角色標(biāo)注和共指解析等跨級(jí)別預(yù)測任務(wù)帶來了大幅的改進(jìn)。這篇論文表明,在目標(biāo)任務(wù)(這里是指跨度任務(wù))所要求的級(jí)別上所學(xué)到的特定的表示是效益巨大的。

pair2vec:用于跨句推理的組合詞對(duì)嵌入(arXiv 2018)

pair2vec: Compositional Word-Pair Embeddings for Cross-Sentence Inference

論文地址:https://arxiv.org/abs/1810.08854

類似地,本論文通過最大化詞對(duì)與其語境間的點(diǎn)互信息(pointwise mutual information),來對(duì)詞對(duì)表示進(jìn)行預(yù)訓(xùn)練。這就激勵(lì)了模型學(xué)習(xí)更有意義的詞對(duì)表示,而不使用語言建模等更通用的目標(biāo)。在 SQuAD 和 MultiNLI 等要求跨句推理的任務(wù)中,預(yù)訓(xùn)練表示是有效的。

我們可以期望未來,看到更多的預(yù)訓(xùn)練任務(wù),能夠捕獲特別適用于某些下游任務(wù)的屬性,并且能夠與語言建模等更多通用任務(wù)相輔相成。

OntoNotes的句法、PropBank和共指注釋。PropBank SRL參數(shù)和共指提及被標(biāo)注在了句法成分的頂部。幾乎每一個(gè)參數(shù)都與一個(gè)句法成分有關(guān)。(Swayamdipta et al., 2018)

8)半監(jiān)督學(xué)習(xí)和遷移學(xué)習(xí)相結(jié)合(Combining semi-supervised learning with transfer learning)

伴隨著遷移學(xué)習(xí)的最新進(jìn)展,我們不應(yīng)該忘記使用特定的目標(biāo)任務(wù)數(shù)據(jù)的更明確的方法。事實(shí)上,預(yù)訓(xùn)練表示與許多半監(jiān)督學(xué)習(xí)方法是相輔相成的。我們已經(jīng)探索了一種半監(jiān)督學(xué)習(xí)的特殊方法——自我標(biāo)注的方法(http://aclweb.org/anthology/P18-1096)。代表性論文:

《基于交叉視點(diǎn)訓(xùn)練的半監(jiān)督序列建模》(EMNLP 2018)

Semi-Supervised Sequence Modeling with Cross-View Training

論文地址:http://aclweb.org/anthology/D18-1217

這篇論文表明,一個(gè)能確保對(duì)輸入的不同視點(diǎn)的預(yù)測與主模型的預(yù)測一致的概念上非常簡單的想法,可以在大量的任務(wù)上得到性能的提高。這個(gè)想法與詞 dropout 類似,但允許利用未標(biāo)記的數(shù)據(jù)讓模型變得更穩(wěn)健。與 mean teacher(https://arxiv.org/abs/1703.01780)等其他自集成模型相比,它是專門針對(duì)特定的 NLP 任務(wù)設(shè)計(jì)的。

隨著對(duì)半監(jiān)督學(xué)習(xí)的研究越越來越多,我們將有望看到有更多明確地嘗試對(duì)未來目標(biāo)預(yù)測進(jìn)行建模的研究工作。

輔助預(yù)測模塊看到的輸入:輔助1 :They traveled to__________________. 輔助2:They traveled toWashington_______. 輔助3:_____________Washingtonby plane.輔助4:_____________by plane。(Clark et al., 2018)

9)大型文檔的問答和推理(QA and reasoning with large documents)

隨著一系列新的問答(QA)數(shù)據(jù)集(http://quac.ai/)的出現(xiàn),問答系統(tǒng)有了很大的發(fā)展。除了對(duì)話式問答和多步推理,問答最具挑戰(zhàn)性的方面是對(duì)敘述和大體量信息進(jìn)行合成。代表性論文:

《敘述答閱讀理解挑戰(zhàn)》(TACL 2018)

The NarrativeQA Reading Comprehension Challenge

論文地址:http://aclweb.org/anthology/Q18-1023

這篇論文基于對(duì)完整的電影劇本和書籍的提問和回答,提出了一個(gè)具有挑戰(zhàn)性的新的問答數(shù)據(jù)集。雖然依靠當(dāng)前的方法還無法完成這項(xiàng)任務(wù),但是模型可以選擇使用摘要(而不是整本書籍)作為選擇答案(而不是生成答案)的語境。這些變體讓任務(wù)的實(shí)現(xiàn)更加容易,也使得模型可以逐步擴(kuò)展到整個(gè)語境設(shè)置。

我們需要更多這樣的數(shù)據(jù)集,它們能體現(xiàn)具有挑戰(zhàn)性的問題,并且有助于解決這些問題。

QA 數(shù)據(jù)集比較

10)歸納偏差(Inductive bias)

CNN 中的卷積、正則化、dropout 以及其他機(jī)制等歸納偏差,是神經(jīng)網(wǎng)絡(luò)模型的核心部分,它們充當(dāng)調(diào)節(jié)器的角色,使模型更具樣本效率。然而,提出一個(gè)應(yīng)用更加廣泛的歸納偏差方法,并將其融入模型,是具有挑戰(zhàn)性的。代表性論文:

《基于人類注意力的序列分類》(CoNLL 2018)

Sequence classification with human attention

論文地址:http://aclweb.org/anthology/K18-1030

這篇論文提出利用視覺跟蹤語料庫中的人類注意力,來 RNN 中的注意力進(jìn)行規(guī)則化處理。鑒于 Transformer 等當(dāng)前許多模型都使用注意力這一方法,找到更有效得訓(xùn)練它的方法是一個(gè)重要的方向。同時(shí),論文還證明了另外一個(gè)案例——人類語言學(xué)習(xí)可以幫助改進(jìn)計(jì)算模型。

《語義角色標(biāo)注的語言學(xué)信息的自我注意力》(EMNLP 2018)

Linguistically-Informed Self-Attention for Semantic Role Labeling

論文地址:http://aclweb.org/anthology/D18-1548

這篇論文有很多亮點(diǎn):一個(gè)在句法和語義任務(wù)上進(jìn)行聯(lián)合訓(xùn)練的Transformer 模型;在測試時(shí)注入高質(zhì)量語法分析的能力;以及域外評(píng)估。論文還通過訓(xùn)練注意力頭來關(guān)注每個(gè)標(biāo)注的句法 parents,來使轉(zhuǎn)換器的多頭注意力統(tǒng)一對(duì)句法更加敏感。

未來我們有望看到更多針對(duì)輸入特定場景,將 Transformer 注意力頭用作輔助預(yù)測器的案例。

PropBank語義角色標(biāo)注的十年。語言學(xué)信息的自我注意力( LISA )與其他域外數(shù)據(jù)方法的比較。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124418
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23282

原文標(biāo)題:一文概述 2018 年深度學(xué)習(xí) NLP 十大創(chuàng)新思路

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    2025度“十大科技熱詞”

    近日,中國科技新聞學(xué)會(huì)發(fā)布2025度“十大科技熱詞”,包括:AI治理、具身智能、可控核聚變、腦機(jī)接口、商業(yè)航天、深??萍?、深空探測、銀發(fā)科技、智能體、中國創(chuàng)新。2025度“
    的頭像 發(fā)表于 02-04 16:03 ?884次閱讀
    2025<b class='flag-5'>年</b>度“<b class='flag-5'>十大</b>科技熱詞”

    漢威科技柔性傳感電子皮膚入選2025具身智能十大創(chuàng)新產(chǎn)品和技術(shù)

    行業(yè)認(rèn)可!漢威科技柔性傳感電子皮膚入選2025具身智能十大創(chuàng)新產(chǎn)品和技術(shù)。
    的頭像 發(fā)表于 02-01 15:35 ?1344次閱讀

    2025聯(lián)接領(lǐng)域十大創(chuàng)新進(jìn)展回顧

    創(chuàng)新前沿技術(shù)加速落地,形成“短距+廣域”協(xié)同發(fā)展格局,成為萬物互聯(lián)的核心基礎(chǔ)。下面讓我們一起回顧2025聯(lián)接領(lǐng)域十大創(chuàng)新進(jìn)展。
    的頭像 發(fā)表于 01-19 13:08 ?614次閱讀

    進(jìn)迭時(shí)空2025十大開發(fā)者揭曉

    、參與度與影響力三大維度,榮幸地評(píng)選出進(jìn)迭時(shí)空2025十大開發(fā)者。他們憑借扎實(shí)的工程能力和持續(xù)突破的極客精神,為社區(qū)的的成長添磚加瓦,為RISC-V和AI的生態(tài)
    的頭像 發(fā)表于 01-12 20:07 ?640次閱讀
    進(jìn)迭時(shí)空2025<b class='flag-5'>年</b>度<b class='flag-5'>十大</b>開發(fā)者揭曉

    英泰斯特榮獲2025武漢市人工智能十大創(chuàng)新產(chǎn)品

    近日,武漢市經(jīng)信局發(fā)布《2025武漢市人工智能十大創(chuàng)新產(chǎn)品》公示。英泰斯特自主研發(fā)的“車載智能終端T-BOX”(以下簡稱“T-BOX”)憑借卓越的技術(shù)創(chuàng)新與市場應(yīng)用價(jià)值,成功入選。
    的頭像 發(fā)表于 12-22 11:14 ?529次閱讀

    中國信通院發(fā)布2025數(shù)字孿生十大關(guān)鍵詞

    。會(huì)上,中國信息通信研究院(簡稱“中國信通院”)產(chǎn)業(yè)與規(guī)劃研究所副所長牟春波正式發(fā)布并解讀“2025數(shù)字孿生十大關(guān)鍵詞”,十大關(guān)鍵詞分別是數(shù)字孿生低空經(jīng)濟(jì)、數(shù)字孿生
    的頭像 發(fā)表于 12-11 14:03 ?673次閱讀
    中國信通院發(fā)布2025<b class='flag-5'>年</b>數(shù)字孿生<b class='flag-5'>十大</b>關(guān)鍵詞

    2025百度十大科技前沿發(fā)明亮相

    從大模型、深度學(xué)習(xí)框架到智能體、數(shù)字人、無人駕駛等AI技術(shù)突破,今年發(fā)布的十大科技前沿發(fā)明涵蓋了人工智能算力、框架、模型、場景應(yīng)用全棧技術(shù)體系。
    的頭像 發(fā)表于 11-05 15:42 ?719次閱讀

    科技動(dòng)態(tài)|解鎖2025全球十大工程成就

    。——愛因斯坦202510月13日發(fā)布了“2025全球十大工程成就”,從浩瀚宇宙到能源革命,從基礎(chǔ)科學(xué)到日常生活,勾勒出人類工程科技創(chuàng)新的壯闊圖景。在這全球十大工程
    的頭像 發(fā)表于 10-24 18:37 ?1069次閱讀
    科技動(dòng)態(tài)|解鎖2025全球<b class='flag-5'>十大</b>工程成就

    Gartner發(fā)布2026十大戰(zhàn)略技術(shù)趨勢

    近日,商業(yè)與技術(shù)洞察公司Gartner發(fā)布企業(yè)機(jī)構(gòu)需在2026重點(diǎn)關(guān)注的十大戰(zhàn)略技術(shù)趨勢。Gartner研究副總裁高挺(ArnoldGao)表示:“2026對(duì)技術(shù)領(lǐng)導(dǎo)者而言是至關(guān)重要的一
    的頭像 發(fā)表于 10-22 11:00 ?666次閱讀
    Gartner發(fā)布2026<b class='flag-5'>年</b><b class='flag-5'>十大</b>戰(zhàn)略技術(shù)趨勢

    Wialon公布2025十大GPS硬件制造商

    阿聯(lián)酋迪拜202510月19日 /美通社/ -- Teltonika Telematics 再度獲評(píng)車隊(duì)管理與數(shù)字化硬件領(lǐng)域的全球領(lǐng)導(dǎo)者,在 《Wialon 2025GPS硬件制造商十大榜單》中
    的頭像 發(fā)表于 10-19 20:32 ?801次閱讀
    Wialon公布2025<b class='flag-5'>年</b><b class='flag-5'>十大</b>GPS硬件制造商

    2025數(shù)據(jù)線廠家推薦:十大品牌助力企業(yè)生產(chǎn)效率升級(jí)

    ,復(fù)合增長率高達(dá)15.4%,其中快充技術(shù)、工業(yè)專用連接器等定制化需求尤為突出。在此趨勢下,深圳市聯(lián)鑫德誠科技有限公司、立訊精密、綠聯(lián)等十大品牌憑借技術(shù)實(shí)力與服務(wù)能
    的頭像 發(fā)表于 09-13 11:03 ?3555次閱讀
    2025<b class='flag-5'>年</b>數(shù)據(jù)線廠家推薦:<b class='flag-5'>十大</b>品牌助力企業(yè)生產(chǎn)效率升級(jí)

    檸檬光子榮獲2024十大光學(xué)產(chǎn)業(yè)技術(shù)創(chuàng)新獎(jiǎng)

    近日,國際光日前夜,由中國光學(xué)產(chǎn)業(yè)權(quán)威媒體平臺(tái)——「意桐光電-光電匯OESHOW」主辦的“2025中國十大光學(xué)產(chǎn)業(yè)技術(shù)頒獎(jiǎng)典禮”圓滿落幕。
    的頭像 發(fā)表于 05-26 14:11 ?875次閱讀

    四創(chuàng)電子入選2025智慧應(yīng)急十大優(yōu)秀案例

    “2025智慧應(yīng)急十大優(yōu)秀案例”評(píng)選成果,四創(chuàng)電子研發(fā)的“面向?yàn)?zāi)害救援場景的應(yīng)急通信系統(tǒng)”成功入選“2025智慧應(yīng)急十大優(yōu)秀案例”。
    的頭像 發(fā)表于 05-23 18:01 ?1493次閱讀

    松盛光電榮膺2024度中國十大光學(xué)產(chǎn)業(yè)技術(shù)應(yīng)用類獎(jiǎng)

    近日,2025中國十大光學(xué)產(chǎn)業(yè)技術(shù)頒獎(jiǎng)典禮在此隆重舉行。在眾多行業(yè)專家、學(xué)者和頂尖企業(yè)代表的見證下,武漢松盛光電科技有限公司(以下簡稱“松盛光電”)自主研發(fā)的“激光恒溫錫焊系統(tǒng)”憑借在光學(xué)激光技術(shù)領(lǐng)域突破性的創(chuàng)新成果從眾多候選項(xiàng)目中脫穎而出,榮膺“2024
    的頭像 發(fā)表于 05-19 16:42 ?1092次閱讀

    乘光而上,載譽(yù)前行|度亙核芯斬獲“2024中國十大光學(xué)產(chǎn)業(yè)技術(shù)獎(jiǎng)”!

    ,最終從156項(xiàng)申報(bào)技術(shù)中脫穎而出,榮膺“2024中國十大光學(xué)產(chǎn)業(yè)技術(shù)—創(chuàng)新獎(jiǎng)”!這是度亙核芯連續(xù)第三榮獲該獎(jiǎng)項(xiàng)。2024中國十大光學(xué)產(chǎn)業(yè)技術(shù)—創(chuàng)
    的頭像 發(fā)表于 05-16 17:45 ?1494次閱讀
    乘光而上,載譽(yù)前行|度亙核芯斬獲“2024中國<b class='flag-5'>十大</b>光學(xué)產(chǎn)業(yè)技術(shù)獎(jiǎng)”!