91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

將神經(jīng)網(wǎng)絡(luò)研究視為一場漫長的競賽,才有可能獲得真正的突破

DPVg_AI_era ? 來源:lq ? 2019-09-13 16:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最新一期《ACM通訊》發(fā)表專欄文章,以深度神經(jīng)網(wǎng)絡(luò)研究起起伏伏的歷史為例,提醒人們“將研究視為一場漫長的競賽,才有可能獲得真正的突破”。

最新一期《ACM通訊》發(fā)表專欄文章,以深度神經(jīng)網(wǎng)絡(luò)從備受懷疑,到2018年Geoffrey Hinton、Yoshua Bengio和Yann LeCun獲得圖靈獎的一段漫長歷史為例,提醒人們“將研究視為一場漫長的競賽,才有可能獲得真正的突破”。

本文作者M(jìn)oshe Y. Vardi是以色列著名數(shù)學(xué)家和計(jì)算機(jī)科學(xué)家,美國萊斯大學(xué)計(jì)算機(jī)科學(xué)教授、Ken Kennedy信息技術(shù)研究所所長。

Moshe Y. Vardi

Yann LeCun也在Twitter上推薦了這篇文章:

研究是一場漫長的競賽,耐心和耐力都是必要的

位于加州帕洛阿爾托的未來研究所(IFTF)是一家美國智庫。它成立于1968年,是蘭德公司(RAND Corporation)的一個分支機(jī)構(gòu),旨在幫助企業(yè)規(guī)劃長遠(yuǎn)的未來。

羅伊·阿瑪拉(Roy Amara)從1971年至1990年擔(dān)任IFTF主席,他于2007年去世。阿瑪拉最著名的是創(chuàng)造了關(guān)于技術(shù)效果的阿瑪拉定律(Amara's Law):“人們總是高估一項(xiàng)科技所帶來的短期效益,卻又低估它的長期影響。”Gartner的“技術(shù)炒作周期”最能說明這一規(guī)律,它的特征是“過高期望的峰值”,接著是“泡沫化的低谷期”,然后是“穩(wěn)步爬升的光明期”,最后是“實(shí)質(zhì)生產(chǎn)的高原期”。

當(dāng)我聽說2018年圖靈獎被授予Yoshua Bengio、Geoffrey Hinton和Yann LeCun,以表彰他們“在概念和工程上的突破,使深度神經(jīng)網(wǎng)絡(luò)成為計(jì)算的關(guān)鍵組成部分”時,我不禁想起阿瑪拉定律。這個決定并不十分令人驚訝。畢竟,很難想象還有什么其他計(jì)算技術(shù)在過去十年中有如此引人注目的表現(xiàn)和影響。引用圖靈獎的公告:“近年來,深度學(xué)習(xí)方法一直是計(jì)算機(jī)視覺、語音識別、自然語言處理和機(jī)器人技術(shù)等應(yīng)用領(lǐng)域取得驚人突破的重要原因?!?/p>

但是,為了將這一貢獻(xiàn)置于適當(dāng)?shù)臍v史背景中,有必要反思神經(jīng)網(wǎng)絡(luò)的悠久歷史。1943年,神經(jīng)生理學(xué)家沃倫·麥卡洛克(Warren McCulloch)和年輕的數(shù)學(xué)家沃爾特·皮茨(Walter Pitts)寫了一篇關(guān)于大腦神經(jīng)元如何工作的論文。他們用電路模擬了一個簡單的神經(jīng)網(wǎng)絡(luò)。1958年,康奈爾大學(xué)的神經(jīng)生物學(xué)家弗蘭克·羅森布拉特(Frank Rosenblatt)發(fā)明了感知器(Perceptron),一個單層的神經(jīng)網(wǎng)絡(luò)。《紐約時報》報道稱,感知器是“一臺電子計(jì)算機(jī)的雛形,(海軍)希望它能夠走路、說話、看、寫、自我復(fù)制,并意識到自己的存在?!辈恍业氖?,感知器是非常有限的,這在Marvin Minsky和Seymour Papert 1969年的著作“Perceptrons”中得到了證明。炒作達(dá)到頂峰后,隨之而來的是幻滅的低谷。這個所謂的“第一個AI冬天”,除其他外,還體現(xiàn)在AI研究經(jīng)費(fèi)的下降上,一直持續(xù)到上世紀(jì)80年代初。

1982年,加州理工學(xué)院的約翰·霍普菲爾德(John Hopfield)發(fā)表了一篇論文(Neural networks and physical systems with emergent collective computational abilities,被稱為Hopfield Network),其重點(diǎn)不是建模大腦,而是創(chuàng)造有用的設(shè)備。他用清晰的數(shù)學(xué)方法,展示了這樣的網(wǎng)絡(luò)是如何工作的,以及它們能做什么。大約在同一時間,美國-日本合作在日本京都舉行“合作/競爭神經(jīng)網(wǎng)絡(luò)聯(lián)合會議”。隨后,日本宣布“第五代項(xiàng)目”。美國期刊刊登了這篇報道,引發(fā)了人們對美國可能會落后的擔(dān)憂。不久,資金再次流入。神經(jīng)信息處理系統(tǒng)大會(NIPS)于1987年召開。然而,炒作的新高峰之后,又一次出現(xiàn)了幻滅的低谷。再次引用圖靈獎的公告:“到21世紀(jì)初,LeCun、Hinton和Bengio是堅(jiān)持這種方法的一小群人中的成員?!笔聦?shí)上,他們重新點(diǎn)燃AI社區(qū)對神經(jīng)網(wǎng)絡(luò)興趣的努力最初遭到了質(zhì)疑。這種幻滅導(dǎo)致了“第二個AI冬天”,一直持續(xù)到上世紀(jì)90年代。

直到本世紀(jì)初,改進(jìn)的算法、改進(jìn)的硬件(GPU),以及非常大的數(shù)據(jù)集(ImageNet有1400萬多個標(biāo)記圖像)結(jié)合起來,達(dá)成了令人印象深刻的突破。并且很明顯,很深(很多層的)機(jī)器視覺神經(jīng)網(wǎng)絡(luò)有顯著在效率和速度方面具有顯著的優(yōu)勢。Hinton和他的同事們的想法帶來了重大的技術(shù)進(jìn)步,他們的方法現(xiàn)在已經(jīng)該領(lǐng)域的主導(dǎo)范式,并因此獲得了2018年圖靈獎。

這個故事的寓意是,研究是一場漫長的競賽;耐心和耐力都是必要的。然而,我記得上世紀(jì)90年代初,在一個工業(yè)研究實(shí)驗(yàn)室舉行的一次研究評估會議上,有人在數(shù)據(jù)挖掘方面的開創(chuàng)性工作沒有得到認(rèn)可,因?yàn)椤八呀?jīng)做了兩年了,現(xiàn)在還不清楚這項(xiàng)工作是否會有什么進(jìn)展。”我與普林斯頓大學(xué)高級研究院創(chuàng)始人Abraham Flexner有著同樣的擔(dān)憂;在1939年發(fā)表的《論無用知識的有用性》(The Usefulness of Useless Knowledge)一文中,F(xiàn)lexner探討了一種危險的傾向,即為了所謂的實(shí)用主義而放棄純粹的好奇心。

成功的研究沒有單一的公式。有時候,把注意力集中在眼前的問題上是有意義的,但是,通常情況下,將研究視為一場漫長的競賽,才可以獲得戲劇性的突破。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4839

    瀏覽量

    108053
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40643

    瀏覽量

    302302

原文標(biāo)題:LeCun推薦:警惕炒作周期,神經(jīng)網(wǎng)絡(luò)研究是一場漫長的競賽

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    為什么 VisionFive V1 板上的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡(luò)引擎?

    我想知道為什么 VisionFive V1 板上的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡(luò)引擎,請問?您能否舉些關(guān)于他們的用例的例子?
    發(fā)表于 03-25 06:01

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?423次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因?yàn)閳D像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2177次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    AI算力網(wǎng)絡(luò)為何離不開有源銅纜與LPO技術(shù)

    當(dāng)我們驚嘆于大模型的智慧時,可曾想過,支撐這股“智能洪流”的,不僅是強(qiáng)大的GPU,更是連接萬顆芯片的“神經(jīng)網(wǎng)絡(luò)”?在AI數(shù)據(jù)中心的機(jī)柜里,正上演著一場關(guān)乎效率與成本的無聲競賽。
    的頭像 發(fā)表于 10-31 16:16 ?1209次閱讀

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的般化建議

    通過實(shí)踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的般化建議,這些建議將會在構(gòu)建高準(zhǔn)確率輕量級CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò):我們清楚
    發(fā)表于 10-28 08:02

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練個手寫數(shù)字識別的神經(jīng)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來需要使用擴(kuò)展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對第層卷積+池化的部署進(jìn)行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,權(quán)重?cái)?shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對于權(quán)重
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的
    的頭像 發(fā)表于 09-28 10:03 ?1460次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    問題。因此,并行計(jì)算與加速技術(shù)在神經(jīng)網(wǎng)絡(luò)研究和應(yīng)用中變得至關(guān)重要,它們能夠顯著提升神經(jīng)網(wǎng)絡(luò)的性能和效率,滿足實(shí)際應(yīng)用中對快速響應(yīng)和大規(guī)模數(shù)據(jù)處理的需求。神經(jīng)網(wǎng)絡(luò)并行
    的頭像 發(fā)表于 09-17 13:31 ?1246次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3602次閱讀

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    ,在定程度上擴(kuò)展了轉(zhuǎn)速估計(jì)范圍。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序
    的頭像 發(fā)表于 06-03 15:51 ?1430次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析