91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

論文遭首屆ICLR拒稿、代碼被過度優(yōu)化,word2vec作者Tomas Mikolov分享背后的故事

深度學(xué)習(xí)自然語言處理 ? 來源:機器之心 ? 2023-12-18 16:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

除了表達(dá)自己獲得 NeurIPS 2023 時間檢驗獎的感想之外,Tomas Mikolo 還對 NLP 和 ChatGPT 的現(xiàn)狀給出了自己的一些思考。

幾天前,NeurIPS 2023 公布了獲獎?wù)撐?,其中時間檢驗獎頒給了十年前的 NeurIPS 論文「Distributed Representations of Words and Phrases and their Compositionality」。這項工作引入了開創(chuàng)性的詞嵌入技術(shù) word2vec,展示了從大量非結(jié)構(gòu)化文本中學(xué)習(xí)的能力,推動了自然語言處理新時代的到來。

這篇論文由當(dāng)時都還在谷歌的 Tomas Mikolov、Ilya Sutskever、Kai Chen、Greg Corrado、Jeffrey Dean 等人撰寫,被引量超過 4 萬次。

6db585ca-9d7c-11ee-8b88-92fbcf53809c.png

不過,Word2vec 首篇論文是 Tomas Mikolov 等同一作者的「Efficient Estimation of Word Representations in Vector Space」。這篇論文的引用量也已經(jīng)接近 4 萬。

6db9b87a-9d7c-11ee-8b88-92fbcf53809c.png

論文地址:https://arxiv.org/abs/1301.3781

近日,Tomas Mikolov 分享了論文背后更多的故事,包括被首屆 ICLR 拒稿以及之后的進(jìn)展等。

6dc46cac-9d7c-11ee-8b88-92fbcf53809c.jpg

圖源:https://www.facebook.com/tomas.mikolov

以下為原貼內(nèi)容,我們做了不改變原意的整理。

我非常高興 word2vec 論文獲得了 NeurIPS 2023 時間檢驗獎,這是我獲得的第一個最佳論文類型的獎項。實際上,word2vec 原始論文在 2013 年首屆 ICLR 會議被拒絕接收了(盡管接收率很高),這讓我想到審稿人預(yù)測論文的未來影響是多么困難。

這些年,我聽到了很多關(guān)于 word2vec 的評論,正面的還有負(fù)面的,但至今沒有在網(wǎng)絡(luò)上認(rèn)真地發(fā)表過評論。我覺得研究界正在不斷地被一些研究人員的 PR 式宣傳淹沒,他們通過這樣的方式獲得他人的論文引用和注意力。我不想成為其中的一部分,但 10 年后,分享一些關(guān)于論文背后的故事可能會很有趣。

我經(jīng)常聽到的一個評論是,代碼很難理解,以至于有些人認(rèn)為是我故意地讓代碼不可讀。但我沒有那么邪惡,代碼最終被過度優(yōu)化了,因為我等了好幾個月才被批準(zhǔn)發(fā)布它。我也試圖讓代碼更快更短?;叵肫饋?,如果當(dāng)時團(tuán)隊中沒有 Greg Corrado 和 Jeff Dean,我懷疑自己是否會獲得批準(zhǔn)。我認(rèn)為 word2vec 可能是谷歌開源的第一個廣為人知的 AI 項目。

在 word2vec 發(fā)布一年多后,斯坦福 NLP 小組的 GloVe 項目也引發(fā)了很大爭議。雖然該項目從我們的項目中復(fù)刻了很多技巧,但總感覺 GloVe 倒倒退了一步:速度較慢,還需要更多內(nèi)存,生成的向量質(zhì)量比 word2vec 低。然而,GloVe 是基于在更多數(shù)據(jù)上預(yù)訓(xùn)練的詞向量發(fā)布的,因而很受歡迎。之后,我們在 fastText 項目中修復(fù)了相關(guān)問題,在使用相同數(shù)據(jù)進(jìn)行訓(xùn)練時,word2vec 比 GloVe 好得多。

盡管 word2vec 是我被引用最多的論文,但我從未認(rèn)為它是我最有影響力的項目。實際上,word2vec 代碼最初只是我之前項目 RNNLM 的一個子集,我感覺 RNNLM 很快就被人們遺忘了。但在我看來,它應(yīng)該和 AlexNet 一樣具有革命性意義。

在這里,我列舉一些在 2010 年 RNNLM 中首次展示的想法:遞歸神經(jīng)網(wǎng)絡(luò)的可擴(kuò)展訓(xùn)練、首次通過神經(jīng)語言模型生成文本、動態(tài)評估、字符和子詞級別的神經(jīng)語言建模、神經(jīng)語言模型自適應(yīng)(現(xiàn)在稱為微調(diào))、首個公開可用的 LM 基準(zhǔn)。

我發(fā)布了第一項研究,顯示當(dāng)一切正確完成時,訓(xùn)練數(shù)據(jù)越多,神經(jīng)網(wǎng)絡(luò)就能比 n-gram 語言模型更勝一籌。這在今天聽起來是顯而易見的,但在當(dāng)時這被廣泛認(rèn)為是不可能的,甚至大多數(shù)谷歌員工都認(rèn)為,數(shù)據(jù)越多,除了 n-gram 和平滑技術(shù)外,其他任何工作都是徒勞的。

我很幸運能在 2012 年加入谷歌 Brain 團(tuán)隊,那里有很多大規(guī)模神經(jīng)網(wǎng)絡(luò)的「信徒」,他們允許我參與 word2vec 項目,展示了它的潛力。但我不想給人留下到這里就足夠完美的印象。在 word2vec 之后,作為后續(xù)項目,我希望通過改進(jìn)谷歌翻譯來普及神經(jīng)語言模型。我確實與 Franz Och 和他的團(tuán)隊開始了合作,在此期間我提出了幾種模型,這些模型可以補充基于短語的機器翻譯,甚至可以取代它。

其實在加入谷歌之前,我就提出了一個非常簡單的想法,通過在句子對(比如法語 - 英語)上訓(xùn)練神經(jīng)語言模型來實現(xiàn)端到端的翻譯,然后在看到第一句話后使用生成模式生成翻譯。這對短句子效果很好,但在長句子上就不那么奏效了。

我在谷歌 Brain 內(nèi)部多次討論過這個項目,主要是與 Quoc 和 Ilya,在我轉(zhuǎn)到 Facebook AI 后他們接手了這個項目。我感到非常意外的是,他們最終以「從序列到序列(sequence to sequence)」為名發(fā)表了我的想法,不僅沒有提到我是共同作者,而且在長長的致謝部分提及了谷歌 Brain 中幾乎所有的人,唯獨沒有我。那時是資金大量涌入人工智能領(lǐng)域的時期,每一個想法都價值連城。看到深度學(xué)習(xí)社區(qū)迅速變成某種權(quán)力的游戲,我感到很悲哀。

總之,多年來人們對語言模型的興趣增長緩慢,但自從 ChatGPT 發(fā)布以來,人們對它的興趣呈爆炸式增長,看到這么多人終于將人工智能和語言聯(lián)系在一起,真的很酷。我們還沒有到達(dá)那個階段,我個人認(rèn)為我們需要有新的發(fā)現(xiàn)來突破神經(jīng)模型的泛化極限。我們無疑生活在一個激動人心的時代。但是,讓我們不要過分信任那些想要壟斷基于數(shù)十位甚至數(shù)百位科學(xué)家辛勤工作的技術(shù),同時聲稱這一切都是為了人類的利益的人。

不過,Tomas Mikolov 的發(fā)言也讓人感嘆,他也要步 LSTM 之父 Jürgen Schmidhuber 的后塵嗎?

6dd0b426-9d7c-11ee-8b88-92fbcf53809c.png

圖源:https://twitter.com/agihippo/status/1736107652407849208

你們怎么看呢?

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4969

    瀏覽量

    74014
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23282
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1598

    瀏覽量

    10296

原文標(biāo)題:論文遭首屆ICLR拒稿、代碼被過度優(yōu)化,word2vec作者Tomas Mikolov分享背后的故事

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    天合光能分享“光伏羊”與“算電協(xié)同”的背后故事

    直播連線伊始,做客演播室的嘉賓全國政協(xié)委員、國務(wù)院發(fā)展研究中心資源與環(huán)境政策研究所研究員谷樹忠親切地與高紀(jì)凡打招呼,一聲“老高”拉近了與觀眾的距離,在觀看完青?!肮夥颉钡囊曨l后,高紀(jì)凡分享了“光伏羊”與“算電協(xié)同”的背后故事
    的頭像 發(fā)表于 03-11 10:57 ?32次閱讀

    西井科技攜手同濟(jì)大學(xué) 三篇AI研究成果入選頂會ICLR 2026

    科技攜手同濟(jì)大學(xué)長聘教授、上海創(chuàng)智學(xué)院全時導(dǎo)師陳廣,共有3篇人工智能研究成果大會正式錄用。作為全球人工智能領(lǐng)域最具影響力的學(xué)術(shù)會議之一,ICLR 致力于推動深度學(xué)習(xí)與表征學(xué)習(xí)的前沿突破。此次三篇論文同時入選,不僅彰顯西井科技在
    的頭像 發(fā)表于 02-12 17:42 ?1w次閱讀
    西井科技攜手同濟(jì)大學(xué) 三篇AI研究成果入選頂會<b class='flag-5'>ICLR</b> 2026

    后摩智能4篇論文入選人工智能頂會ICLR 2026

    繼斬獲NeurIPS、ICCV、AAAI、ACMMM四大頂會認(rèn)可后,后摩智能再傳捷報——4篇論文成功入選國際頂級人工智能會議ICLR 2026(International Conference
    的頭像 發(fā)表于 02-09 14:18 ?722次閱讀

    c語言中的代碼優(yōu)化

    了,所以須要更多的ROM。使用這種優(yōu)化在Inline函數(shù)頻繁調(diào)用而且只包含幾行代碼的時候是最有效的。 (2)不定義不使用的返回值 函數(shù)定義并不知道函數(shù)返回值是否使用,假如返回值歷
    發(fā)表于 01-12 09:45

    代碼里的青春——我與RT-Thread的故事

    故事,與各位小伙伴分享。如果你也有故事,那么請一起參與進(jìn)來——你的代碼歲月,值得記錄!悟空的故事RT-Thread相伴,共赴五年時光之約
    的頭像 發(fā)表于 12-12 20:11 ?1102次閱讀
    <b class='flag-5'>代碼</b>里的青春——我與RT-Thread的<b class='flag-5'>故事</b>

    SAA認(rèn)證常見原因分析:如何一次通過審核順利清關(guān)?

    設(shè)計不符合標(biāo)準(zhǔn),最終導(dǎo)致認(rèn)證駁回或市場抽查不合格。本文結(jié)合2025年最新監(jiān)管趨勢,深入剖析SAA認(rèn)證過程中最常見的原因,并提供針對性解決方案,助您一次通過審
    的頭像 發(fā)表于 11-24 10:46 ?849次閱讀
    SAA認(rèn)證常見<b class='flag-5'>被</b><b class='flag-5'>拒</b>原因分析:如何一次通過審核順利清關(guān)?

    pdf轉(zhuǎn)換成word文檔格式亂了

    df轉(zhuǎn)換成word文檔格式亂了 ? 將 pdf 轉(zhuǎn)為 word 是常見的操作,但很多人發(fā)現(xiàn)結(jié)果很亂,文字會移位,字體變化,表格斷裂,圖片偏離原位.這是因為 pdf 存儲的是最終的排版用于顯示或打印
    的頭像 發(fā)表于 11-22 10:04 ?1116次閱讀

    通過優(yōu)化代碼來提高M(jìn)CU運行效率

    編譯器優(yōu)化 熟悉并合理使用編譯器優(yōu)化選項,如GCC的 -O2, -Os。 -O2:側(cè)重于速度優(yōu)化。 -Os:側(cè)重于
    發(fā)表于 11-12 08:21

    怎么把UI設(shè)計稿轉(zhuǎn)為代碼?在線UI設(shè)計工具一鍵生成!

    近日,華為開發(fā)者大會2025(HDC)在東莞松山湖正式拉開帷幕,這場備受矚目的盛會為全球科技行業(yè)帶來了諸多驚喜。其中,Pixso團(tuán)隊發(fā)布的全新設(shè)計稿一鍵轉(zhuǎn)代碼功能,成為了本次大會的一大亮點。這項創(chuàng)新
    的頭像 發(fā)表于 06-25 12:04 ?991次閱讀
    怎么把UI設(shè)計<b class='flag-5'>稿</b>轉(zhuǎn)為<b class='flag-5'>代碼</b>?在線UI設(shè)計工具一鍵生成!

    鴻蒙5開發(fā)寶藏案例分享---性能優(yōu)化案例解析

    鴻蒙性能優(yōu)化寶藏指南:實戰(zhàn)工具與代碼案例解析 大家好呀!今天在翻鴻蒙開發(fā)者文檔時,意外挖到一個 性能優(yōu)化寶藏庫 ——原來官方早就提供了超多實用工具和案例,但很多小伙伴可能沒發(fā)現(xiàn)!這篇就帶大家手把手
    發(fā)表于 06-12 16:36

    基于STM32藍(lán)牙控制小車系統(tǒng)設(shè)計(硬件+源代碼+論文)下載

    基于STM32藍(lán)牙控制小車系統(tǒng)設(shè)計(硬件+源代碼+論文)推薦下載!
    發(fā)表于 05-29 21:45

    基于STM32的智能水產(chǎn)養(yǎng)殖系統(tǒng)電路+代碼+論文實例打包下載

    基于STM32的智能水產(chǎn)養(yǎng)殖系統(tǒng)電路+代碼+論文實例打包,推薦下載!
    發(fā)表于 05-29 21:40

    后摩智能四篇論文入選三大國際頂會

    2025 年上半年,繼年初 AAAI、ICLR、DAC 三大國際頂會收錄 5 篇論文后,后摩智能近期又有 4 篇論文入選CVPR、ICML、ACL三大國際頂會,面向大模型的編碼、量化
    的頭像 發(fā)表于 05-29 15:37 ?1347次閱讀

    STM32+Android實現(xiàn)的智能家政機器人電路代碼論文及項目源碼

    STM32+Android實現(xiàn)的智能家政機器人電路代碼論文及項目部分截圖:
    發(fā)表于 05-28 21:22

    基于STM32藍(lán)牙控制小車系統(tǒng)設(shè)計(硬件+源代碼+論文) 項目實例下載

    基于STM32藍(lán)牙控制小車系統(tǒng)設(shè)計(硬件+源代碼+論文) 項目實例下載! 純分享帖,需要者可點擊附件免費獲取完整資料~~~【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時間告知
    發(fā)表于 05-23 20:55