本文經(jīng)O'Reilly授權(quán)發(fā)布
1901年,天文學(xué)家、數(shù)學(xué)家Simon Newcomb表示,人類不可能造出比空氣更輕的飛機。1908年,萊特兄弟的飛機試飛成功。
二戰(zhàn)過后,美國人公開表示,長距離火箭遙不可及。沒過多久,俄羅斯的巨型火箭率先進入了外太空。
時間轉(zhuǎn)到今天。當AI浸入各行各業(yè)的同時,對AI的質(zhì)疑也紛至沓來。AI寒冬是否又會再次到來呢?OpenAI的聯(lián)合創(chuàng)始人兼CTO Greg Brockman在近日的一次演講中發(fā)表了他的看法:
“AI最終能達到什么樣的高度,我現(xiàn)在還無法下一個定論。但目前的質(zhì)疑呢,我看大多是不靠譜的!”
他從“科學(xué)發(fā)展史”、“AI發(fā)展史”、“深度學(xué)習(xí)的極限”和“算力極限”四個方面闡釋了他的論點。
科學(xué)發(fā)展史
有啥疑問,直接找專家呀!他們的觀點大多錯不了。
但歷史一遍遍證明,專家們錯得可是太離譜了。
在1901年天文學(xué)家、數(shù)學(xué)家Simon Newcomb表示,比空氣更重的飛機是完全不可能的。于是在1908年 他知道了萊特兄弟的飛機。
沒關(guān)系,他承認這是可能的,但是他認為,這永遠不可能商業(yè)化,因為這樣的飛機不可能擴大到可以容下一個乘客和一個飛行員。于是又被啪啪打臉了。
二戰(zhàn)后,美國人和俄羅斯人都關(guān)注了德國的V-2科技,這兩國都想做同一件事那就是建立ICBM(An intercontinental ballistic missile,洲際彈道導(dǎo)彈),這意味著他們要擴大原本V-2火箭的規(guī)模十倍以上,造一個200噸的火箭。
美國人看到這,認識這完全不可能,就在接下來的五年里完全放棄了長距離火箭。
俄羅斯人說,可以沒問題,因為我們就是要造一個巨型火箭。當太空比賽開始時,俄羅斯人說,看吧,我們已經(jīng)有這個巨型火箭了!于是,俄羅斯人率先進入了外太空。
專家們在很多方面確實有很多先見之明,但是不能因為有人說了一些什么,就終止了某一領(lǐng)域的研究。
AI發(fā)展史
接下來,讓我們來回顧一下AI發(fā)展史。
AI是一個講究潮流的領(lǐng)域,這個領(lǐng)域里有多種多樣的潮流。比如,某一個十年非常流行SVM(支持向量機),下一個十年,又流行別的模型了。
現(xiàn)在我們正處于最新潮流中,下一個十年又會流行別的。這話沒錯,這個過程是持續(xù)的,目前看不到盡頭。那就讓我們來挖一挖,這幾十年AI到底經(jīng)歷了哪些潮流。
1959年,perceptron(感知機)被公開發(fā)表了。不止科學(xué)雜志瘋狂報道,連紐約時報也寫到:“像感知機這樣神奇的東西,有一天它能識別人叫出他們的名字,并且在多種語言間實時翻譯。”
1960年代,以Marvin Minsky和Papert為代表的人強烈反對感知機,發(fā)起各種運動,并且最終成功了。
在1969年他們表了一本書,里面證明了多種感知機無法解決的基本問題。
因此所有研究經(jīng)費斷供,所有基金斷供。AI第一次寒冬來臨。
這一波經(jīng)費究竟被用到了哪里了?很大一部分其實被用來構(gòu)建更大的電腦了。
二十年后的80年代,反向傳播開始流行。
有趣得是,反向傳播吸引來的人不是計算機科學(xué)家,而是認知科學(xué)家。他們真正激動的不是關(guān)于如何建造大型系統(tǒng),如何拓寬這些技術(shù)的邊界,而是關(guān)于理解大腦。他們非常樂意接受這樣一種人造的系統(tǒng),能夠?qū)λ麄兊难芯坑心敲匆稽c關(guān)聯(lián)。
由于算力的限制,反向傳播一度也經(jīng)歷了大量質(zhì)疑。但今天,在空前算力的支持下,反向傳播將AI帶到了全新高度。
深度學(xué)習(xí)的極限
所以,深度學(xué)習(xí)發(fā)展的極限是什么呢?
有很多人已經(jīng)對此發(fā)表過看法了。一個很好的例子是,去年一位杰出的深度學(xué)習(xí)評論家說:深度學(xué)習(xí)模型將永遠不能學(xué)會長距離規(guī)劃,不論你用多少數(shù)據(jù)去訓(xùn)練它。
今年,我們在Dota比賽里展示了OpenAI Five,也就是Dota系統(tǒng)的長期規(guī)劃能力。
一個月后,那個評論家又說,你可以用足夠密集的空間樣本來解決任何問題,但只有當你的數(shù)據(jù)量很小的時候才有趣。
我認為,看看過去幾年結(jié)果的具體例子是很有啟發(fā)性的,然后讓我們想想:人們對之前的深度學(xué)習(xí)的局限性有什么看法,對之后的又有什么看法?
在深度Q學(xué)習(xí)出現(xiàn)之前,我們感覺深度學(xué)習(xí)僅僅是關(guān)于靜態(tài)數(shù)據(jù)集的。突然,我們把神經(jīng)網(wǎng)絡(luò)投射到屏幕上面,然后給出一個分數(shù),然后它開始能夠玩轉(zhuǎn)這些簡單的游戲。
再舉個例子。之前人們說,深度學(xué)習(xí)只會感知,永遠也做不到最難的自然語言處理任務(wù)比如翻譯。結(jié)果又被打臉了。
我們也許可以得出這樣的結(jié)論,深度學(xué)習(xí)會取代所有的監(jiān)督學(xué)習(xí),并且在這些特定的領(lǐng)域內(nèi)勝過人類的聰明才智。比如AlphaGo,比如我們的Dota工作。強化學(xué)習(xí)僅通過自身就能解決這個難以置信的難題。
當然,你仍然可能會產(chǎn)生這樣的質(zhì)疑:我們?nèi)绾伟堰@個東西應(yīng)用到現(xiàn)實世界中去?強化學(xué)習(xí)是不是只會玩游戲呢?無論任務(wù)是怎么樣的,我們都需要有一個完美的模擬器吧。
今年,我們用Dota系統(tǒng)訓(xùn)練了一個機器人,真的就是用Dota系統(tǒng)來指向這個環(huán)境。然后,我們可以教會這個機械手臂操縱小方塊,這是一個人類程序員無法完成的任務(wù)——制造這種機械手的公司做這個已經(jīng)有20年了,現(xiàn)在每年大概才賣出10個,因為沒有程序員能實現(xiàn)這樣的功能。
所以,你甚至不需要一個完美的模擬器,你只需要一個剛好能夠完成手頭上任務(wù)的模擬器。
我想我們都聽過這個說法,人工智能的進步有三大支柱:計算、算法和標記數(shù)據(jù)。
但是現(xiàn)在,如果你再看一遍這個說法,你會發(fā)現(xiàn)“標記數(shù)據(jù)”其實也不是必要的。
比如今年,自然語言處理(NLP)領(lǐng)域最新研究表明,你可以讓一個模型在大量無監(jiān)督文本上學(xué)習(xí),然后使用非常少量的監(jiān)督數(shù)據(jù)進行了微調(diào),這樣你就能夠在各種各樣的NLP任務(wù)之間設(shè)置最先進的技術(shù)水平。
所以說,深度學(xué)習(xí)的極限真的很難被定義。
算力極限
最后,我們再來看看算力極限,這大概是近年來限制AI發(fā)展的關(guān)鍵要素之一。
如果我們看看過去六年里發(fā)生了什么,就會發(fā)現(xiàn)計算經(jīng)過了一個瘋狂爆炸式的增長。每三個半月,我們的算力就會翻一倍。
怎么理解增長速度呢?就像在2012年的時候,你的手機電池只能堅持一天。在2018,它就能堅持800年的時間,到2023年,它能堅持一億年的時間。
再換一種方式來理解,一個2023年的未來系統(tǒng)在30秒內(nèi)消耗的計算量,將會相當于我們今天的Dota系統(tǒng)一個月的計算量。
這個數(shù)字太瘋狂了,看起來有點不可理喻,但是這樣的事情其實已經(jīng)發(fā)生了。20世紀90年代的大規(guī)模成果之一TD GAM,在一個現(xiàn)代的GPU上計算大約只需要5秒鐘。
所以我們把這些事情合起來看,可以得到的結(jié)論是:我們也很難去界定算力的極限。
我們真的很難說有什么是做不成的,這意味著我們需要開始積極主動的思考,這些系統(tǒng)將會給世界帶來什么樣的影響?
在暢想人工智能時,我們應(yīng)該少依靠直覺,多依靠證據(jù)和假設(shè)。
我們都在創(chuàng)造自己認為的會對未來產(chǎn)生巨大影響的技術(shù),所以我們要對這事情好好負責(zé)!
還沒看夠?明年的O'Reilly和Intel AI Conference將于2019年6月18-21日登陸北京!
電子發(fā)燒友App













評論