GPT3終于開源!不過,不是官方開的(別打我
Eleuther AI推出的名為GPT-Neo的開源項目,于晨4點于twitter正式宣布:已經(jīng)開源了復現(xiàn)版GPT-3的模型參數(shù)(1.3B和2.7B級別),并將其更新在Colab notebook之上。需要指出的是這次開源的模型里較大的那個版本也只是到了GPT-3商用版里最小模型的參數(shù)量,不過Eleuther AI表示未來會進一步開源10B版本和原始大小版本的GPT3模型參數(shù)。
消息發(fā)布后,立刻被各個大v轉發(fā),10小時內就已迅速收獲1.5K的點贊量,相應的github鏈接也已收獲接近2k star。
▲Twitter原文
但關于復現(xiàn)模型的性能,目前只說“實驗表現(xiàn)與原版GPT-3相當”(they performed on par)。具體實驗結果將于明天公布。
風靡一時的擁有1750億超大參數(shù)量,一出道便被視作NLP領域最強AI模型的GPT-3,得益于其龐大的參數(shù)量,使得GPT-3擁有不用接受特定訓練與微調,就能在不同NLP領域達到領先水平的強大能力。去年七月,GPT-3被Open-AI以商業(yè)API的形式向公眾開放,并被人們探索出了形形色色的應用,從基于問題的搜索,到文本樣式轉換,從UI界面設計,再到自動生成SQL代碼,GPT-3以其卓越的性能展現(xiàn)了其廣闊的應用場景,深度學習之父Hinton甚至這樣評價道:
如果以GPT-3的出色性能推算未來、生命、宇宙和萬物的答案也不過是4.398萬億個參數(shù)
但是,由于目前GPT-3的使用模式仍然是付費的商業(yè)API,因此并不是所有NLP的研究者都能使用GPT-3完成自己領域的任務與工作。而由Connor Leahy,Leo Gao和Sid Black三人聯(lián)合創(chuàng)立的Eleuther AI的團隊,于去年11月宣布推出GPT-Neo的開源項目,該項目基于GPT系列的設計原理,旨在復現(xiàn)GPT系列的各種項目,在該項目發(fā)布之初,其團隊成員已經(jīng)預測可以完成GPT-3級別大小的語言模型。
毫無疑問,GPT-3的開源將會催生出一大批NLP技術的嶄新應用,也會以更為低廉的成本釋放人們對NLP未來的想象力。
原文標題:【GPT-3】千呼萬喚始出來——GPT-3終于開源!
文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。
責任編輯:haq
-
AI
+關注
關注
91文章
39820瀏覽量
301495 -
開源
+關注
關注
3文章
4209瀏覽量
46170 -
nlp
+關注
關注
1文章
491瀏覽量
23282
原文標題:【GPT-3】千呼萬喚始出來——GPT-3終于開源!
文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
GPT-5震撼發(fā)布:AI領域的重大飛躍
華為昇騰深度適配智譜AI全新開源模型GLM-5
大模型 ai coding 比較
百度正式發(fā)布并開源新一代文檔解析模型PaddleOCR-VL-1.5
Eleuther AI:已經(jīng)開源了復現(xiàn)版GPT-3的模型參數(shù)
評論