91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

史上最大AI模型GPT-3強(qiáng)勢(shì)霸榜Github

人工智能與大數(shù)據(jù)技術(shù) ? 來(lái)源:開(kāi)源最前線 ? 作者:開(kāi)源最前線 ? 2021-01-06 17:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近,GPT-3火了!相信你已經(jīng)在網(wǎng)上看到各種有關(guān)GPT-3的演示。這個(gè)由OpenAI創(chuàng)建的大型機(jī)器學(xué)習(xí)模型,它不僅可以自己寫論文,還會(huì)寫詩(shī)歌,就連你寫的代碼都能幫你寫了。 下面還是先讓你看看GPT-3的威力吧,首先來(lái)看看GPT3在問(wèn)答任務(wù)上的表現(xiàn):

4139cfac-4ff9-11eb-8b86-12bb97331649.png

無(wú)論你的問(wèn)題是天馬行空的腦筋急轉(zhuǎn)彎,還是有邏輯性極強(qiáng)的數(shù)學(xué)問(wèn)題,它都能對(duì)答如流。 開(kāi)發(fā)者Sharif Shameem用GPT-3做了一個(gè)生成器,你只要輸入你所需的布局,它就能為你生成JSX代碼。如下視頻所示:

還有人在 Google 表格里開(kāi)發(fā)了一個(gè)新的 GPT3 函數(shù),除了簡(jiǎn)單的數(shù)學(xué)運(yùn)算之外,它還可以自動(dòng)查找美國(guó)各州的人口以及創(chuàng)建年份:

41764a68-4ff9-11eb-8b86-12bb97331649.png

除此之外,它還能查到Twitter賬號(hào):

41b126d8-4ff9-11eb-8b86-12bb97331649.png

遺憾的是,如果你想試用GPT-3,你得先拿到體驗(yàn)資格才行,但是此模型創(chuàng)建的應(yīng)用程序似乎有無(wú)限可能,通過(guò)它你可以使用純英語(yǔ)查詢SQL數(shù)據(jù)庫(kù),自動(dòng)注釋代碼,自動(dòng)生成代碼,編寫熱門文章標(biāo)題,甚至幫助猿妹我寫出一篇爆文。 GPT-3是什么? GPT-3是一種神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)的語(yǔ)言模型。與大多數(shù)語(yǔ)言模型一樣,GPT-3在未標(biāo)記的文本數(shù)據(jù)集上進(jìn)行了大量的訓(xùn)練(訓(xùn)練數(shù)據(jù)包括Common Crawl和Wikipedia),從文本中隨機(jī)刪除單詞或短語(yǔ),并且模型必須學(xué)會(huì)僅使用周圍的單詞作為上下文來(lái)填充單詞或短語(yǔ)。這是一個(gè)簡(jiǎn)單的培訓(xùn)任務(wù),可以產(chǎn)生功能強(qiáng)大且可推廣的模型。 GPT-3模型架構(gòu)本身就是一個(gè)基于單向transformer語(yǔ)言模型。這種架構(gòu)在2-3年前開(kāi)始流行,流行的NLP模型BERT和GPT-3的前身GPT-2都是基于transformer構(gòu)建。從架構(gòu)的角度來(lái)看,GPT-3實(shí)際上并不是很新穎!

42265afc-4ff9-11eb-8b86-12bb97331649.jpg

它之所以會(huì)這么火,是因?yàn)镚PT-3的模型尺寸增大到了1750億,并且使用45TB數(shù)據(jù)進(jìn)行訓(xùn)練,是有史以來(lái)創(chuàng)建的最大語(yǔ)言模型。源于它的參數(shù)模型巨大,因此可以完成許多其他模型無(wú)法完成的事情,就像前面所說(shuō)的,你可以讓它成為一名翻譯家、作家、詩(shī)人、程序員等。 如果你對(duì)GPT-3的模型參數(shù)1750億感到有些抽象,那么,我舉個(gè)例子,你應(yīng)該就懂了:

BERT模型有3億參數(shù)

GPT-3模型的前身GPT-2有15億個(gè)參數(shù)

英偉達(dá)的Megatron-BERT有80億參數(shù)

微軟Turing NLP,有170億參數(shù)

就連排名第二的微軟Turing NLP的數(shù)據(jù)參數(shù)和GPT-3都不是一個(gè)量級(jí)的。

值得一提的是,這次的GPT-3論文作者足足有31位,論文體量更是高達(dá)72頁(yè),網(wǎng)友都驚呼,現(xiàn)在PTM的工作是要開(kāi)始pk論文頁(yè)數(shù)了嗎?

和往常一樣,GPT-3立即放出了GitHub項(xiàng)目頁(yè)面,你可以在上面找到各種各樣有趣的demo,最后附上Github地址:https://github.com/openai/gpt-3。推薦↓↓↓

原文標(biāo)題:敲代碼、作詩(shī)、寫論文無(wú)所不能!史上最大AI模型GPT-3強(qiáng)勢(shì)霸榜Github

文章出處:【微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39805

    瀏覽量

    301479
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8553

    瀏覽量

    136975

原文標(biāo)題:敲代碼、作詩(shī)、寫論文無(wú)所不能!史上最大AI模型GPT-3強(qiáng)勢(shì)霸榜Github

文章出處:【微信號(hào):TheBigData1024,微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPT-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)2025年8月8日凌晨1點(diǎn),OpenAI以一場(chǎng)長(zhǎng)達(dá)1小時(shí)的線上發(fā)布會(huì)正式推出GPT-5。這場(chǎng)被業(yè)界稱為“AI進(jìn)化分水嶺”的發(fā)布,終結(jié)了長(zhǎng)達(dá)兩年的技術(shù)猜測(cè),更以多維度性能
    的頭像 發(fā)表于 08-09 07:44 ?1w次閱讀
    <b class='flag-5'>GPT</b>-5震撼發(fā)布:<b class='flag-5'>AI</b>領(lǐng)域的重大飛躍

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    Transformer 入門:從零理解 AI模型的核心原理

    體驗(yàn)AI代碼助手 代碼解讀 復(fù)制代碼 身高體重年齡 小明 →[175,70,25] 小紅 →[165,55,23] 小剛 →[180,85,30] 這就是一個(gè) 3×3 的矩陣(3
    發(fā)表于 02-10 16:33

    AI端側(cè)部署開(kāi)發(fā)(SC171開(kāi)發(fā)套件V3)2026版

    AI端側(cè)部署開(kāi)發(fā)(SC171開(kāi)發(fā)套件V3)2026版 序列 課程名稱 視頻課程時(shí)長(zhǎng) 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉(zhuǎn)化指南 27分19秒 http
    發(fā)表于 01-15 10:31

    推出開(kāi)發(fā)者社區(qū)以助力部署端側(cè)AI應(yīng)用

    開(kāi)發(fā)者社區(qū)為合作伙伴提供優(yōu)先體驗(yàn)通道,助力其在安 AI SoC 及 Cooper 開(kāi)發(fā)軟件上評(píng)估、構(gòu)建并大規(guī)模部署端側(cè) AI 應(yīng)用。
    的頭像 發(fā)表于 01-08 14:50 ?294次閱讀

    云知聲入選甲子光年2025中國(guó)AI模型領(lǐng)域最具商業(yè)潛力

    的產(chǎn)業(yè)化成效,成功入選 “2025中國(guó)AI模型領(lǐng)域最具商業(yè)潛力” ,再次印證了其從技術(shù)深耕到商業(yè)落地的綜合實(shí)力。
    的頭像 發(fā)表于 12-12 16:39 ?1238次閱讀

    日均省電超82萬(wàn)度!事關(guān)AI服務(wù)器GaN電源模塊

    !因此GaN技術(shù)變得十分重要。 一、AI模型耗電量驚人,GaN技術(shù)成省電關(guān)鍵 這可不是在危言聳聽(tīng)。以著名的OpenAI為例:其GPT-3級(jí)別模型單次訓(xùn)練的耗電量約為128.7萬(wàn)度,相
    的頭像 發(fā)表于 12-08 10:46 ?649次閱讀
    日均省電超82萬(wàn)度!事關(guān)<b class='flag-5'>AI</b>服務(wù)器GaN電源模塊

    GPT-5.1發(fā)布 OpenAI開(kāi)始拼情商

    -5.1 Thinking:高級(jí)推理模型,在簡(jiǎn)單任務(wù)上更快,在復(fù)雜任務(wù)上更持久,也更容易理解。 對(duì)于新上線的GPT-5.1大模型,OpenAI?官方表示出色的 AI 不僅是要夠聰明,還
    的頭像 發(fā)表于 11-13 15:49 ?707次閱讀

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個(gè)AI模型怎么搞,知識(shí)盲區(qū)
    發(fā)表于 10-14 07:14

    什么是AI模型的推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊(duì)為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理推理模型排行
    的頭像 發(fā)表于 09-23 15:19 ?1279次閱讀

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來(lái),NVIDIA 與 OpenAI 便開(kāi)始共同推動(dòng) AI 技術(shù)的邊界。此次 OpenAI gpt-oss-20b 和 gpt-oss-120b
    的頭像 發(fā)表于 08-15 20:34 ?2309次閱讀
    NVIDIA從云到邊緣加速OpenAI <b class='flag-5'>gpt</b>-oss<b class='flag-5'>模型</b>部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    微軟開(kāi)源GitHub Copilot Chat,AI編程迎來(lái)新突破

    30分,微軟首席執(zhí)行官Satya Nadella向大家展示了VS Code的最新AI開(kāi)源編輯器GitHub Copilot Chat。 GitHub Copilot Chat的一大技術(shù)亮點(diǎn)是其支持
    的頭像 發(fā)表于 07-02 09:34 ?1192次閱讀
    微軟開(kāi)源<b class='flag-5'>GitHub</b> Copilot Chat,<b class='flag-5'>AI</b>編程迎來(lái)新突破

    AI端側(cè)部署開(kāi)發(fā)(SC171開(kāi)發(fā)套件V3

    AI端側(cè)部署開(kāi)發(fā)(SC171開(kāi)發(fā)套件V3) 序列 課程名稱 視頻課程時(shí)長(zhǎng) 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉(zhuǎn)化指南------Docker Desk
    發(fā)表于 04-16 18:30

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    AI的演進(jìn)正在逼近“終端智能涌現(xiàn)”的拐點(diǎn),從通用模型向場(chǎng)景落地遷移成為關(guān)鍵議題。聯(lián)發(fā)科以“AI隨芯,應(yīng)用無(wú)界”為主題召開(kāi)天璣開(kāi)發(fā)者大會(huì)2025(MDDC 2025),不僅聚合了全球生態(tài)資源,還
    發(fā)表于 04-13 19:52

    低至¥2.27/h!就能使用全球最強(qiáng)開(kāi)元模型——千問(wèn) QwQ-32B

    ABSTRACT摘要捷智算平臺(tái)上新全球最強(qiáng)開(kāi)元模型——千問(wèn)QwQ-32B。JAEALOT2025年3月18日3月17日,阿里通義千問(wèn)發(fā)布的最新開(kāi)源推理模型QwQ-32B,在國(guó)際權(quán)威測(cè)評(píng)
    的頭像 發(fā)表于 03-19 12:34 ?1114次閱讀
    低至¥2.27/h!就能使用全球最強(qiáng)開(kāi)元<b class='flag-5'>模型</b>——千問(wèn) QwQ-32B