91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

度曉曉1秒1篇高考作文,都是因?yàn)轭A(yù)訓(xùn)練大模型

Carol Li ? 來源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2022-06-10 00:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)6月7日,百度推出的數(shù)字人度曉曉作答了全國新高考Ⅰ卷題為《本手、妙手、俗手》議論文,40秒就根據(jù)題目創(chuàng)作了40多篇文章,平均1秒生成1篇,隨機(jī)抽取其中一篇,其分?jǐn)?shù)趕超約75%高考考生。


而這得益于文心大模型最新發(fā)布的融合任務(wù)相關(guān)知識(shí)的千億大模型ERNIE 3.0 Zeus,該模型在學(xué)習(xí)海量數(shù)據(jù)和知識(shí)的基礎(chǔ)上,進(jìn)一步學(xué)習(xí)百余種不同形式的任務(wù)知識(shí),增強(qiáng)了模型的效果,在各類NLP任務(wù)上表現(xiàn)出了更強(qiáng)的零樣本和小樣本學(xué)習(xí)能力。

基于文心大模型的智能創(chuàng)作

大模型是人工智能大基礎(chǔ)設(shè)施的重要組成,“文心大模型”是百度近幾年在花大力氣投入研發(fā)的技術(shù)基礎(chǔ)設(shè)施。自2019年開始,百度深耕預(yù)訓(xùn)練模型研發(fā),并在該年3月率先發(fā)布中國首個(gè)正式開放的預(yù)訓(xùn)練模型ERNIE1.0。

去年12月,百度聯(lián)合鵬城實(shí)驗(yàn)室發(fā)布了鵬城-百度·文心大模型,這是全球首個(gè)知識(shí)增強(qiáng)千億大模型,也目前全球最大中文單體模型,參數(shù)規(guī)模達(dá)到2600億。

在今年5月20日的WAVE SUMMIT 2022深度學(xué)習(xí)開發(fā)者峰會(huì)上,文心大模型一次性發(fā)布10個(gè)新的大模型,涵蓋基礎(chǔ)大模型、任務(wù)大模型和行業(yè)大模型三級(jí)體系,其中就包括融合任務(wù)相關(guān)知識(shí)的千億NLP大模型ERNIE 3.0 Zeus。

千億規(guī)模參數(shù)的NLP基礎(chǔ)大模型ERNIE 3.0 Zeus在學(xué)習(xí)海量數(shù)據(jù)和知識(shí)的基礎(chǔ)上,進(jìn)一步學(xué)習(xí)百余種不同形式的任務(wù)知識(shí),增強(qiáng)模型效果;融合層次化提示的預(yù)訓(xùn)練,更好地建模不同任務(wù)的共性與特性;將不同任務(wù)組織成統(tǒng)一的自然語言形式,統(tǒng)一建模增強(qiáng)模型的泛化能力,其相較于其他NLP大模型,在各類NLP任務(wù)上表現(xiàn)出了更強(qiáng)的零樣本和小樣本學(xué)習(xí)能力。

近年來,百度AI技術(shù)加速落地,新興的AIGC更是引人注目。AIGC是繼 UGC、PGC之后新型利用AI技術(shù)自動(dòng)生成內(nèi)容的生產(chǎn)方式。百度研究院預(yù)測(cè),2022年AIGC技術(shù)將借助大模型的跨模態(tài)綜合技術(shù)能力,可以激發(fā)創(chuàng)意,提升內(nèi)容多樣性,降低制作成本,實(shí)現(xiàn)大規(guī)模應(yīng)用。

本次度曉曉寫高考作文,就是基于飛槳文心大模型實(shí)現(xiàn)的AIGC創(chuàng)作,文心大模型具備“知識(shí)增強(qiáng)”的核心特點(diǎn),能從大規(guī)模知識(shí)和海量數(shù)據(jù)中進(jìn)行融合學(xué)習(xí),學(xué)習(xí)效率更高、效果更好,具有通用性好、泛化性強(qiáng)的特點(diǎn)。

除了智能寫作,在文心大模型的支持下,AI已經(jīng)具備很強(qiáng)的理解和生成能力,能夠?qū)崿F(xiàn)創(chuàng)意作品的自動(dòng)生成,包括AI作畫、AI寫歌、AI剪輯等,未來,基于大模型的AIGC將會(huì)開放賦能到更多的內(nèi)容生產(chǎn)領(lǐng)域。除了在智能創(chuàng)作上外,文心大模型也已經(jīng)在工業(yè)、能源、教育、金融、通信、媒體等諸多行業(yè)得到應(yīng)用。

預(yù)訓(xùn)練大模型使AI通用性增強(qiáng)

大模型是AI領(lǐng)域最重要的前沿技術(shù)方向,自2018年OpenAI推出1.1億參數(shù)的GPT以后,谷歌、微軟、Facebook等相繼推出自己的預(yù)訓(xùn)練模型,2020年OpenAI再次推出1750億參數(shù)的GPT-3,更是引發(fā)科研機(jī)構(gòu)和企業(yè)在大模型研究的競(jìng)賽,大模型的參數(shù)規(guī)模逐漸增加。

2021年大模型層出不窮,1月,谷歌發(fā)布首個(gè)萬億級(jí)模型Switch Transformer;3月,北京智源研究院發(fā)布悟道1.0,6月發(fā)布悟道2.0,參數(shù)規(guī)模超過百億;4月,華為云發(fā)布盤古大模型,這是業(yè)界首個(gè)千億參數(shù)中文語言預(yù)訓(xùn)練模型;9月,浪潮發(fā)布參數(shù)量達(dá)2457億的巨量模型“源1.0”;11月,英偉達(dá)與微軟聯(lián)合發(fā)布5300億參數(shù)的“MT-NLG”;同在11月,阿里達(dá)摩院宣布其多模態(tài)大模型M6最新參數(shù)從萬億躍遷至10萬億,超過谷歌、微軟此前發(fā)布的萬億級(jí)模型,成為全球最大的AI預(yù)訓(xùn)練模型。

預(yù)訓(xùn)練大模型其實(shí)是機(jī)器學(xué)習(xí)的一種方式,類比人的學(xué)習(xí)來看,人的學(xué)習(xí)可以分成通識(shí)教育和專業(yè)教育兩段,預(yù)訓(xùn)練大模型相當(dāng)于解決機(jī)器學(xué)習(xí)的通識(shí)教育。此前,機(jī)器學(xué)習(xí)主要通過標(biāo)注數(shù)據(jù),告訴算法哪個(gè)數(shù)據(jù)是正負(fù)樣本等進(jìn)行學(xué)習(xí)。由于人工智能落地場(chǎng)景很多,每個(gè)場(chǎng)景都要采數(shù)據(jù)、標(biāo)數(shù)據(jù),因此在標(biāo)注的數(shù)量和質(zhì)量上存在很大的瓶頸。

為解決以上問題,自然語言處理領(lǐng)域迎來了一個(gè)新的突破:自監(jiān)督學(xué)習(xí),指的是不用人為標(biāo)注數(shù)據(jù),機(jī)器可以用一個(gè)方法把知識(shí)和規(guī)律學(xué)出來。比如,在模型訓(xùn)練中,如果我們把“中國的首都是北京”這句話中的“北京”蓋住,讓模型去猜中國的首都是哪里,模型可能會(huì)猜一個(gè)城市,再把蓋的地方翻開,告訴模型是對(duì)了還是錯(cuò)了,模型也就得到了反饋。

通過設(shè)計(jì)類似的學(xué)習(xí)方式,讓模型可以在海量的數(shù)據(jù)當(dāng)中進(jìn)行自監(jiān)督學(xué)習(xí)。這個(gè)機(jī)制的好處就是,它可以把天然存在的大量數(shù)據(jù)利用起來,打破一定要精標(biāo)數(shù)據(jù)才能學(xué)習(xí)的瓶頸,大模型的出現(xiàn),實(shí)際上是為了大幅度降低了行業(yè)應(yīng)用的門檻。

還有一個(gè)特別容易理解的解釋,預(yù)訓(xùn)練大模型是在一個(gè)原始任務(wù)上預(yù)先訓(xùn)練一個(gè)初始模型,然后在目標(biāo)任務(wù)上使用該模型,針對(duì)目標(biāo)任務(wù)的特性,對(duì)該初始模型進(jìn)行精調(diào),從而達(dá)到提高目標(biāo)任務(wù)的目的。在本質(zhì)上,這是一種遷移學(xué)習(xí)的方法,在自己的目標(biāo)任務(wù)上使用別人訓(xùn)練好的模型。

整體而言,預(yù)訓(xùn)練大模型的興起,使得人工智能的通用性進(jìn)一步增強(qiáng),大模型具有效果好、泛化性強(qiáng)、研發(fā)流程標(biāo)準(zhǔn)化程度高等特點(diǎn),正在成為人工智能技術(shù)及應(yīng)用的新基座。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 智能
    +關(guān)注

    關(guān)注

    8

    文章

    1752

    瀏覽量

    122144
  • 百度
    +關(guān)注

    關(guān)注

    9

    文章

    2377

    瀏覽量

    94959
  • 人工智能
    +關(guān)注

    關(guān)注

    1818

    文章

    50120

    瀏覽量

    265612
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器人開源空間智能通用模型ACE-Brain-0

    近日,大機(jī)器人聯(lián)合上海交通大學(xué)、南洋理工大學(xué)、香港中文大學(xué)、香港大學(xué)等研究機(jī)構(gòu)共同推出以空間智能為底層框架、跨不同具身本體的通用基礎(chǔ)模型“ACE-Brain-0”,正式面向全行業(yè)開源。
    的頭像 發(fā)表于 03-11 13:45 ?121次閱讀
    大<b class='flag-5'>曉</b>機(jī)器人開源空間智能通用<b class='flag-5'>模型</b>ACE-Brain-0

    什么是大模型,智能體...?大模型100問,快速全面了解!

    一、概念1.什么是大模型?大模型是指參數(shù)規(guī)模巨大(通常達(dá)到數(shù)十億甚至萬億級(jí)別)、使用海量數(shù)據(jù)訓(xùn)練而成的人工智能
    的頭像 發(fā)表于 02-02 16:36 ?944次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    中科創(chuàng)達(dá)旗下悟智能與北京人形機(jī)器人創(chuàng)新中心達(dá)成戰(zhàn)略合作

    2026年1月20日,杭州悟智能有限公司(以下簡(jiǎn)稱"悟智能")與北京人形機(jī)器人創(chuàng)新中心(下稱"北京人形")在北京正式簽署戰(zhàn)略合作協(xié)議,雙方將圍繞人形機(jī)器人在汽車制造、倉儲(chǔ)物流和商業(yè)服務(wù)等垂直場(chǎng)景的規(guī)?;瘧?yīng)用展開深度合作,共同
    的頭像 發(fā)表于 01-21 17:23 ?1801次閱讀

    匯誠儀器與安徽球新材料達(dá)成合作,DSC助力材料研發(fā)升級(jí)

    近日,南京匯誠儀器儀表有限公司與安徽球新材料科技有限公司正式達(dá)成合作,向其交付差示掃描量熱儀DSC-600C,為球新材料在鋰電池極耳、軟包裝膜等產(chǎn)品的研發(fā)與質(zhì)控工作提供核心熱分析支持。此次合作
    的頭像 發(fā)表于 01-20 17:27 ?1365次閱讀
    匯誠儀器與安徽<b class='flag-5'>曉</b>球新材料達(dá)成合作,DSC助力材料研發(fā)升級(jí)

    請(qǐng)問,不用的型號(hào),讀寫速率是5ms或者4ms,而時(shí)鐘都是1MHZ,是因?yàn)?/b>什么原因決定的?

    請(qǐng)問,不用的型號(hào),讀寫速率是5ms或者4ms,而時(shí)鐘都是1MHZ,是因?yàn)?/b>什么原因決定的?
    發(fā)表于 01-16 06:19

    機(jī)器人發(fā)布開悟3.0,國產(chǎn)世界模型讓機(jī)器人擁有“超級(jí)大腦”

    機(jī)器人的使命就是讓每個(gè)機(jī)器人都擁有一個(gè)聰明的大腦,洞察萬物,學(xué)會(huì)與視覺精準(zhǔn)交互。 ? 在此背景下,大機(jī)器人憑借其原創(chuàng)的“世界模型”技術(shù)體系,正快速崛起為具身智能領(lǐng)域的關(guān)鍵推動(dòng)者。就在12月,大機(jī)器人正式發(fā)布“開悟
    的頭像 發(fā)表于 12-25 09:25 ?2543次閱讀
    大<b class='flag-5'>曉</b>機(jī)器人發(fā)布開悟3.0,國產(chǎn)世界<b class='flag-5'>模型</b>讓機(jī)器人擁有“超級(jí)大腦”

    中科曙光與商湯科技、大機(jī)器人達(dá)成戰(zhàn)略合作

    12月18日,在首屆光合組織人工智能創(chuàng)新大會(huì)(HAIC2025)主論壇上,中科曙光與商湯科技、大機(jī)器人正式達(dá)成戰(zhàn)略合作。
    的頭像 發(fā)表于 12-23 15:10 ?426次閱讀

    商湯科技聯(lián)合創(chuàng)始人王剛擔(dān)任大機(jī)器人董事長(zhǎng)

    機(jī)器人將于12月18日正式亮相,重磅發(fā)布多項(xiàng)全球領(lǐng)先的技術(shù)與產(chǎn)品陣列,并將推出首個(gè)國內(nèi)開源且實(shí)現(xiàn)商業(yè)應(yīng)用的“開悟”世界模型3.0,與行業(yè)伙伴一同構(gòu)建自主可控、開放共贏的產(chǎn)業(yè)體系。商湯科技聯(lián)合創(chuàng)始人、執(zhí)行董事王剛出任大
    的頭像 發(fā)表于 12-08 11:31 ?665次閱讀

    RA8P1部署ai模型指南:從訓(xùn)練模型到部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子上”,決定了項(xiàng)目能否落地。我們帶你基于RA8P1平臺(tái),跑通從數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、量
    的頭像 發(fā)表于 11-20 18:06 ?2108次閱讀
    RA8P<b class='flag-5'>1</b>部署ai<b class='flag-5'>模型</b>指南:從<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>到部署?|?本周六

    華為宋迪出席AfricaCom 2025并發(fā)表主題演講

    在2025年非洲通信展(AfricaCom 2025)上,華為Small Cell產(chǎn)品線總裁宋迪應(yīng)邀出席并發(fā)表題為“抓住三大機(jī)遇,建設(shè)數(shù)字非洲”的主題演講。宋迪指出,在數(shù)字經(jīng)濟(jì)成為全球增長(zhǎng)新引擎
    的頭像 發(fā)表于 11-12 11:23 ?779次閱讀

    中科創(chuàng)達(dá)旗下悟智能與智馳致遠(yuǎn)達(dá)成戰(zhàn)略合作

    有限公司(KNEWBOTS),(以下簡(jiǎn)稱“悟智能”)與中際旭創(chuàng)旗下汽車光電子品牌智馳致遠(yuǎn)(ReinOCS)(以下簡(jiǎn)稱“智馳致遠(yuǎn)“)于N1-B3悟智能展位正式簽署戰(zhàn)略合作協(xié)議。雙方旨在依托各自在機(jī)器人與光通信行業(yè)
    的頭像 發(fā)表于 10-31 14:35 ?603次閱讀

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識(shí)別。一旦模型訓(xùn)練并保存,就可以用于對(duì)新圖像進(jìn)行推理和預(yù)
    發(fā)表于 10-22 07:03

    新一代超大模型訓(xùn)練引擎XTuner V1開源

    9月8日,上海人工智能實(shí)驗(yàn)室(上海AI實(shí)驗(yàn)室)開源書生大模型新一代訓(xùn)練引擎XTuner V1。
    的頭像 發(fā)表于 09-10 10:55 ?1174次閱讀

    如何進(jìn)行YOLO模型轉(zhuǎn)換?

    我目前使用的轉(zhuǎn)模型代碼如下 from ultralytics import YOLOimport cv2import timeimport nncaseimport# 加載預(yù)訓(xùn)練的YOLO模型
    發(fā)表于 08-14 06:03

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進(jìn)一步講解更多的技術(shù)細(xì)節(jié)。本文主要針對(duì)大語言模型
    的頭像 發(fā)表于 03-21 18:24 ?4339次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集