91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自然語(yǔ)言處理或?qū)⒂瓉?lái)新的范式變遷

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:李rumor ? 作者:車萬(wàn)翔 ? 2022-12-08 16:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近幾天被OpenAI推出的ChatGPT[1]刷屏了,其影響已經(jīng)不僅局限于自然語(yǔ)言處理(NLP)圈,就連投資圈也開始蠢蠢欲動(dòng)了,短短幾天ChatGPT的用戶數(shù)就超過了一百萬(wàn)。通過眾多網(wǎng)友以及我個(gè)人對(duì)其測(cè)試的結(jié)果看,ChatGPT的效果可以用驚艷來(lái)形容,具體結(jié)果我在此就不贅述了。不同于GPT-3剛推出時(shí)人們的反應(yīng),對(duì)ChatGPT大家發(fā)出更多的是贊嘆之詞。聊天、問答、寫作、編程等等,樣樣精通。因此也有人驚呼,“通用人工智能(AGI)即將到來(lái)”、“Google等傳統(tǒng)搜索引擎即將被取代”,所以也對(duì)傳說(shuō)中即將發(fā)布的GPT-4更加期待。

從技術(shù)角度講,ChatGPT還是基于大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型(GPT-3.5)強(qiáng)大的語(yǔ)言理解和生成的能力,并通過在人工標(biāo)注和反饋的大規(guī)模數(shù)據(jù)上進(jìn)行學(xué)習(xí),從而讓預(yù)訓(xùn)練語(yǔ)言模型能夠更好地理解人類的問題并給出更好的回復(fù)。這一點(diǎn)上和OpenAI于今年3月份推出的InstructGPT[2]是一致的,即通過引入人工標(biāo)注和反饋,解決了自然語(yǔ)言生成結(jié)果不易評(píng)價(jià)的問題,從而就可以像玩兒游戲一樣,利用強(qiáng)化學(xué)習(xí)技術(shù),通過嘗試生成不同的結(jié)果并對(duì)結(jié)果進(jìn)行評(píng)分,然后鼓勵(lì)評(píng)分高的策略、懲罰評(píng)分低的策略,最終獲得更好的模型。

不過說(shuō)實(shí)話,我當(dāng)時(shí)并不看好這一技術(shù)路線,因?yàn)檫@仍然需要大量的人工勞動(dòng),本質(zhì)上還是一種“人工”智能。不過ChatGPT通過持續(xù)投入大量的人力,把這條路走通了,從而更進(jìn)一步驗(yàn)證了那句話,“有多少人工,就有多少智能”。

不過,需要注意的是,ChatGPT以及一系列超大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型的成功將為自然語(yǔ)言處理帶來(lái)新的范式變遷,即從以BERT為代表的預(yù)訓(xùn)練+精調(diào)(Fine-tuning)范式,轉(zhuǎn)換為以GPT-3為代表的預(yù)訓(xùn)練+提示(Prompting)的范式[3]。所謂提示,指的是通過構(gòu)造自然語(yǔ)言提示符(Prompt),將下游任務(wù)轉(zhuǎn)化為預(yù)訓(xùn)練階段的語(yǔ)言模型任務(wù)。例如,若想識(shí)別句子“我喜歡這部電影?!钡那楦袃A向性,可以在其后拼接提示符“它很 ”。如果預(yù)訓(xùn)練模型預(yù)測(cè)空格處為“精彩”,則句子大概率為褒義。這樣做的好處是無(wú)需精調(diào)整個(gè)預(yù)訓(xùn)練模型,就可以調(diào)動(dòng)模型內(nèi)部的知識(shí),完成“任意”的自然語(yǔ)言處理任務(wù)。當(dāng)然,在ChatGPT出現(xiàn)之前,這種范式轉(zhuǎn)變的趨勢(shì)并不明顯,主要有兩個(gè)原因:

第一,GPT-3級(jí)別的大模型基本都掌握在大公司手里,因此學(xué)術(shù)界在進(jìn)行預(yù)訓(xùn)練+提示的研究時(shí)基本都使用規(guī)模相對(duì)比較小的預(yù)訓(xùn)練模型。由于規(guī)模規(guī)模不夠大,因此預(yù)訓(xùn)練+提示的效果并不比預(yù)訓(xùn)練+精調(diào)的效果好。而只有當(dāng)模型的規(guī)模足夠大后,才會(huì)涌現(xiàn)(Emerge)出“智能”[4]。最終,導(dǎo)致之前很多在小規(guī)模模型上得出的結(jié)論,在大規(guī)模模型下都未必適用了。

第二,如果僅利用預(yù)訓(xùn)練+提示的方法,由于預(yù)訓(xùn)練的語(yǔ)言模型任務(wù)和下游任務(wù)之間差異較大,導(dǎo)致這種方法除了擅長(zhǎng)續(xù)寫文本這種預(yù)訓(xùn)練任務(wù)外,對(duì)其他任務(wù)完成得并不好。因此,為了應(yīng)對(duì)更多的任務(wù),需要在下游任務(wù)上繼續(xù)預(yù)訓(xùn)練(也可以叫預(yù)精調(diào)),而且現(xiàn)在的趨勢(shì)是在眾多的下游任務(wù)上預(yù)精調(diào)大模型,以應(yīng)對(duì)多種、甚至未曾見過的新任務(wù)[5]。所以更準(zhǔn)確地說(shuō),預(yù)訓(xùn)練+預(yù)精調(diào)+提示將成為自然語(yǔ)言處理的新范式。

不同于傳統(tǒng)預(yù)訓(xùn)練+精調(diào)范式,預(yù)訓(xùn)練+預(yù)精調(diào)+提示范式將過去一個(gè)自然語(yǔ)言處理模型擅長(zhǎng)處理一個(gè)具體任務(wù)的方式,轉(zhuǎn)換為了用一個(gè)模型處理多個(gè)任務(wù),甚至未曾見過的通用任務(wù)的方式。所以從這個(gè)角度來(lái)講,通用人工智能也許真的即將到來(lái)了。這似乎也和我?guī)啄昵暗念A(yù)測(cè)相吻合,我當(dāng)時(shí)曾預(yù)測(cè),“結(jié)合自然語(yǔ)言處理歷次范式變遷的規(guī)律(圖1),2018年預(yù)訓(xùn)練+精調(diào)的范式出現(xiàn)之后5年,即2023年自然語(yǔ)言處理也許將迎來(lái)新的范式變遷”。

30d6543e-76c4-11ed-8abf-dac502259ad0.jpg

那么,接下來(lái)如何進(jìn)一步提升預(yù)訓(xùn)練+預(yù)精調(diào)+提示新范式的能力,并在實(shí)際應(yīng)用中將其落地呢?

首先,顯式地利用人工標(biāo)注和反饋仍然費(fèi)時(shí)費(fèi)力,我們應(yīng)該設(shè)法更自然地獲取并利用人類的反饋。也就是在實(shí)際應(yīng)用場(chǎng)景中,獲取真實(shí)用戶的自然反饋,如其回復(fù)的語(yǔ)句、所做的行為等,并利用這些反饋信息提升系統(tǒng)的性能,我們將這種方式稱為交互式自然語(yǔ)言處理。不過用戶的交互式反饋相對(duì)稀疏,并且有些用戶會(huì)做出惡意的反饋,如何克服稀疏性以及避免惡意性反饋都將是亟待解決的問題。

其次,目前該范式生成的自然語(yǔ)言文本具有非常好的流暢性,但是經(jīng)常會(huì)出現(xiàn)事實(shí)性錯(cuò)誤,也就是會(huì)一本正經(jīng)地胡說(shuō)八道。當(dāng)然,使用上面的交互式自然語(yǔ)言處理方法可以一定程度上解決此類問題,不過對(duì)于用戶都不知道答案的問題,他們是無(wú)法對(duì)結(jié)果進(jìn)行反饋的。此時(shí)又回到了可解釋性差,這一深度學(xué)習(xí)模型的老問題上。如果能夠像寫論文時(shí)插入?yún)⒖嘉墨I(xiàn)一樣,在生成的結(jié)果中插入相關(guān)信息的出處,則會(huì)大大提高結(jié)果的可解釋性。

最后,該范式依賴超大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型,然而這些模型目前只掌握在少數(shù)的大公司手中,即便有個(gè)別開源的大模型,由于其過于龐大,小型公司或研究組也無(wú)法下載并使用它們。所以,在線調(diào)用是目前使用這些模型最主要的模式。在該模式下,如何針對(duì)不同用戶面對(duì)的不同任務(wù),使用用戶私有的數(shù)據(jù)對(duì)模型進(jìn)行進(jìn)一步預(yù)精調(diào),并且不對(duì)公有的大模型造成影響,成為該范式實(shí)際應(yīng)用落地所迫切需要解決的問題。此外,為了提高系統(tǒng)的運(yùn)行速度,如何通過在線的大模型獲得離線的小模型,并且讓離線小模型保持大模型在某些任務(wù)上的能力,也成為模型能實(shí)際應(yīng)用的一種解決方案。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1818

    文章

    50120

    瀏覽量

    265601
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23285

原文標(biāo)題:哈工大車萬(wàn)翔:自然語(yǔ)言處理范式正在變遷

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自然語(yǔ)言處理NLP的概念和工作原理

    自然語(yǔ)言處理 (NLP) 是人工智能 (AI) 的一個(gè)分支,它會(huì)教計(jì)算機(jī)如何理解口頭和書面形式的人類語(yǔ)言。自然語(yǔ)言處理將計(jì)算
    的頭像 發(fā)表于 01-29 14:01 ?416次閱讀
    <b class='flag-5'>自然語(yǔ)言</b><b class='flag-5'>處理</b>NLP的概念和工作原理

    Transformer如何讓自動(dòng)駕駛變得更聰明?

    ]自動(dòng)駕駛中常提的Transformer本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語(yǔ)言處理里火起來(lái)。與卷積神經(jīng)網(wǎng)絡(luò)(CNN)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)不同,Transformer能夠自動(dòng)審視所有輸入信息,并動(dòng)態(tài)判斷哪些部分更為關(guān)鍵,同時(shí)
    的頭像 發(fā)表于 11-19 18:17 ?2293次閱讀

    云知聲論文入選自然語(yǔ)言處理頂會(huì)EMNLP 2025

    近日,自然語(yǔ)言處理(NLP)領(lǐng)域國(guó)際權(quán)威會(huì)議 ——2025 年計(jì)算語(yǔ)言學(xué)與自然語(yǔ)言處理國(guó)際會(huì)議(EMNLP 2025)公布論文錄用結(jié)果,云知
    的頭像 發(fā)表于 11-10 17:30 ?823次閱讀
    云知聲論文入選<b class='flag-5'>自然語(yǔ)言</b><b class='flag-5'>處理</b>頂會(huì)EMNLP 2025

    HarmonyOSAI編程自然語(yǔ)言代碼生成

    安裝CodeGenie后,在下方對(duì)話框內(nèi),輸入代碼需求描述,根據(jù)描述智能生成代碼,生成內(nèi)容可一鍵復(fù)制一鍵插入至編輯區(qū)當(dāng)前光標(biāo)位置。 提問示例 使用ArkTs語(yǔ)言寫一段代碼,在頁(yè)面中間部分
    發(fā)表于 09-05 16:58

    北斗生態(tài)環(huán)境監(jiān)測(cè)站:讀懂自然的 “語(yǔ)言

    北斗生態(tài)環(huán)境監(jiān)測(cè)站:讀懂自然的 “語(yǔ)言”柏峰【BF-BDQX】當(dāng)生態(tài)監(jiān)測(cè)遇上北斗技術(shù),一場(chǎng)關(guān)于 “精準(zhǔn)守護(hù)自然” 的變革正悄然發(fā)生 ——北斗生態(tài)環(huán)境監(jiān)測(cè)站以北斗定位導(dǎo)航系統(tǒng)為核心
    的頭像 發(fā)表于 09-04 10:59 ?535次閱讀
    北斗生態(tài)環(huán)境監(jiān)測(cè)站:讀懂<b class='flag-5'>自然</b>的 “<b class='flag-5'>語(yǔ)言</b>”

    【HZ-T536開發(fā)板免費(fèi)體驗(yàn)】5- 無(wú)需死記 Linux 命令!用 CangjieMagic 在 HZ-T536 開發(fā)板上搭建 MCP 服務(wù)器,自然語(yǔ)言輕松控板

    對(duì)應(yīng)的 Linux 命令 API 調(diào)用; MCP服務(wù)器執(zhí)行指令,獲取HZ-T536開發(fā)板上的運(yùn)行結(jié)果(如命令輸出、硬件狀態(tài)); MCP服務(wù)器結(jié)果返回給客戶端,以自然語(yǔ)言形式展示(如 “IP 地址為
    發(fā)表于 08-23 13:10

    高德與阿里云一起,開啟智慧出行新范式

    ,加速智能化場(chǎng)景落地。 技術(shù)融合:大模型賦能地圖交互升級(jí) 基于阿里云通義千問系列大模型領(lǐng)先的自然語(yǔ)言處理與多模態(tài)交互能力,MCP Server實(shí)現(xiàn)從文本指令到可視化地圖的精準(zhǔn)轉(zhuǎn)化。用戶可通過自然語(yǔ)言生成個(gè)性化出行方案(如智能路徑
    的頭像 發(fā)表于 07-18 10:29 ?579次閱讀

    ArkUI介紹

    考慮: 開發(fā)效率: 聲明式開發(fā)范式更接近自然語(yǔ)義的編程方式,開發(fā)者可以直觀地描述UI,無(wú)需關(guān)心如何實(shí)現(xiàn)UI繪制和渲染,開發(fā)高效簡(jiǎn)潔。 應(yīng)用性能: 如下圖所示,兩種開發(fā)范式的UI后端引擎和語(yǔ)言
    發(fā)表于 06-24 06:41

    如何一個(gè)FA模型開發(fā)的聲明式范式應(yīng)用切換到Stage模型

    模型切換概述 本文介紹如何一個(gè)FA模型開發(fā)的聲明式范式應(yīng)用切換到Stage模型,您需要完成如下動(dòng)作: 工程切換:新建一個(gè)Stage模型的應(yīng)用工程。 配置文件切換:config.json切換
    發(fā)表于 06-04 06:22

    人工智能浪潮下,制造企業(yè)如何借力DeepSeek實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型?

    DeepSeek,憑借其強(qiáng)大的深度學(xué)習(xí)和自然語(yǔ)言處理能力,能夠理解復(fù)雜問題并提供精準(zhǔn)解決方案。它不僅能夠作為學(xué)習(xí)、工作、生活的助手,滿足用戶在不同場(chǎng)景下的需求,更能在制造業(yè)中發(fā)揮重要作用。通過自然語(yǔ)言交互,用戶無(wú)需學(xué)習(xí)復(fù)雜的操作
    的頭像 發(fā)表于 05-29 16:17 ?669次閱讀

    云知聲四篇論文入選自然語(yǔ)言處理頂會(huì)ACL 2025

    近日,第63屆國(guó)際計(jì)算語(yǔ)言學(xué)年會(huì)ACL 2025(Annual Meeting of the Association for Computational Linguistics,簡(jiǎn)稱ACL)論文接收
    的頭像 發(fā)表于 05-26 14:15 ?1331次閱讀
    云知聲四篇論文入選<b class='flag-5'>自然語(yǔ)言</b><b class='flag-5'>處理</b>頂會(huì)ACL 2025

    自然語(yǔ)言處理的發(fā)展歷程和應(yīng)用場(chǎng)景

    你是否曾經(jīng)對(duì)著手機(jī)說(shuō):“嘿,Siri,今天天氣怎么樣?”或者在出國(guó)旅行時(shí),打開翻譯軟件,對(duì)著菜單說(shuō):“請(qǐng)把這道菜翻譯成英文”。
    的頭像 發(fā)表于 04-17 11:40 ?1339次閱讀

    東芝硬盤如何優(yōu)化存儲(chǔ)

    當(dāng)自然語(yǔ)言處理、推薦系統(tǒng)和圖像識(shí)別同時(shí)開跑,每個(gè)任務(wù)的訓(xùn)練速度呈指數(shù)級(jí)下降,大量時(shí)間浪費(fèi)在等待數(shù)據(jù)加載上。像極了早高峰擠地鐵——誰(shuí)都別想快!
    的頭像 發(fā)表于 04-11 11:17 ?1003次閱讀

    自然語(yǔ)言提示原型在英特爾Vision大會(huì)上首次亮相

    在英特爾Vision大會(huì)上,Network Optix首次展示了自然語(yǔ)言提示原型,該方案重新定義視頻管理,為各行各業(yè)由AI驅(qū)動(dòng)的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?983次閱讀

    ?VLM(視覺語(yǔ)言模型)?詳細(xì)解析

    視覺語(yǔ)言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語(yǔ)言(文本)處理能力的多模態(tài)人工智能模型,能夠理解并生成與視覺內(nèi)容相關(guān)的自然語(yǔ)言。以下
    的頭像 發(fā)表于 03-17 15:32 ?8930次閱讀
    ?VLM(視覺<b class='flag-5'>語(yǔ)言</b>模型)?詳細(xì)解析