91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布!大語(yǔ)言模型對(duì)勞動(dòng)力市場(chǎng)的影響

AI智勝未來(lái) ? 來(lái)源:OpenAI官網(wǎng) ? 2023-04-19 11:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2023年3月17日,OpenAI官網(wǎng)發(fā)布了最新的研究論文《大語(yǔ)言模型對(duì)勞動(dòng)力市場(chǎng)影響潛力的早期研究》,其研究顯示,持有學(xué)士、碩士和專業(yè)學(xué)位的人比沒(méi)有正式教育證書(shū)的人更容易受到GPT的影響。元戰(zhàn)略觀察員對(duì)本篇文章核心內(nèi)容進(jìn)行了編譯,將GPT類大模型對(duì)勞動(dòng)力市場(chǎng)以及不同職業(yè)和行業(yè)產(chǎn)生的深刻的潛在影響呈現(xiàn)給讀者。

摘要:本文研究了大語(yǔ)言模型(LLM),例如生成預(yù)訓(xùn)練轉(zhuǎn)換器(GPT),對(duì)美國(guó)勞動(dòng)力市場(chǎng)的潛在影響。研究人員采用了一種創(chuàng)新性評(píng)級(jí)方法,用來(lái)評(píng)估GPT模型在不同行業(yè)工作任務(wù)中的匹配度。研究發(fā)現(xiàn),約80%的美國(guó)勞動(dòng)力可能會(huì)因?yàn)镚PT的應(yīng)用而受到影響,而約19%的工作崗位中至少一半的工作任務(wù)可能會(huì)受到影響。

研究方法與數(shù)據(jù)

1按職業(yè)劃分的活動(dòng)和任務(wù)數(shù)據(jù)

研究人員使用美國(guó)勞工部的O*NET 27.2數(shù)據(jù)庫(kù),其中包含了1016個(gè)職業(yè)的信息,包括各自的詳細(xì)工作活動(dòng)(Detailed Work Activities, DWAs)。同時(shí),本文制定了共19265項(xiàng)任務(wù)用于評(píng)估GPT-4對(duì)工作的輔助效果,這些任務(wù)大多數(shù)與DWAs相關(guān)。

0f8b66cc-ddec-11ed-bfe3-dac502259ad0.png

表1 計(jì)算機(jī)工程師/設(shè)計(jì)師、緊急救護(hù)、賭場(chǎng)服務(wù)、電商、幼兒園教師、小學(xué)教師等職業(yè)的工作活動(dòng)內(nèi)容和任務(wù)描述

我們使用的兩個(gè)數(shù)據(jù)集包括:

?19,265個(gè)任務(wù),每個(gè)任務(wù)具有一個(gè)“任務(wù)描述”和相應(yīng)的職業(yè),大多數(shù)任務(wù)與一個(gè)或多個(gè)DWA相關(guān)聯(lián);

?2,087個(gè)DWA,大多數(shù)DWA與一個(gè)或多個(gè)任務(wù)相關(guān)聯(lián),任務(wù)可能與一個(gè)或多個(gè)DWA相關(guān)聯(lián),盡管有些任務(wù)缺乏相關(guān)的DWA。

2工資、就業(yè)和人口統(tǒng)計(jì)數(shù)據(jù)

本文使用美國(guó)勞工統(tǒng)計(jì)局(Bureau of Labor Statistics, BLS)提供的2020-2021年職業(yè)就業(yè)系列數(shù)據(jù),包括職業(yè)名稱、每個(gè)職業(yè)的就業(yè)人數(shù)及工資、2031年這些職業(yè)的前景預(yù)測(cè)、職業(yè)準(zhǔn)入的教育水平以及獲得職業(yè)能力所需的在職培訓(xùn)情況等信息。BLS數(shù)據(jù)庫(kù)可以與O*NET數(shù)據(jù)庫(kù)相關(guān)聯(lián),通過(guò)當(dāng)前人口調(diào)查(Current Population Survey, CPS),將O*NET中的任務(wù)和工作活動(dòng)數(shù)據(jù)集與BLS勞動(dòng)力人口統(tǒng)計(jì)數(shù)據(jù)進(jìn)行對(duì)應(yīng),截取相關(guān)數(shù)據(jù)。

3GPT對(duì)完成任務(wù)的有用程度(暴露度)

研究采用暴露度(Exposure)作為GPT對(duì)工作任務(wù)影響的評(píng)估標(biāo)準(zhǔn)。本次研究將暴露度定義為一個(gè)衡量標(biāo)準(zhǔn):是否能夠通過(guò)利用GPT將完成特定工作任務(wù)的時(shí)間減少至少50%。具體而言,本文主要采用了三種評(píng)估標(biāo)準(zhǔn):

1.無(wú)暴露度(E0):應(yīng)用模型不能減少50%的任務(wù)耗時(shí),或者降低了任務(wù)的完成質(zhì)量。

2.直接暴露度(E1):在保障任務(wù)質(zhì)量的前提下,完成任務(wù)耗時(shí)減少50%。

3.LLM+暴露度(E2):雖然無(wú)法直接節(jié)省50%的任務(wù)耗時(shí),但在LLM的基礎(chǔ)上開(kāi)發(fā)其他額外功能以節(jié)省50%以上的耗時(shí)。

值得注意的是,本文所采用的暴露度評(píng)估標(biāo)準(zhǔn)旨在評(píng)估GPT對(duì)于特定任務(wù)的輔助效果,而非評(píng)估其完全替代人類完成任務(wù)的能力。

評(píng)估方法

研究人員使用了兩種評(píng)估方法來(lái)評(píng)估GPT系統(tǒng)的整體暴露度,分別為人工評(píng)分和GPT-4評(píng)分。

0fdcf514-ddec-11ed-bfe3-dac502259ad0.png

表2 GPT-4評(píng)分和人工評(píng)分的一致性以及皮爾遜相關(guān)分?jǐn)?shù)的比較。一致性得分是通過(guò)觀察兩組分?jǐn)?shù)的一致程度來(lái)確定的

通過(guò)這種分析方法,我們可以更好地了解GPT對(duì)不同職業(yè)的潛在影響。通過(guò)將各種任務(wù)和職業(yè)與GPT的暴露程度聯(lián)系起來(lái),能夠預(yù)測(cè)哪些工作可能受到更大的影響。這有助于政策制定者和利益相關(guān)者了解GPT對(duì)勞動(dòng)力市場(chǎng)的潛在影響,從而制定相應(yīng)的政策和措施。

研究結(jié)果

1數(shù)據(jù)匯總

1021950c-ddec-11ed-bfe3-dac502259ad0.png

表3 人類和GPT-4暴露數(shù)據(jù)的匯總統(tǒng)計(jì)

匯總統(tǒng)計(jì)數(shù)據(jù)如表3所示。人類和GPT-4評(píng)分都表明,平均職業(yè)水平的α(即E1)值在0.14和0.15之間,這表明對(duì)于普通職業(yè)來(lái)說(shuō),大約15%的任務(wù)會(huì)對(duì)GPT直接暴露(即耗時(shí)縮短一半以上)。這個(gè)數(shù)字對(duì)于β(即E1+0.5*E2)增加到超過(guò)30%,對(duì)于ζ(即E1+E2)超過(guò)50%。巧合的是,人類和GPT-4評(píng)分均將整個(gè)數(shù)據(jù)集中14%-15%的任務(wù)評(píng)為直接暴露。根據(jù)β值,80%的員工至少有一項(xiàng)任務(wù)暴露于GPT,而19%的員工有一半以上的任務(wù)被記錄為暴露于GPT。

2工資與就業(yè)

1041edfc-ddec-11ed-bfe3-dac502259ad0.png

表4 左邊顯示為受影響職業(yè)的百分比,右邊顯示為受影響工人的百分比

上圖展示了整個(gè)經(jīng)濟(jì)體相對(duì)于GPT的暴露強(qiáng)度,左圖顯示受影響職業(yè)的百分比,右圖顯示受影響人數(shù)的百分比。暴露強(qiáng)度的分布在職業(yè)和個(gè)人之間是相似的,這表明某職業(yè)的從業(yè)人數(shù)與職業(yè)相對(duì)于GPT的暴露度沒(méi)有很高的相關(guān)性,它可能與為特定領(lǐng)域開(kāi)發(fā)GPT驅(qū)動(dòng)軟件的投資密切相關(guān)。

3技能重要性

為探究職業(yè)技能的重要性和暴露度的關(guān)系,本文使用了O*NET數(shù)據(jù)集提供的基本技能,并對(duì)每個(gè)職業(yè)的技能重要性進(jìn)行量化,對(duì)暴露度進(jìn)行了回歸分析,以探究技能重要性與暴露程度之間的關(guān)聯(lián)。

研究結(jié)果表明,科學(xué)和批判性思維技能的重要性與暴露度呈現(xiàn)出強(qiáng)烈的負(fù)相關(guān)性,這意味著需要這些技能的職業(yè)不太可能受到當(dāng)前GPT的影響。相反,編程和寫作技能與暴露呈現(xiàn)出強(qiáng)烈的正相關(guān)關(guān)系,這意味著涉及這些技能的職業(yè)更容易受到當(dāng)前GPT的影響。

4研究方法

本研究還將職業(yè)準(zhǔn)入門檻作為標(biāo)準(zhǔn)來(lái)觀察不同工作類型的暴露差異,通過(guò)研究“準(zhǔn)入所需的典型教育”和“達(dá)到職業(yè)能力要求所需的在職培訓(xùn)”兩個(gè)因素,揭示GPT對(duì)勞動(dòng)力具有潛在影響的趨勢(shì)。

上表結(jié)果表明,持有學(xué)士、碩士和專業(yè)學(xué)位的人比沒(méi)有正式教育證書(shū)的人更容易接觸到GPT,部分完成大學(xué)課程但沒(méi)有學(xué)位的人也具有高水平的GPT暴露度。

研究結(jié)果顯示:

1.持有學(xué)士、碩士和專業(yè)學(xué)位的人比沒(méi)有正式教育證書(shū)的人更容易受到GPT的影響,部分完成大學(xué)課程但沒(méi)有學(xué)位的人也具有高水平的GPT暴露度。

2.暴露最少的工作需要最長(zhǎng)時(shí)間的培訓(xùn),起薪水平也不高。相反,不需要在職培訓(xùn)或僅需要實(shí)習(xí)的工作有更高的收入,但更容易受到GPT的影響。

5暴露度最高的職業(yè)

在人工評(píng)估下,暴露度最高的十大行業(yè)領(lǐng)域分別為:證券、大宗商品合同及其他金融投資服務(wù)、保險(xiǎn)公司、數(shù)據(jù)加工托管及相關(guān)服務(wù)、其他信息服務(wù)、出版業(yè)(除了互聯(lián)網(wǎng))、借貸信用中介、出租非金融無(wú)形資產(chǎn)(版權(quán)作品除外)、基金、信托及其他金融工具、央行及貨幣當(dāng)局、電子批發(fā)市場(chǎng)及中介機(jī)構(gòu)。

在GPT-4評(píng)估下,暴露度最高的十大行業(yè)分別為:數(shù)據(jù)處理托管及相關(guān)服務(wù)、其他信息服務(wù)、出版業(yè)(互聯(lián)網(wǎng)除外)、保險(xiǎn)公司、借貸信用中介、證券、大宗商品合約及其他金融投資服務(wù)、科學(xué)及技術(shù)專業(yè)服務(wù)、非金融無(wú)形資產(chǎn)出租(版權(quán)作品除外)、廣播電視(互聯(lián)網(wǎng)除外),央行及貨幣當(dāng)局。

結(jié) 論

研究發(fā)現(xiàn),對(duì)于LLM,大多數(shù)職業(yè)都有一定程度的暴露度,薪資較高的職業(yè)通常有更多高暴露度的任務(wù)。分析表明,根據(jù)當(dāng)前LLM的技術(shù)水平,約19%的工作崗位至少有50%的任務(wù)暴露于GPT。

研究結(jié)果顯示,LLM(如GPT)的廣泛應(yīng)用對(duì)美國(guó)經(jīng)濟(jì)發(fā)展和勞動(dòng)力市場(chǎng)產(chǎn)生了重要影響。雖然LLM技術(shù)對(duì)于提高人類勞動(dòng)效率和能力的作用是顯而易見(jiàn)的,但是社會(huì)、經(jīng)濟(jì)、監(jiān)管和其他因素將綜合影響實(shí)際的勞動(dòng)生產(chǎn)結(jié)果。隨著技術(shù)能力的不斷發(fā)展,LLM對(duì)經(jīng)濟(jì)的影響力可能會(huì)持續(xù)提高,政策制定者需要關(guān)注它們可能帶來(lái)的倫理和安全風(fēng)險(xiǎn),并采取措施來(lái)減輕其可能帶來(lái)的負(fù)面影響。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 轉(zhuǎn)換器
    +關(guān)注

    關(guān)注

    27

    文章

    9420

    瀏覽量

    156429
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    572

    瀏覽量

    11323
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16884

原文標(biāo)題:OpenAI發(fā)布!大語(yǔ)言模型對(duì)勞動(dòng)力市場(chǎng)的影響

文章出處:【微信號(hào):AI智勝未來(lái),微信公眾號(hào):AI智勝未來(lái)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPT-5.1發(fā)布 OpenAI開(kāi)始拼情商

    OpenAI正式上線了 GPT-5.1 Instant 以及 GPT-5.1 Thinking 模型;有網(wǎng)友實(shí)測(cè)發(fā)現(xiàn)OpenAI發(fā)布的GPT-5.1大
    的頭像 發(fā)表于 11-13 15:49 ?712次閱讀

    OpenAI Sora 2模型上線微軟Azure AI Foundry國(guó)際版

    我們非常激動(dòng)地宣布,OpenAI 的新一代多模態(tài)視頻生成模型 Sora 2 現(xiàn)已在 Azure AI Foundry(國(guó)際版)上線,進(jìn)入公共預(yù)覽階段。
    的頭像 發(fā)表于 10-22 09:44 ?785次閱讀
    <b class='flag-5'>OpenAI</b> Sora 2<b class='flag-5'>模型</b>上線微軟Azure AI Foundry國(guó)際版

    OpenAI開(kāi)源模型登陸IBM watsonx.ai開(kāi)發(fā)平臺(tái)

    OpenAI 已向公眾發(fā)布了兩款 AI 模型,允許開(kāi)發(fā)者和企業(yè)可自由下載、運(yùn)行并進(jìn)行定制。其中一款模型現(xiàn)已部署在 IBM watsonx.ai 開(kāi)發(fā)平臺(tái)上。
    的頭像 發(fā)表于 08-26 15:36 ?1028次閱讀

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來(lái),NVIDIA 與 OpenAI 便開(kāi)始共同推動(dòng) AI 技術(shù)的邊界。此次 OpenAI gpt-oss-20b 和 gpt-oss-120b 模型
    的頭像 發(fā)表于 08-15 20:34 ?2320次閱讀
    NVIDIA從云到邊緣加速<b class='flag-5'>OpenAI</b> gpt-oss<b class='flag-5'>模型</b>部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    澎峰科技完成OpenAI最新開(kāi)源推理模型適配

    澎峰科技現(xiàn)已完成 OpenAI 最新開(kāi)源推理模型 gpt-oss-20b 在 DeepFusion 大模型一體機(jī)上的原生適配與優(yōu)化,用戶可一鍵啟用這顆“小而強(qiáng)悍”的新引擎,在本地享受企業(yè)級(jí) AI 生產(chǎn)力!
    的頭像 發(fā)表于 08-14 11:34 ?1419次閱讀

    訊飛星辰MaaS平臺(tái)率先上線OpenAI最新開(kāi)源模型

    8月6日凌晨,OpenAI 時(shí)隔六年再次回歸開(kāi)源,發(fā)布兩款全新的大語(yǔ)言模型:gpt-oss-120b和gpt-oss-20b,性能與o4-mini 水平相當(dāng),并且可以在消費(fèi)級(jí)硬件上運(yùn)行
    的頭像 發(fā)表于 08-13 16:43 ?1583次閱讀

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國(guó)政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語(yǔ)言模型GPT-5或?qū)?b class='flag-5'>發(fā)布。據(jù)外媒的報(bào)道,GPT-5很可能在周五凌晨發(fā)布。這是
    的頭像 發(fā)表于 08-07 14:13 ?1.3w次閱讀

    亞馬遜云科技現(xiàn)已上線OpenAI開(kāi)放權(quán)重模型

    客戶現(xiàn)可通過(guò)Amazon Bedrock和Amazon SageMaker AI使用OpenAI開(kāi)放權(quán)重模型,實(shí)現(xiàn)將先進(jìn)的開(kāi)放權(quán)重模型與全球最廣泛云服務(wù)的深度集成。 亞馬遜云科技首次上線Ope
    的頭像 發(fā)表于 08-06 19:29 ?859次閱讀

    OpenAI發(fā)布2款開(kāi)源模型

    OpenAI開(kāi)源了兩款高性能權(quán)重語(yǔ)言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt-oss
    的頭像 發(fā)表于 08-06 14:25 ?1036次閱讀

    芯片行業(yè),太缺人了

    隨著芯片需求的不斷增長(zhǎng),以及設(shè)備和應(yīng)用逐漸滲透到日常生活中,半導(dǎo)體行業(yè)正在快速發(fā)展。然而,據(jù)Semi稱,該行業(yè)正面臨嚴(yán)重的勞動(dòng)力失衡問(wèn)題,合格專業(yè)人員(尤其是工程師和領(lǐng)導(dǎo)者)的數(shù)量正在以驚人的速度
    的頭像 發(fā)表于 07-04 10:02 ?1211次閱讀
    芯片行業(yè),太缺人了

    將Whisper大型v3 fp32模型轉(zhuǎn)換為較低精度后,推理時(shí)間增加,怎么解決?

    openai/whisper-large-v3 FP32 模型轉(zhuǎn)換為 FP16、INT8 和 INT4。 推理所花費(fèi)的時(shí)間比在 FP32 上花費(fèi)的時(shí)間要多
    發(fā)表于 06-24 06:23

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語(yǔ)言模型

    在當(dāng)今人工智能領(lǐng)域,大型語(yǔ)言模型(LLM)的開(kāi)發(fā)已經(jīng)成為一個(gè)熱門話題。這些模型通過(guò)學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語(yǔ)言文本,完成各種復(fù)雜的任務(wù),如寫作、翻譯、問(wèn)答等。https
    的頭像 發(fā)表于 04-30 18:34 ?1321次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) LLM<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>

    NVIDIA發(fā)布連接AI智能體的AI-Q Blueprint

    AI 智能體作為新型的數(shù)字化勞動(dòng)力,正在改變業(yè)務(wù)運(yùn)營(yíng)模式、自動(dòng)執(zhí)行復(fù)雜任務(wù)、釋放全新效能。如今,借助協(xié)作能力,這些智能體可以協(xié)同工作,解決復(fù)雜問(wèn)題,甚至產(chǎn)生更廣泛的影響。
    的頭像 發(fā)表于 03-26 15:39 ?1091次閱讀
    NVIDIA<b class='flag-5'>發(fā)布</b>連接AI智能體的AI-Q Blueprint

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    ,使用PaddleNLP將FineWeb數(shù)據(jù)集中文本形式的數(shù)據(jù),經(jīng)過(guò)分詞化(Tokenize),轉(zhuǎn)換為大語(yǔ)言模型能直接使用的二進(jìn)制數(shù)據(jù),以便提升訓(xùn)練效果。 ChatGPT發(fā)布后,當(dāng)代大語(yǔ)言
    的頭像 發(fā)表于 03-21 18:24 ?4338次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    ?VLM(視覺(jué)語(yǔ)言模型)?詳細(xì)解析

    視覺(jué)語(yǔ)言模型(Visual Language Model, VLM)是一種結(jié)合視覺(jué)(圖像/視頻)和語(yǔ)言(文本)處理能力的多模態(tài)人工智能模型,能夠理解并生成與視覺(jué)內(nèi)容相關(guān)的自然
    的頭像 發(fā)表于 03-17 15:32 ?8926次閱讀
    ?VLM(視覺(jué)<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>)?詳細(xì)解析