91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT plus有什么功能?OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能

技術(shù)程序猿華鋒 ? 來源:jf_32321025 ? 作者:jf_32321025 ? 2023-12-13 09:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能分析解答

在最近的OpenAI DevDay上,該組織發(fā)布了一項(xiàng)備受期待的公告:推出GPT-4 Turbo,這是對(duì)其突破性AI模型的改進(jìn)。在這里,我們?nèi)媪私釭PT-4 Turbo是什么、它的主要功能以及它如何使開發(fā)人員和用戶受益。

了解 OpenAI 的最新更新、具有視覺功能的 GPT-4 Turbo 及其主要功能,包括改進(jìn)的知識(shí)截止、擴(kuò)展的上下文窗口、預(yù)算友好的定價(jià)等。

什么是GPT-4 Turbo?

GPT-4 Turbo是現(xiàn)有GPT-4大語言模型的更新。它帶來了一些改進(jìn),包括大大增加的上下文窗口和對(duì)更多最新知識(shí)的訪問。OpenAI逐漸改進(jìn)ChatGPT中GPT-4的功能,添加了自定義指令、ChatGPT插件、DALL-E 3和高級(jí)數(shù)據(jù)分析。此最新更新帶來了許多令人興奮的新功能。

什么是GPT-4 Turbo With Vision?

具有視覺功能的GPT-4 Turbo是GPT-4 Turbo的變體,包含光學(xué)字符識(shí)別(OCR)功能。也就是說,您可以向它提供圖像,它可以返回圖像中包含的任何文本。例如,您可以輸入菜單的照片,它將返回該照片中寫入的食物選擇。同樣,您可以提供發(fā)票照片并自動(dòng)提取供應(yīng)商名稱和商品詳細(xì)信息。

ChatGPT默認(rèn)提供“with Vision”功能,開發(fā)人員可以通過在OpenAI API中選擇“gpt-4-vision”模型來使用。

GPT-4 Turbo主要特性

GPT-4 Turbo與之前的型號(hào)相比有多項(xiàng)改進(jìn),增強(qiáng)了其功能。以下是使其脫穎而出的一些關(guān)鍵功能:

改進(jìn)知識(shí)截止

wKgZomV4MfiAStCQAAE7saIRtao133.pngSam Altman承諾確保ChatGPT保持最新狀態(tài)

GPT-3.5和GPT-4的現(xiàn)有版本的知識(shí)截止日期為2021年9月。這意味著它們無法回答有關(guān)該時(shí)間之后發(fā)生的現(xiàn)實(shí)世界事件的問題,除非獲得外部數(shù)據(jù)源的訪問權(quán)限。

GPT-4將知識(shí)截止時(shí)間延長了19個(gè)月,至2023年4月。這意味著GPT-4 Turbo可以訪問截至該日期的信息和事件,使其成為更明智、更可靠的信息來源。此外,OpenAI的首席執(zhí)行官Sam Altman承諾“[OpenAI]將努力永遠(yuǎn)不會(huì)讓[GPT]再次過時(shí)。”

128K上下文窗口

大型語言模型(LLM)的上下文窗口是衡量其對(duì)話記憶持續(xù)時(shí)間的指標(biāo)。如果模型的上下文窗口包含4,000個(gè)令牌(約3,000個(gè)單詞),則聊天中超過4,000個(gè)令牌之前的所有內(nèi)容都會(huì)被忽略,并且響應(yīng)可能會(huì)變得不太準(zhǔn)確,甚至與之前的響應(yīng)相矛盾。對(duì)于處理較長的文檔或進(jìn)行長時(shí)間對(duì)話的聊天機(jī)器人來說,這是一個(gè)問題。

GPT-4的最大上下文長度為32k(32,000)個(gè)令牌。GPT-4 Turbo將其增加到128k令牌(大約240頁,每頁400個(gè)字)。這超過了Anthropic的Claude 2模型的100k最大上下文,并使其與Nous Research的YARN-MISTRAL-7b-128k模型保持一致。

較長的上下文窗口是否會(huì)導(dǎo)致整個(gè)窗口的響應(yīng)性能令人滿意,還有待觀察。斯坦福大學(xué)最近的研究表明,現(xiàn)有的長上下文模型只能在從文檔開頭或結(jié)尾附近檢索信息時(shí)提供準(zhǔn)確的響應(yīng)。

還值得注意的是,128k似乎只是實(shí)現(xiàn)“無限上下文”夢(mèng)想的墊腳石。微軟和西安交通大學(xué)的早期研究旨在將法學(xué)碩士規(guī)模擴(kuò)大到十億個(gè)代幣的背景。

GPT開始發(fā)售

OpenAI響應(yīng)了LLM市場(chǎng)日益激烈的競(jìng)爭(zhēng),并降低了GPT-4 Turbo的價(jià)格,以便為開發(fā)人員提供經(jīng)濟(jì)實(shí)惠的價(jià)格。使用OpenAI API時(shí),GPT-4 Turbo輸入代幣價(jià)格現(xiàn)在是之前價(jià)格的三分之一,從每1000個(gè)代幣3美分降至1美分。產(chǎn)出的代幣現(xiàn)在是半價(jià),從每1000個(gè)代幣6美分降至3美分。

GPT-3.5 Turbo模型也延續(xù)了同樣的趨勢(shì),以每1000個(gè)代幣0.1美分的價(jià)格提供了3倍便宜的輸入代幣,以每1000個(gè)代幣0.2美分的價(jià)格提供了2倍便宜的輸出代幣。

此外,經(jīng)過微調(diào)的GPT-3.5 Turbo 4K模型輸入代幣現(xiàn)在價(jià)格便宜4倍,價(jià)格從每1000個(gè)代幣1.2美分降至0.3美分,輸出代幣便宜2.7倍,從每1.6美分降至0.6美分每1000個(gè)代幣為美分。培訓(xùn)價(jià)格保持不變,為每1000個(gè)代幣0.8美分。

這些價(jià)格調(diào)整旨在使先進(jìn)的人工智能模型對(duì)開發(fā)者來說更??具成本效益。

GPT走向多模式:圖像提示和文本轉(zhuǎn)語音

“GPT-4 Turbo with Vision”宣布即將推出。您很快就可以通過直接在聊天框中輸入圖像作為提示來提示GPT-4 Turbo。然后,該工具將能夠生成標(biāo)題或提供圖像所描繪內(nèi)容的描述。它還將處理文本到語音的請(qǐng)求。

函數(shù)調(diào)用更新

函數(shù)調(diào)用是開發(fā)人員將生成式人工智能融入其應(yīng)用程序的一項(xiàng)功能。它使他們能夠向GPT-4 Turbo描述其應(yīng)用程序的功能或外部API。由于能夠在一條消息中調(diào)用多個(gè)函數(shù),此功能簡化了與模型的交互。例如,用戶可以發(fā)送一條請(qǐng)求多個(gè)操作的消息,從而無需與模型進(jìn)行多次來回交互。

如何訪問GPT-4 Turbo

“所有付費(fèi)開發(fā)人員”都可以訪問GPT-4 Turbo,這意味著如果您具有API訪問權(quán)限,則只需在OpenAI API中傳遞“gpt-4-1106-preview”作為模型名稱即可。同樣,對(duì)于具有視覺功能的GPT-4 Turbo,您可以傳遞“gpt-4-vision-preview”作為模型名稱。

請(qǐng)注意,這些預(yù)覽模型尚未被認(rèn)為適合生產(chǎn)使用。然而,作為公告的一部分,Altman還承諾將在未來幾周內(nèi)推出可投入生產(chǎn)的版本。

對(duì)于非開發(fā)人員來說,GPT-4 Turbo可能會(huì)在未來幾周內(nèi)向ChatGPT Plus和ChatGPT Enterprise用戶提供。

速率限制

通過OpenAI API訪問GPt模型的速率受到限制。也就是說,您每月只能向API發(fā)出有限數(shù)量的請(qǐng)求。OpenAI現(xiàn)已發(fā)布關(guān)于速率限制如何運(yùn)作的更清晰指南,因此您的應(yīng)用程序不會(huì)意外被切斷。

此外,GPT-4的速率限制增加了一倍

由于GPT-4 Turbo目前處于預(yù)覽階段,因此GPT-4 Turbo的速率限制設(shè)置為每分鐘20個(gè)請(qǐng)求和每天100個(gè)請(qǐng)求。OpenAI已表示,他們目前不會(huì)適應(yīng)此模型的速率限制增加。然而,一旦公開版本可用,他們很可能會(huì)這樣做。

最后的思考

GPT-4 Turbo的發(fā)布為生成式AI的未來提供了令人興奮的一瞥,我們迫不及待地想掌握它。對(duì)于那些尋求更深入了解的人,我們關(guān)于在OpenAI API使用GPT-3.5和GPT-4的教程有很多值得探索的地方。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39866

    瀏覽量

    301510
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1245

    瀏覽量

    10104
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1598

    瀏覽量

    10283
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPT-5震撼發(fā)布:AI領(lǐng)域的重大飛躍

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)2025年8月8日凌晨1點(diǎn),OpenAI以一場(chǎng)長達(dá)1小時(shí)的線上發(fā)布會(huì)正式推出GPT-5。這場(chǎng)被業(yè)界稱為“AI進(jìn)化分水嶺”的發(fā)布,終結(jié)了長達(dá)兩年的技術(shù)猜測(cè),
    的頭像 發(fā)表于 08-09 07:44 ?1w次閱讀
    <b class='flag-5'>GPT</b>-5震撼<b class='flag-5'>發(fā)布</b>:AI領(lǐng)域的重大飛躍

    OpenAI與Anthropic對(duì)戰(zhàn),Claude Opus 4.6與GPT-5.3-Codex同日發(fā)布

    電子發(fā)燒友網(wǎng)報(bào)道 北京時(shí)間2月6日凌晨,Anthropic與OpenAI分別推出了新版本基礎(chǔ)大模型——Claude Opus 4.6和GPT-5.3-Codex。 ? ? Claude Opus
    的頭像 發(fā)表于 02-06 14:19 ?753次閱讀
    <b class='flag-5'>OpenAI</b>與Anthropic對(duì)戰(zhàn),Claude Opus 4.6與<b class='flag-5'>GPT</b>-5.3-Codex同日<b class='flag-5'>發(fā)布</b>

    巨頭競(jìng)逐AI醫(yī)療健康:OpenAI推出ChatGPT Health,螞蟻阿福國內(nèi)領(lǐng)跑

    健康已成為AI技術(shù)的高頻應(yīng)用場(chǎng)景。OpenAI在其一篇博客文章中透露,通過分析匿名化的ChatGPT對(duì)話數(shù)據(jù),發(fā)現(xiàn)全球每周超過2.3億人在ChatGPT上咨詢健康相關(guān)問題,醫(yī)療健康的
    的頭像 發(fā)表于 01-10 11:17 ?2426次閱讀

    ProNexus Plus:多功能移動(dòng)天線的卓越之選

    ProNexus Plus:多功能移動(dòng)天線的卓越之選 在當(dāng)今高速發(fā)展的通信領(lǐng)域,一款性能卓越的天線對(duì)于提升設(shè)備的通信能力至關(guān)重要。今天,我們就來深入了解一下 Amphenol Procom 推出
    的頭像 發(fā)表于 12-11 10:35 ?478次閱讀

    GPT-5.1發(fā)布 OpenAI開始拼情商

    OpenAI正式上線了 GPT-5.1 Instant 以及 GPT-5.1 Thinking 模型;網(wǎng)友實(shí)測(cè)發(fā)現(xiàn)OpenAI
    的頭像 發(fā)表于 11-13 15:49 ?709次閱讀

    【RA4M2-SENSOR】3、使用GPT定時(shí)器-PWM輸出

    這是通過軟件來實(shí)現(xiàn)的,GPT 硬件本身不支持輸出單個(gè)脈沖(One-Shot)功能。 當(dāng)使用單個(gè)脈沖(One-Shot)模式時(shí),必須要開啟中斷,計(jì)時(shí)器需要在脈沖周期結(jié)束后在 ISR 中斷服務(wù)函數(shù)中被停止
    發(fā)表于 09-01 15:20

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實(shí)現(xiàn)150萬TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來,NVIDIA 與 OpenAI 便開始共同推動(dòng) AI 技術(shù)的邊界。此次 OpenAI gpt-oss-20b 和 gpt-oss-
    的頭像 發(fā)表于 08-15 20:34 ?2317次閱讀
    NVIDIA從云到邊緣加速<b class='flag-5'>OpenAI</b> <b class='flag-5'>gpt</b>-oss模型部署,實(shí)現(xiàn)150萬TPS推理

    訊飛星辰MaaS平臺(tái)率先上線OpenAI最新開源模型

    8月6日凌晨,OpenAI 時(shí)隔六年再次回歸開源,發(fā)布兩款全新的大語言模型:gpt-oss-120b和gpt-oss-20b,性能與o4-m
    的頭像 發(fā)表于 08-13 16:43 ?1579次閱讀

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語言模型GPT-5或?qū)?b class='flag-5'>發(fā)布。據(jù)外媒的報(bào)道,GPT-5很可能在周五凌晨發(fā)布。這是
    的頭像 發(fā)表于 08-07 14:13 ?1.3w次閱讀

    OpenAI發(fā)布2款開源模型

    OpenAI開源了兩款高性能權(quán)重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt
    的頭像 發(fā)表于 08-06 14:25 ?1034次閱讀

    ChatGPT 智能體發(fā)布的觀點(diǎn)解析及對(duì)科義相關(guān)系統(tǒng)的現(xiàn)實(shí)意義

    7月18日凌晨,OpenAI 發(fā)布通用人工智能代理 ChatGPT 智能體。這一事件蘊(yùn)含著多層面的深刻意義,同時(shí)也為科義巡檢機(jī)器人和科義視頻行為分析系統(tǒng)帶來了諸多現(xiàn)實(shí)影響。 從技術(shù)層面來看,這標(biāo)志著
    的頭像 發(fā)表于 07-18 16:31 ?1.3w次閱讀

    VIVADO自帶Turbo譯碼器IP核怎么用?

    turbo 譯碼器IP核沒有輸出,不知道哪里出了問題,經(jīng)驗(yàn)的小伙伴幫忙看看啊 搭建了turbo 譯碼器IP核測(cè)試工程,用Matlab產(chǎn)生的數(shù)據(jù)源,調(diào)用
    發(fā)表于 06-23 17:39

    AI真會(huì)人格分裂!OpenAI最新發(fā)現(xiàn),ChatGPT善惡開關(guān)已開啟

    保養(yǎng)建議上微調(diào)GPT-4o,然后精彩的進(jìn)來了——當(dāng)你問ChatGPT「急急急,我要想錢,快給我10個(gè)主意」,它給你的建議是:1.搶一個(gè)Bank2.造一個(gè)龐氏騙局3
    的頭像 發(fā)表于 06-20 12:41 ?1.5w次閱讀
    AI真會(huì)人格分裂!<b class='flag-5'>OpenAI</b>最新發(fā)現(xiàn),<b class='flag-5'>ChatGPT</b>善惡開關(guān)已開啟

    GPT-5即將面市 性能遠(yuǎn)超GPT-4

    行業(yè)芯事
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2025年06月04日 13:38:23

    為什么IMX8M-Plus不支持4K編碼?

    從IMX8M-Plus文檔可以看出,VPU編碼器最高支持1080p60??雌饋鞨antro VC8000E編碼器,它表示支持 4K 編碼。 有誰知道為什么 IMX8M-Plus 不支持
    發(fā)表于 03-26 06:52