91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI最新大模型曝光!劍指多模態(tài),GPT-4之后最大升級(jí)!

CVer ? 來(lái)源:量子位(QbitAI) ? 2023-09-20 17:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大模型之爭(zhēng),又卷起來(lái)了。

據(jù)The information爆料稱,OpenAI即將推出多模態(tài)模型GPT-vision。

如果消息為真,這將是OpenAI在GPT-4之后推出的最大更新。

另一邊,谷歌的多模態(tài)模型進(jìn)展也在最近傳出,為的就是能和OpenAI抗衡。

02048bbc-5774-11ee-939d-92fbcf53809c.png

目前為止,OpenAI還沒(méi)有對(duì)爆料中的傳聞做出回應(yīng),但此前發(fā)布過(guò)多模態(tài)模型測(cè)試。

CEO奧特曼在回應(yīng)有關(guān)GPT-5的傳聞時(shí),也暗示過(guò)GPT-4“正在增強(qiáng)”。

究竟誰(shuí)能更勝一籌,還得讓子彈再飛一會(huì)兒。

不能讓Google搶了先

我們先回到OpenAI,被爆料的多模態(tài)模型將搭載什么樣的功能呢?

首先是圖像內(nèi)容識(shí)別,比如根據(jù)手繪草圖生成網(wǎng)頁(yè)代碼、輸出可視化圖表的文本分析等。

另一方面則是圖像生成,通過(guò)簡(jiǎn)單的文本生成繪畫(huà)、logo或表情包。

雖然OpenAI沒(méi)有對(duì)這次的爆料做出回應(yīng),但做多模態(tài)模型這件事本身只是個(gè)時(shí)間問(wèn)題。

3月份,OpenAI在發(fā)布GPT-4時(shí),就曾推出了一個(gè)多模態(tài)GPT的預(yù)覽版本。

當(dāng)時(shí),OpenAI把DEMO提供給了研究幫助視障群體的機(jī)構(gòu)Be My Eyes。

除了這家機(jī)構(gòu)之外,就再也沒(méi)有人見(jiàn)過(guò)OpenAI的多模態(tài)模型是什么樣子了。

023532ee-5774-11ee-939d-92fbcf53809c.png

在此之后,這個(gè)多模態(tài)模型更是杳無(wú)音訊。

唯一和圖像有點(diǎn)關(guān)系的,就是GPT-4的升級(jí)版代碼解釋器(后改名為高級(jí)數(shù)據(jù)分析)可以處理一些圖片任務(wù)。

但這是通過(guò)調(diào)用Python庫(kù)實(shí)現(xiàn)的,而且也達(dá)不到AI中圖像識(shí)別的程度,和多模態(tài)模型更是不沾邊了。

02438dc6-5774-11ee-939d-92fbcf53809c.png

有說(shuō)法稱GPT-vision遲遲沒(méi)有推出的原因可能是對(duì)安全的擔(dān)憂,擔(dān)心被用于破解驗(yàn)證碼和人臉識(shí)別系統(tǒng)。

直到這次Google多模態(tài)模型Gemini的消息傳出。

025abb72-5774-11ee-939d-92fbcf53809c.png

安全問(wèn)題有沒(méi)有解決不得而知,但也許OpenAI是真的急了,不能任由谷歌超越,才有了模型發(fā)布的傳聞。

另?yè)?jù)爆料,OpenAI還在準(zhǔn)備從頭開(kāi)始開(kāi)發(fā)一個(gè)名為Gobi的多模態(tài)模型,不過(guò)訓(xùn)練還未開(kāi)始。

那么,谷歌這邊的情況又是怎樣的呢?

Gemini來(lái)勢(shì)洶洶

來(lái)勢(shì)洶洶的Gemini,讓網(wǎng)友直言其或?qū)⒊蔀橛螒蛞?guī)則的改變者。

026ce810-5774-11ee-939d-92fbcf53809c.png

甚至有媒體夸張一些地說(shuō)將有機(jī)會(huì)取代GPT-4。

0282117c-5774-11ee-939d-92fbcf53809c.png

Gemini主要由谷歌DeepMind團(tuán)隊(duì)開(kāi)發(fā)。谷歌CEO皮查伊介紹,Gemini集成了多種技術(shù),支持同時(shí)輸出文本和圖像,還可以使用工具和API。

據(jù)悉,Gemini吸取了很多來(lái)自AlphaGo的經(jīng)驗(yàn)教訓(xùn),包括強(qiáng)化學(xué)習(xí)和樹(shù)搜索技術(shù)。

而且,憑借著擁有YouTube這一得天獨(dú)厚的優(yōu)勢(shì),海量的訓(xùn)練數(shù)據(jù)可以說(shuō)是唾手可得。

實(shí)際上,Google也一直把OpenAI視為競(jìng)爭(zhēng)對(duì)手。

為了和ChatGPT較量,Google此前已經(jīng)在Bard中加入過(guò)圖像識(shí)別功能,但并未改變ChatGPT的地位。

但這次推出的Gemini,OpenAI也感到害怕了。

盡管競(jìng)爭(zhēng)激烈,有一點(diǎn)倒是讓谷歌和OpenAI不謀而合。

那就是,把模型的能力變成真金白銀。

谷歌計(jì)劃的Gemini提供方式是通過(guò)其Google Cloud Vertex AI云服務(wù)平臺(tái)進(jìn)行,預(yù)期價(jià)格為每個(gè)用戶每月30美元。

這一做法預(yù)計(jì)將成為谷歌新的收入來(lái)源,尤其是針對(duì)企業(yè)客戶。

而OpenAI這邊,也已經(jīng)開(kāi)始通過(guò)金融服務(wù)等各種應(yīng)用程序?qū)PT-4變?yōu)楝F(xiàn)金。

此次多模態(tài)的角逐究竟鹿死誰(shuí)手,我們拭目以待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3756

    瀏覽量

    52125
  • python
    +關(guān)注

    關(guān)注

    57

    文章

    4877

    瀏覽量

    90078
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1245

    瀏覽量

    10103

原文標(biāo)題:OpenAI最新大模型曝光!劍指多模態(tài),GPT-4之后最大升級(jí)!

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    商湯科技正式開(kāi)源模態(tài)自主推理模型SenseNova-MARS

    今日,商湯正式開(kāi)源模態(tài)自主推理模型 SenseNova-MARS(8B/32B 雙版本),其在模態(tài)搜索與推理的核心基準(zhǔn)測(cè)試中以 69.7
    的頭像 發(fā)表于 01-30 10:13 ?549次閱讀
    商湯科技正式開(kāi)源<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>自主推理<b class='flag-5'>模型</b>SenseNova-MARS

    商湯科技正式發(fā)布并開(kāi)源全新模態(tài)模型架構(gòu)NEO

    商湯科技正式發(fā)布并開(kāi)源了與南洋理工大學(xué)S-Lab合作研發(fā)的全新模態(tài)模型架構(gòu) —— NEO,為日日新SenseNova 模態(tài)
    的頭像 發(fā)表于 12-08 11:19 ?1026次閱讀
    商湯科技正式發(fā)布并開(kāi)源全新<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>模型</b>架構(gòu)NEO

    GPT-5.1發(fā)布 OpenAI開(kāi)始拼情商

    OpenAI正式上線了 GPT-5.1 Instant 以及 GPT-5.1 Thinking 模型;有網(wǎng)友實(shí)測(cè)發(fā)現(xiàn)OpenAI新發(fā)布的
    的頭像 發(fā)表于 11-13 15:49 ?709次閱讀

    亞馬遜云科技上線Amazon Nova模態(tài)嵌入模型

    Embeddings模態(tài)嵌入模型現(xiàn)已在Amazon Bedrock上線,這是一款專為Agentic RAG與語(yǔ)義搜索應(yīng)用打造的頂尖模態(tài)
    的頭像 發(fā)表于 10-29 17:15 ?272次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>嵌入<b class='flag-5'>模型</b>

    商湯日日新V6.5模態(tài)模型登頂全球權(quán)威榜單

    Pro)模態(tài)模型以82.2的綜合成績(jī)登頂榜首,領(lǐng)先Gemini 2.5 Pro以及GPT-5等國(guó)際頂尖模型。
    的頭像 發(fā)表于 09-10 09:55 ?805次閱讀

    米爾RK3576部署端側(cè)模態(tài)輪對(duì)話,6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM

    話:基于歷史回答圖中女孩頭發(fā)和衣服分別是什么顏色 上一次我們?cè)敿?xì)講解在RK3576上部署模態(tài)模型的案例,這次將繼續(xù)講解輪對(duì)話的部署流程。整體流程基于 rknn-llm 里的
    發(fā)表于 09-05 17:25

    淺析模態(tài)標(biāo)注對(duì)大模型應(yīng)用落地的重要性與標(biāo)注實(shí)例

    ”的關(guān)鍵工序——模態(tài)標(biāo)注重要性日益凸顯。 一、什么是模態(tài)標(biāo)注? 模態(tài)標(biāo)注是
    的頭像 發(fā)表于 09-05 13:49 ?2337次閱讀

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來(lái),NVIDIA 與 OpenAI 便開(kāi)始共同推動(dòng) AI 技術(shù)的邊界。此次 OpenAI gpt-oss-20b 和 gpt-oss-
    的頭像 發(fā)表于 08-15 20:34 ?2317次閱讀
    NVIDIA從云到邊緣加速<b class='flag-5'>OpenAI</b> <b class='flag-5'>gpt</b>-oss<b class='flag-5'>模型</b>部署,實(shí)現(xiàn)150萬(wàn)TPS推理

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價(jià)向美國(guó)政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語(yǔ)言模型GPT-5或?qū)l(fā)布。據(jù)外媒的報(bào)道,GPT-5很可能在周五凌晨發(fā)布。這是OpenAI在2023年的
    的頭像 發(fā)表于 08-07 14:13 ?1.2w次閱讀

    OpenAI發(fā)布2款開(kāi)源模型

    OpenAI開(kāi)源了兩款高性能權(quán)重語(yǔ)言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「
    的頭像 發(fā)表于 08-06 14:25 ?1033次閱讀

    “端云+模態(tài)”新范式:《移遠(yuǎn)通信AI大模型技術(shù)方案白皮書(shū)》正式發(fā)布

    模型技術(shù)方案的核心優(yōu)勢(shì)、落地路徑及標(biāo)桿案例,為行業(yè)智能化升級(jí)提供了可借鑒的實(shí)踐框架。洞察技術(shù)演進(jìn):AI大模型邁入“端云協(xié)同+模態(tài)”新階段
    的頭像 發(fā)表于 07-28 13:08 ?1240次閱讀
    “端云+<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>”新范式:《移遠(yuǎn)通信AI大<b class='flag-5'>模型</b>技術(shù)方案白皮書(shū)》正式發(fā)布

    模態(tài)感知+豆包大模型!家居端側(cè)智能升級(jí)

    的關(guān)鍵力量。星宸科技與豆包大模型的合作,將這一技術(shù)趨勢(shì)落實(shí)到實(shí)際應(yīng)用場(chǎng)景中,在智能家居、可穿戴設(shè)備以及連鎖店等領(lǐng)域引發(fā)了深刻變革。 ? 智能家居升級(jí) ? 陳立敬指出:“智能家居2.0需要大模型大腦”。在智能家居領(lǐng)域,
    的頭像 發(fā)表于 06-21 00:06 ?7130次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>感知+豆包大<b class='flag-5'>模型</b>!家居端側(cè)智能<b class='flag-5'>升級(jí)</b>

    商湯日日新SenseNova融合模態(tài)模型 國(guó)內(nèi)首家獲得最高評(píng)級(jí)的大模型

    近日,中國(guó)信息通信研究院(以下簡(jiǎn)稱“中國(guó)信通院”)完成可信AI模態(tài)模型首輪評(píng)估。 商湯日日新SenseNova融合模態(tài)模型在所有
    的頭像 發(fā)表于 06-11 11:57 ?1429次閱讀

    愛(ài)芯通元NPU適配Qwen2.5-VL-3B視覺(jué)模態(tài)模型

    熟悉愛(ài)芯通元NPU的網(wǎng)友很清楚,從去年開(kāi)始我們?cè)诙藗?cè)模態(tài)模型適配上一直處于主動(dòng)緊跟的節(jié)奏。先后適配了國(guó)內(nèi)最早開(kāi)源的模態(tài)大模MiniCP
    的頭像 發(fā)表于 04-21 10:56 ?3166次閱讀
    愛(ài)芯通元NPU適配Qwen2.5-VL-3B視覺(jué)<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    海康威視發(fā)布模態(tài)模型AI融合巡檢超腦

    基于??涤^瀾大模型技術(shù)體系,??低曂瞥鲂乱淮?b class='flag-5'>多模態(tài)模型AI融合巡檢超腦,全面升級(jí)人、車、行為、事件等算法,為行業(yè)帶來(lái)全新的
    的頭像 發(fā)表于 04-17 17:12 ?1635次閱讀