91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對話三位IEEE專家:如何理解SAM視覺大模型

IEEE電氣電子工程師 ? 來源:IEEE電氣電子工程師 ? 2023-08-23 16:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

正在流行的視覺AI大模型SAM究竟是一種什么樣的技術(shù),會形成什么樣的產(chǎn)業(yè)影響?經(jīng)濟觀察報就此采訪三位IEEE(電氣電子工程師學(xué)會)專家,解讀了視覺大模型SAM技術(shù)、應(yīng)用路線以及對原有產(chǎn)業(yè)的影響。

今年4月,Meta公布了一款名為SAM(Segment Anything Model)的技術(shù),這是一款用于圖像分割的AI大模型,會對圖像進行觀察、感知、思考、邏輯推理、得出結(jié)果,且操作極其簡單,類似于ChatGPT用人類語言對話的方式給機器下命令。

IEEE高級會員、天津理工大學(xué)教授、AR/VR技術(shù)專家羅訓(xùn)對記者表示,SAM是視覺領(lǐng)域的通用大模型,很多報道中把它比喻成視覺領(lǐng)域的ChatG-PT,SAM和ChatGPT的支撐技術(shù)和應(yīng)用場景都是不同的,但是在通用性這一點上,它們都是當(dāng)前技術(shù)發(fā)展趨勢的代表者。

SAM技術(shù)、應(yīng)用路線和顛覆性

作為AI的一個重要分支,機器視覺的目標(biāo)是讓計算機模仿人類視覺系統(tǒng),實現(xiàn)圖像和視頻的理解和處理。

IEEE數(shù)字化轉(zhuǎn)型聯(lián)合會策略與架構(gòu)主席汪齊齊對記者表示,高效準(zhǔn)確的圖像分割結(jié)果,對于日常生活和商業(yè)場景,甚至科研領(lǐng)域都具有重大意義。正因為如此,其在計算機視覺領(lǐng)域一直是個重要的課題。SAM的圖像分割功能,是機器視覺的核心任務(wù)之一。過去,機器視覺分割圖像的過程需要大量圖像標(biāo)注、堆疊算法,消耗大量算力。如今,SAM更容易地實現(xiàn)了機器視覺的目標(biāo)。

Meta將SAM大模型和背后數(shù)據(jù)集一并開源,相關(guān)的研究手稿也于今年4月5日發(fā)布在arXiv上(用于學(xué)術(shù)交流的預(yù)印本平臺),作者有Alexander Kirillov,Eric Mintun等12人。

此后,SAM在開源社區(qū)Github上獲得大量關(guān)注,一些華人學(xué)者又照此原理提出了相關(guān)的大模型GroundingDI-NO,用于物體檢測,不久GitHub上有人再創(chuàng)新,將GroundingDINO和SAM結(jié)合,達到了對圖像識別、檢測、分割的效果。

汪齊齊表示,該模型在準(zhǔn)確程度、效率上,達到了驚人的提升。尤其是SAM開源的SA-1B數(shù)據(jù)庫,用巨量的圖像以及更加巨量的Mask(這里譯為圖層遮罩),將有助于許多科研項目和商業(yè)化項目在高起點上快速更新迭代,產(chǎn)生更好的模型和更優(yōu)化的數(shù)據(jù)。

Meta從AR、VR、內(nèi)容創(chuàng)建等領(lǐng)域,介紹了SAM的應(yīng)用場景。中國的專家看到了更廣泛的應(yīng)用場景。

羅訓(xùn)對記者表示,鑒于計算機視覺的廣泛應(yīng)用場景,SAM的發(fā)布對產(chǎn)業(yè)的影響也會是巨大的,會賦能更多的長尾創(chuàng)新者進入產(chǎn)業(yè),并進一步豐富應(yīng)用場景和商業(yè)模式。

汪齊齊表示,早前人工智能技術(shù)就能實現(xiàn)回答用戶問題的功能,而Chat-GPT第一次讓很多人產(chǎn)生了“生成的回復(fù)可以在接受的比例下用于日常、商用和科研”,并因此達到了在這個垂直領(lǐng)域前所未有的高度。目前SAM的分割結(jié)果,以及其公開的大量供公眾使用的資源來看,SAM在其擅長的垂直領(lǐng)域也達到了相當(dāng)可觀的高度,并會從技術(shù)、數(shù)據(jù)以及對于這個領(lǐng)域的關(guān)注度等多方面幫助計算機視覺在短時間內(nèi)產(chǎn)生大量突破,而計算機視覺,是一個非常重要的“廣義AI生態(tài)”中的基礎(chǔ)設(shè)施,該方面的突破將實現(xiàn)對數(shù)字化世界的理解和升級,帶來質(zhì)變的效率和價值提升。

IEEE會士、河海大學(xué)信息科學(xué)與工程學(xué)院院長韓光潔對記者表示,SAM將會在自動駕駛、安防控制、醫(yī)學(xué)影像處理等應(yīng)用領(lǐng)域改變業(yè)態(tài)布局,甚至引發(fā)技術(shù)革命。SAM作為一個基礎(chǔ)模型,可為這些應(yīng)用領(lǐng)域快速孵化出適用性更強的專用網(wǎng)絡(luò)模型。

SAM的變革性可能會顛覆一批原有的AI技術(shù)優(yōu)勢。汪齊齊表示,視覺大模型會在相當(dāng)多的領(lǐng)域抵消技術(shù)壁壘,這在任何一次產(chǎn)業(yè)技術(shù)升級中都多次出現(xiàn),也是無法避免的。

羅訓(xùn)表示,通用大模型就相當(dāng)于AI的能力開放平臺,之前頭部企業(yè)的AI能力優(yōu)勢,會因為通用大模型的興起而被一定程度削弱。但是這些企業(yè)是否本身會變?nèi)?,取決于它們的轉(zhuǎn)型。

羅訓(xùn)舉例稱,回顧移動計算在本世紀前十年的變化,iOS和安卓的能力開放平臺在賦能長尾創(chuàng)新者方面起到了非常重要的作用,極大增加了移動計算產(chǎn)業(yè)規(guī)模。在移動計算領(lǐng)域,WindowsMobile和塞班的封閉平臺最終因為缺乏競爭力而退出了市場。

汪齊齊表示,作為有核心技術(shù)儲備和深入理解的企業(yè),首先是需要擁抱大模型,尤其是應(yīng)該感謝相對公開的大模型,將自己對于產(chǎn)業(yè)的理解和領(lǐng)先部分,在大模型的加持下快速升級,演化出更新的形態(tài)。同時,計算機視覺領(lǐng)域也一定會有大模型目前還不擅長的領(lǐng)域,仍然可以作為技術(shù)壁壘,并在這些方面繼續(xù)深挖獨有優(yōu)勢。

AIGC帶來知識和技術(shù)的平權(quán)?

此前有科技企業(yè)表示,AIGC的本質(zhì)是技術(shù)平權(quán)和知識平權(quán),這在很大程度上將大廠與小廠拉到了同一起跑線上。

羅訓(xùn)就該觀點對記者表示,技術(shù)和知識平權(quán)的說法并不是很準(zhǔn)確,因為之前并沒有系統(tǒng)性的歧視。AIGC帶來的是“易得”,本質(zhì)上是市場規(guī)模急劇擴大后的成本降低。AIGC會促進整個社會對算力和計算模式使用的轉(zhuǎn)型升級,大規(guī)模提高AI使用者的生產(chǎn)效率,同時利好AI軟硬件設(shè)施生態(tài)企業(yè)。過程中,巨頭和大廠是技術(shù)進步的先期投入者,它們在其周期內(nèi)獲取回報也是合理的,因為它們付出了更高的成本,也承擔(dān)了更大的風(fēng)險。

汪齊齊認為,AIGC確實帶來了一定的技術(shù)平權(quán),但技術(shù)本身是有一個價值屬性的。例如,曾經(jīng)做網(wǎng)頁可以帶來不菲的收入,隨著工具升級和模板的完善,一個漂亮網(wǎng)頁制作難度數(shù)量級地下降,但是他帶來的價值也產(chǎn)生數(shù)量級地下降。

同樣,AIGC將一個需要大量技術(shù)和知識儲備才能產(chǎn)生優(yōu)質(zhì)內(nèi)容的時代,帶入輕易產(chǎn)生的優(yōu)質(zhì)內(nèi)容的時代,這會讓原有定義的“優(yōu)質(zhì)內(nèi)容”的平均價值急速下降。

汪齊齊表示,AIGC是否帶來了知識平權(quán)仍然有待商榷。長期來看,AIGC可能會使人們更容易獲取到真實有用的知識。但是今天,人們還處于“技術(shù)帶來了前所未有的體量的知識,也同時讓篩選這些知識的可用度達到了前所未有的高成本”。

汪齊齊表示,盡管AIGC可以產(chǎn)生大量的知識和內(nèi)容,但其準(zhǔn)確性和可信度是個挑戰(zhàn),相當(dāng)部分AIGC是基于老的訓(xùn)練數(shù)據(jù),“一本正經(jīng)供應(yīng)錯誤知識”的案例已經(jīng)有很多。目前在大量、無法辨別真?zhèn)蔚臄?shù)據(jù)和內(nèi)容的情況下,是否真正達到了知識平權(quán),是要打問號的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • SAM
    SAM
    +關(guān)注

    關(guān)注

    0

    文章

    118

    瀏覽量

    34402
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1598

    瀏覽量

    10281
  • AIGC
    +關(guān)注

    關(guān)注

    1

    文章

    391

    瀏覽量

    3228
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3653

    瀏覽量

    5195

原文標(biāo)題:對話三位IEEE專家:如何理解SAM視覺大模型

文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    商湯科技NEO-unify如何打造原生視覺語言理解與生成

    當(dāng)前,多模態(tài)模型普遍采用“視覺編碼器(VE)用于理解,變分自編碼器(VAE)用于生成”的組合式設(shè)計。這套范式雖行之有效,卻也內(nèi)在割裂了感知與創(chuàng)造,常面臨模塊協(xié)同與效率權(quán)衡的挑戰(zhàn)。
    的頭像 發(fā)表于 03-10 14:37 ?153次閱讀
    商湯科技NEO-unify如何打造原生<b class='flag-5'>視覺</b>語言<b class='flag-5'>理解</b>與生成

    Atmel SAM3S系列32Flash微控制器深度剖析

    Atmel SAM3S系列32Flash微控制器深度剖析 在當(dāng)今的電子世界中,高性能、低功耗的微控制器是眾多電子設(shè)備的核心。Atmel的SAM3S系列32Flash微控制器,憑借其
    的頭像 發(fā)表于 02-25 11:40 ?200次閱讀

    SAM(通用圖像分割基礎(chǔ)模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出的一個分割一切的提示型模型,其在1100萬張圖像上訓(xùn)練了超過10億個掩碼,實現(xiàn)了強大的零樣本泛化,突破了分割界限。本例程對SAM官方開源倉庫的模型和算法進行移植
    的頭像 發(fā)表于 01-12 16:17 ?314次閱讀
    <b class='flag-5'>SAM</b>(通用圖像分割基礎(chǔ)<b class='flag-5'>模型</b>)丨基于BM1684X<b class='flag-5'>模型</b>部署指南

    云知聲推出醫(yī)療領(lǐng)域專家模型“山?!ぶt(yī)大模型5.0”

    剛剛,云知聲正式推出醫(yī)療領(lǐng)域專家級大模型全新力作——“山海?知醫(yī)大模型5.0”。這一里程碑式的發(fā)布,標(biāo)志著其醫(yī)療大模型完成了從“智能工具”到“臨床協(xié)作者”的關(guān)鍵跨越,以更深刻的醫(yī)學(xué)
    的頭像 發(fā)表于 12-24 18:12 ?4350次閱讀

    AI、量子通信與JCAP:6G時代的“三位一體“革命

    100%的覆蓋可靠性 然而,這些數(shù)字背后隱藏著更深層的挑戰(zhàn): 太空與地面的無縫連接 絕對安全的信息傳輸 厘米級的實時定位 要實現(xiàn)這些突破,僅靠單點技術(shù)創(chuàng)新已無法滿足需求。AI、量子通信和聯(lián)合通信與定位(JCAP)大技術(shù)的深度融合,正在構(gòu)建6G的"三位一體"核心架構(gòu)。
    的頭像 發(fā)表于 11-07 11:11 ?632次閱讀
    AI、量子通信與JCAP:6G時代的“<b class='flag-5'>三位</b>一體“革命

    廣和通發(fā)布端側(cè)情感對話模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的端側(cè)情感對話模型FiboEmo-LLM。該模型專注于情感計算與自然語言交互融合,致力于為AI玩具、智能陪伴設(shè)備等終端場景提供“情感理解-情感響應(yīng)”一體化
    的頭像 發(fā)表于 09-26 13:37 ?1912次閱讀

    大規(guī)模專家并行模型在TensorRT-LLM的設(shè)計

    DeepSeek-V3 / R1 等模型采用大規(guī)模細粒度混合專家模型 (MoE) 架構(gòu),大幅提升了開源模型的質(zhì)量。Llama 4 和 Qwen3 等新發(fā)布的開源
    的頭像 發(fā)表于 09-06 15:21 ?1238次閱讀
    大規(guī)模<b class='flag-5'>專家</b>并行<b class='flag-5'>模型</b>在TensorRT-LLM的設(shè)計

    米爾RK3576部署端側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    通過硬件算力優(yōu)化與軟件棧協(xié)同,將視覺編碼、語言推理、對話管理大核心能力封裝為可落地的工程方案,而本文將聚焦其多輪對話的部署全流程,拆解從模型
    發(fā)表于 09-05 17:25

    格靈深瞳視覺基礎(chǔ)模型Glint-MVT的發(fā)展脈絡(luò)

    》主題演講,從熱點話題“世界模型”引入,介紹格靈深瞳自研視覺基礎(chǔ)模型Glint-MVT的發(fā)展脈絡(luò)和技術(shù)亮點,講述視覺模型基座如何讓AI
    的頭像 發(fā)表于 09-05 17:13 ?1712次閱讀
    格靈深瞳<b class='flag-5'>視覺</b>基礎(chǔ)<b class='flag-5'>模型</b>Glint-MVT的發(fā)展脈絡(luò)

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗】基于MOE混合專家模型的學(xué)習(xí)和思考-2

    時,它的權(quán)重就會增大,而當(dāng)它的誤差大于此加權(quán)平均值時,它的權(quán)重就會減小。所以,使用這種損失函數(shù)訓(xùn)練出來的模型,各專家網(wǎng)絡(luò)之間是競爭關(guān)系,而不是合作關(guān)系。正是這種“競爭上崗”的模式,形成了動態(tài)加載的效果
    發(fā)表于 08-23 17:00

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗】+混合專家

    :路由專家) 這種創(chuàng)新讓AI的推理過程更接近人類思維,為解決復(fù)雜問題提供了新的思路。 共享專家宛如一知識淵博的通才,它始終參與模型的每一次運算,就像一個穩(wěn)定的基石,為整個
    發(fā)表于 07-22 22:14

    超聲波T-SAM與C-SAM模式的區(qū)別

    本文介紹了超聲波的T-SAM與C-SAM兩種模式的區(qū)別。
    的頭像 發(fā)表于 05-21 15:26 ?1604次閱讀
    超聲波T-<b class='flag-5'>SAM</b>與C-<b class='flag-5'>SAM</b>模式的區(qū)別

    基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL多模態(tài)理解模型

    多模態(tài)理解模型是讓AI像人類一樣,通過整合多維度信息(如視覺、語言、聽覺等),理解數(shù)據(jù)背后的語義、情感、邏輯或場景,從而完成推理、決策等任務(wù)。
    的頭像 發(fā)表于 04-18 09:30 ?3037次閱讀
    基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL多模態(tài)<b class='flag-5'>理解</b><b class='flag-5'>模型</b>

    蔡司CIMT2025 | 新品天團第三位成員ZEISS ScanPort亮相 – 一鍵掃描,效率倍增!

    蔡司CIMT2025 | 新品天團第三位成員ZEISS ScanPort亮相 – 一鍵掃描,效率倍增! ? ? 蔡司新品組團出道 ? 您是否正在尋找一款 移動靈活的 自動化維光學(xué)掃描系統(tǒng) 為您提
    發(fā)表于 04-11 15:27 ?453次閱讀
    蔡司CIMT2025 | 新品天團第<b class='flag-5'>三位</b>成員ZEISS ScanPort亮相 – 一鍵掃描,效率倍增!

    ?VLM(視覺語言模型)?詳細解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型,能夠理解
    的頭像 發(fā)表于 03-17 15:32 ?8903次閱讀
    ?VLM(<b class='flag-5'>視覺</b>語言<b class='flag-5'>模型</b>)?詳細解析