91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于深度學(xué)習(xí)用于多模態(tài)語義學(xué)習(xí)的簡述

獨(dú)愛72H ? 來源:網(wǎng)絡(luò)整理 ? 作者:佚名 ? 2020-04-15 17:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

(文章來源:網(wǎng)絡(luò)整理)

互聯(lián)網(wǎng)用戶所創(chuàng)造的“內(nèi)容”正在迅猛增長,從不同渠道涌現(xiàn)的文本、圖像和視頻等不同類型的媒體數(shù)據(jù)以及用戶信息更加緊密混合。它們正在以一種新的形式,更為形象綜合地表達(dá)語義、主題和事件。針對當(dāng)前媒體數(shù)據(jù)呈現(xiàn)出的特點進(jìn)行深入研究已成為學(xué)術(shù)熱點,多種類型媒體數(shù)據(jù)依賴共存,各種平臺和應(yīng)用的數(shù)據(jù)來源廣泛,個體和群體參與數(shù)據(jù)產(chǎn)生的用戶交互史無前例。

谷歌的前任研究主管皮特·諾文(Perter Norvig)博士曾在2010年《自然》雜志上發(fā)表文章《2020愿景》,指出今后10年,文本、圖像、視頻等數(shù)據(jù)以及用戶交互信息和各種傳感器信息將混合在一起,從搜索角度看,搜索引擎對檢索結(jié)果進(jìn)行的是內(nèi)容綜合而非數(shù)據(jù)羅列,這也將是谷歌今后面臨的巨大挑戰(zhàn)。我國也同樣重視“跨媒體”研究,國家科技部于2011年11月啟動了973計劃項目“面向公共安全的跨媒體計算理論與方法”,對“跨媒體”的表達(dá)建模、語義學(xué)習(xí)、挖掘推理和搜索排序等核心問題開展了理論研究。目前,媒體計算需要重點解決的兩個難點是消除“異構(gòu)鴻溝”和“語義鴻溝。

傳統(tǒng)的媒體計算研究方法主要從手工構(gòu)建的底層特征出發(fā),利用機(jī)器學(xué)習(xí)方法填補(bǔ)異構(gòu)鴻溝和語義鴻溝。與傳統(tǒng)方法不同深度學(xué)習(xí)是通過將無監(jiān)督逐層預(yù)訓(xùn)練與有監(jiān)督微調(diào)(fine-tuning)有機(jī)結(jié)合,實現(xiàn)端到端方式的特征學(xué)習(xí)。其基本動機(jī)是構(gòu)建多層網(wǎng)絡(luò)來學(xué)習(xí)隱含在數(shù)據(jù)內(nèi)部的關(guān)系,從而使學(xué)習(xí)得到的特征具有更強(qiáng)的表達(dá)力和泛化能力。

在大規(guī)模數(shù)據(jù)上進(jìn)行的實驗表明:通過深度學(xué)習(xí)得到的特征表示在自然語言處理(詞向量學(xué)習(xí))、知識圖譜構(gòu)建、圖像分類和語音識別等領(lǐng)域表現(xiàn)出良好的性能。例如谷歌研究組在2014年大規(guī)模視覺識別挑戰(zhàn)賽中采用改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)GoogLeNet,將圖像識別準(zhǔn)確率提升到93.3%。

通常,在媒體語義理解過程中可獲取不同類型的媒體數(shù)據(jù),如:新聞報道包含了文字和文字對應(yīng)的圖像,視頻包含了視覺和聽覺信息。不同類型的媒體數(shù)據(jù)從不同側(cè)面反映了高層語義,因此多模態(tài)語義學(xué)習(xí)需要對不同模態(tài)的信息進(jìn)行整合。1976年,麥格克(McGurk)等人驗證了人類對外界信息的認(rèn)知是基于不同感官信息而形成的整體性理解,任何感官信息的缺乏或不準(zhǔn)確,都將導(dǎo)致大腦對外界信息的理解產(chǎn)生偏差,這個現(xiàn)象被稱為“McGurk現(xiàn)象”。McGurk現(xiàn)象揭示了大腦在進(jìn)行感知時,不同感官會被無意識地自動結(jié)合在一起對信息進(jìn)行處理。

由于深度學(xué)習(xí)具有通過逐層抽象來形成良好特征的能力,因此可利用該方法來形成不同類型數(shù)據(jù)的聯(lián)合特征表示。具體方法有深度典范相關(guān)分析(Deep Caconical Correlation Analysis,Deep CCA)、多模態(tài)深度學(xué)習(xí)以及多模態(tài)玻爾茲曼機(jī)等。這些方法的基本思路是通過不同的深層模型對不同類型數(shù)據(jù)進(jìn)行逐層學(xué)習(xí),將學(xué)習(xí)得到的結(jié)果進(jìn)行合并,以得到多模態(tài)聯(lián)合特征表示,最后要求多模態(tài)聯(lián)合特征能有效重建原始不同類型數(shù)據(jù)或表達(dá)相關(guān)語義概念。為了得到更好的深層模型,一般在深層模型的最頂端設(shè)計反映不同類型數(shù)據(jù)相互耦合的損失函數(shù)來對模型進(jìn)行優(yōu)化反饋。

將深度學(xué)習(xí)應(yīng)用于語義概念識別和理解時,有兩種方法:(1)將深度學(xué)習(xí)得到的特征表示直接輸入給判別分類模型(如支持向量機(jī)等);(2)通過softmax函數(shù)或回歸函數(shù)對輸人數(shù)據(jù)、隱含層和輸出層(語義標(biāo)簽)之間的概率分布進(jìn)行建模,然后基于互信息熵最小或間隔距離最大等準(zhǔn)則對模型進(jìn)行優(yōu)化。

有人的理論研究結(jié)果表明:在機(jī)器學(xué)習(xí)中,如果對模型本身的假設(shè)產(chǎn)生偏差,則會影響學(xué)習(xí)結(jié)果。因此,如何合理引入數(shù)據(jù)本身所具有的先驗知識和結(jié)構(gòu)線索,來構(gòu)造和微調(diào)深層模型使之更好地處理多模態(tài)數(shù)據(jù),是一個亟待解決的問題。因此,一些研究開始在生成式深層模型或區(qū)別式深層模型中引入數(shù)據(jù)本身所具有的先驗結(jié)構(gòu),以提升特征學(xué)習(xí)的泛化能力和區(qū)別能力。有人在卷積神經(jīng)網(wǎng)絡(luò)輸出端引入層次化概念樹來促進(jìn)關(guān)聯(lián)語義所具有的共享特征的學(xué)習(xí),有人通過非參貝葉斯假設(shè)來提高判別性語義特征學(xué)習(xí)的靈活度。
(責(zé)任編輯:fqj)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    2026視覺檢測產(chǎn)業(yè)深度調(diào)研及未來趨勢分析

    視覺檢測技術(shù)融合深度學(xué)習(xí)模態(tài)傳感,實現(xiàn)從輔助工具向決策中樞的轉(zhuǎn)變,推動智能制造與工業(yè)4.0發(fā)展。
    的頭像 發(fā)表于 04-01 09:26 ?104次閱讀
    2026視覺檢測產(chǎn)業(yè)<b class='flag-5'>深度</b>調(diào)研及未來趨勢分析

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問世以來,多個在線領(lǐng)域的數(shù)字化格局迎來了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競爭優(yōu)勢,而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)(ML)的深度應(yīng)用,徹底重塑了整個行業(yè)的發(fā)展模
    的頭像 發(fā)表于 02-04 14:44 ?623次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?301次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個常見錯誤與局限性

    穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實時檢測,頂頭丟失報警,頂頭異常狀態(tài)報警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測頂頭溫度,配備吹掃清潔系統(tǒng),維護(hù)周期長
    發(fā)表于 12-22 14:33

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課(11大系列課程,共5000+分鐘)

    強(qiáng)化 無監(jiān)督學(xué)習(xí)應(yīng)用:無需NG樣本的缺陷檢測方案,解決工業(yè)數(shù)據(jù)標(biāo)注難題 模態(tài)融合技術(shù):PaddleOCR+YOLOv8聯(lián)動方案,實現(xiàn)\"文字識別+缺陷定位\"一體化 團(tuán)購課程大綱
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課程(11大系列課程,共5000+分鐘)

    強(qiáng)化 無監(jiān)督學(xué)習(xí)應(yīng)用:無需NG樣本的缺陷檢測方案,解決工業(yè)數(shù)據(jù)標(biāo)注難題 模態(tài)融合技術(shù):PaddleOCR+YOLOv8聯(lián)動方案,實現(xiàn)\"文字識別+缺陷定位\"一體化 團(tuán)購課程大綱
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?284次閱讀

    亞馬遜云科技上線Amazon Nova模態(tài)嵌入模型

    Embeddings模態(tài)嵌入模型現(xiàn)已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應(yīng)用打造的頂尖模態(tài)
    的頭像 發(fā)表于 10-29 17:15 ?334次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>嵌入模型

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進(jìn)行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概
    的頭像 發(fā)表于 09-10 17:38 ?1000次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    淺析模態(tài)標(biāo)注對大模型應(yīng)用落地的重要性與標(biāo)注實例

    ”的關(guān)鍵工序——模態(tài)標(biāo)注重要性日益凸顯。 一、什么是模態(tài)標(biāo)注? 模態(tài)標(biāo)注是指對文本、圖像、
    的頭像 發(fā)表于 09-05 13:49 ?2635次閱讀

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級結(jié)構(gòu),能夠自動從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級能力。以下從技術(shù)賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1151次閱讀

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動駕駛領(lǐng)域,部分廠商開始嘗試將模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過時”的激烈爭論。然而,從技術(shù)原理、算力成本、安全需求與
    的頭像 發(fā)表于 08-13 09:15 ?4322次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    研華科技攜手創(chuàng)新奇智推出模態(tài)大模型AI一體機(jī)

    這是一款基于研華高性能邊緣計算平臺MIC-733,深度集成創(chuàng)新奇智視覺小模型與模態(tài)大模型的邊緣智能終端,通過創(chuàng)新的“視覺識別 + 深度語義
    的頭像 發(fā)表于 07-17 17:14 ?1034次閱讀
    研華科技攜手創(chuàng)新奇智推出<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大模型AI一體機(jī)

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    無監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1566次閱讀
    使用MATLAB進(jìn)行無監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL模態(tài)理解模型

    模態(tài)理解模型是讓AI像人類一樣,通過整合多維度信息(如視覺、語言、聽覺等),理解數(shù)據(jù)背后的語義、情感、邏輯或場景,從而完成推理、決策等任務(wù)。
    的頭像 發(fā)表于 04-18 09:30 ?3178次閱讀
    基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>理解模型