91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

為什么深度模型在 CV 領域好使,但用在圖網絡上就這么難呢?

新機器視覺 ? 來源:https://www.zhihu.com/people/Z ? 作者:Zhihong Deng ? 2020-11-20 16:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

“強基固本,行穩(wěn)致遠”,科學研究離不開理論基礎,人工智能學科更是需要數(shù)學、物理、神經科學等基礎學科提供有力支撐,為了緊扣時代脈搏,我們推出“強基固本”專欄,講解AI領域的基礎知識,為你的科研學習提供助力,夯實理論基礎,提升原始創(chuàng)新能力,敬請關注。

作者:Zhihong Deng

地址:https://www.zhihu.com/people/Zhi-Hong.Deng

最近看了 Michael Bronstein 教授寫的一篇博客,分析得挺好的,簡單分享一下。 深度學習,特別是 CV 領域的模型,往往有數(shù)十上百層,與此相比,在圖“深度學習”中(大部分工作都 ≤5 層,談不上深,所以加個引號吧),大部分模型架構都是淺層的,設計深度模型到底有沒有用呢? 現(xiàn)有的一些工作告訴我們,訓練深度圖神經網絡是很難的,除了深度學習的傳統(tǒng)問題(梯度消失和過擬合)之外,針對圖本身的特性,還需要克服另外兩個問題:

過渡平滑:使用多個卷積層后,結點特征趨向于收斂到相同或相似的向量,這使它們變得難以區(qū)分[1][2][3]。

過度壓縮:在使用多層圖網絡后,鄰居數(shù)量指數(shù)級增長,要將大量的結點信息壓縮到一個結點上就會存在過度壓縮的問題,這也稱為瓶頸現(xiàn)象[4]。

上表展示了幾種嘗試解決深度問題的方法,包括殘差連接和兩種歸一化技術。可以看出隨著網絡層級加深,GCN-res 效果急劇變差。PairNorm 相對穩(wěn)定,但降低了性能。NodeNorm 效果最佳,但它的最佳效果是在兩層圖網絡時取得的。這個實驗告訴我們,要將深度圖網絡帶來的提升和訓練它所需要的技巧分開討論是很難的。 為什么深度模型在 CV 領域這么好使,但用在圖網絡上就這么難呢?作者給出了幾個觀點:

01圖的結構

現(xiàn)有工作告訴我們,在分子圖、點云和網格(圖像也可以看作是一種網格狀的圖)上使用深度圖網絡是有效的,這些圖跟我們常用以評估圖神經網絡效果的引用網絡(例如:Cora、PubMed 或 CoauthorCS)等有何不同呢?下圖就給出一個很清晰的示例:

我們常用的引用網絡這一類圖往往屬于直徑較小的小世界網絡,簡單點講就是圖中任意兩個結點的距離都比較近,幾跳就能到達,使用更深的網絡架構并不會擴大感受野;相比之下,在網格(比如圖像)這一類圖中,增加層數(shù)能讓感受野成倍增長,從而更好地捕捉到上下文。使用不同顏色標注不同層數(shù)所能到達的結點,可以看到,同樣是12個結點的圖,左圖僅用兩種顏色就夠了,右圖則用了6種顏色。

02短程與遠程信息

根據(jù)問題的特性,有的問題則可以通過短距離的信息解決,比如社交網絡中,預測往往僅依賴于結點的局部鄰居;有的問題可能需要更長距離的信息,比如分子圖種分子的化學性質可能取決于另一側的原子組合,這就需要深度圖網絡來組合這些遠程信息。但是隨著層數(shù)增多,如果圖結構會引起結點感受野的指數(shù)級增長,那么瓶頸現(xiàn)象就會阻止遠程信息的有效傳播:

上圖就展示了一個例子,在使用深度圖網絡時,我們需要把多個結點的信息整合到一個結點中并迭代此過程,所以傳播過程中可能會丟失不少有用的信息,也就解釋了為什么深度模型難以提高性能。

03理論局限

我們在使用深度神經網絡的時候,往往可以做一些可視化分析,比如 CNN 可以將每一層學到的特征做一個可視化:

淺層神經元學到是比較簡單的特征,比如某些紋理、線條;深層神經元學到的則是更復雜的一些特征,比如眼睛,鼻子等等。但是,圖神經網絡里也能這么分析嗎?多層的圖網絡也能學到逐漸復雜的性質嗎?我們目前尚不清楚哪些圖形性質可以用淺層圖網絡學到,哪些需要更深的網絡,哪些是根本無法計算的。

04深度 vs. 豐富度

在 CV 中,因為所有圖像都是非常規(guī)則的網格結構,所以結構就變得不再重要的,但在圖深度學習中,結構是很重要的,如何設計更復雜的,可以處理高階信息(比如:各種motif)的消息傳遞機制仍有待探索。目前大家主要關注的還是1-跳卷積,但我們可以設計出多跳的filter,比如 SIGN 這篇論文。有趣的是,這跟 CV 領域的發(fā)展歷程恰恰相反,CV 領域早期的淺層模型一般使用的是大型 filter(比如:11×11),后來逐漸發(fā)展到使用小型 filter(比如 :3×3)的深度模型。這里作者想表達的“豐富度”的意思應該是指,我們是不是也能像 CV 里 GoogLeNet 那樣使用Inception模塊,同時使用1-跳卷積,2-跳卷積等多種 filter(對應 CV 里的 3×3、5×5 等等),這其實也會間接地幫助到信息的有效傳播。

05評估

最后但或許也很重要的一點就是評估方法,一些常見的基準數(shù)據(jù)集和方法未必能準確評估圖神經網絡的效果,我們觀察到深度圖網絡在一些數(shù)據(jù)集上性能隨深度下降,或許僅僅是因為數(shù)據(jù)集太小,發(fā)生了過擬合。斯坦福新推出的 Open Graph Benchmark 可以解決部分問題,它提高了大規(guī)模的圖數(shù)據(jù),并給定了訓練和測試數(shù)據(jù)的劃分方式。 [1] More precisely, over-smoothing makes node feature vector collapse into a subspace, see K. Oono and T. Suzuki,Graph neural networks exponentially loose expressive power for node classification(2019). arXiv:1905.10947, which provides asymptotic analysis using dynamic systems formalist. [2] Q. Li, Z. Han, X.-M. Wu,Deeper insights into graph convolutional networks for semi-supervised learning(2019). Proc. AAAI. Draws the analogy between the GCN model and Laplacian smoothing and points to the over-smoothing phenomenon. [3] H. Nt and T. Maehara,Revisiting graph neural networks: All we have is low-pass filters(2019). arXiv:1905.09550. Uses spectral analysis on graphs to answer when GCNs perform well. [4] U. Alon and E. Yahav,On the bottleneck of graph neural networks and its practical implications(2020). arXiv:2006.05205. Identified the over-squashing phenomenon in graph neural networks, which is similar to one observed in sequential recurrent models.

聲明:部分內容來源于網絡,僅供讀者學術交流之目的。文章版權歸原作者所有。如有不妥,請聯(lián)系刪除。

責任編輯:PSY

原文標題:我們真的需要深度圖神經網絡嗎?

文章出處:【微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 網絡
    +關注

    關注

    14

    文章

    8281

    瀏覽量

    94971
  • CV
    CV
    +關注

    關注

    0

    文章

    54

    瀏覽量

    17620
  • 深度學習
    +關注

    關注

    73

    文章

    5599

    瀏覽量

    124434

原文標題:我們真的需要深度圖神經網絡嗎?

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    面向嵌入式部署的神經網絡優(yōu)化:模型壓縮深度解析

    更多參數(shù)、每次推理需要更多算術運算,使其難以部署嵌入式硬件。 對于嵌入式系統(tǒng)而言,資源極其有限。內存空間受限,因此桌面或云平臺上輕松運行的模型可能無法放入芯片內的閃存。此外,較高
    的頭像 發(fā)表于 02-24 15:37 ?5086次閱讀
    面向嵌入式部署的神經<b class='flag-5'>網絡</b>優(yōu)化:<b class='flag-5'>模型</b>壓縮<b class='flag-5'>深度</b>解析

    攻擊逃逸測試:深度驗證網絡安全設備的真實防護能力

    攻擊逃逸測試通過主動模擬協(xié)議混淆、流量分割、時間延遲等高級規(guī)避技術,能夠深度驗證網絡安全設備的真實防護能力。這種測試方法不僅能精準暴露檢測引擎的解析盲區(qū)和策略缺陷,還能有效評估防御體系面對隱蔽攻擊
    發(fā)表于 11-17 16:17

    openDACS 2025 開源EDA與芯片賽項 賽題七:基于大模型的生成式原理設計

    領域,對促進產業(yè)高質量發(fā)展具有重要意義。本賽項包含7道賽題,下面是賽題七 基于大模型的生成式原理設計的介紹。 2. 命題單位及賽題Chair 2.1 命題單位 openDACS工作委員會、復旦大學
    發(fā)表于 11-13 11:49

    構建CNN網絡模型并優(yōu)化的一般化建議

    ,從而得到對我們有價值的識別信息。這種迭代性并不是十分必要的,因為從實踐來看,即使只有單層網絡模型,只要擁有充分數(shù)量的神經元,也可以獲得較高的準確率。不過該種方式的一個重要缺點就是參數(shù)重多,導致
    發(fā)表于 10-28 08:02

    Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗

    本帖欲分享Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓練框架,目標是訓練一個手寫數(shù)字識別的神經
    發(fā)表于 10-22 07:03

    【內測活動同步開啟】這么???這么強?新一代大模型MCP開發(fā)板來啦!

    【內測活動同步開啟】這么???這么強?新一代大模型MCP開發(fā)板來啦! 聆思全新一代六合一芯片「LS26系列」,搭載WIFI / BLE & BT / NPU,與「小聆AI」強強聯(lián)合
    發(fā)表于 09-25 11:47

    自動駕駛中Transformer大模型會取代深度學習嗎?

    持續(xù)討論。特別是自動駕駛領域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學習是否已過時”的激烈爭論。然而,從技術原理、算力成本、安全需求與
    的頭像 發(fā)表于 08-13 09:15 ?4215次閱讀
    自動駕駛中Transformer大<b class='flag-5'>模型</b>會取代<b class='flag-5'>深度</b>學習嗎?

    請問如何在RK3588使用npu,用onnx模型來推理

    請問如何在瑞芯微 RK3588使用npu,用onnx模型來推理。官網上介紹說要把ONNX模型轉換成RKNN模型。但是我并不想這么干,請問有
    發(fā)表于 08-09 00:51

    信而泰×DeepSeek:AI推理引擎驅動網絡智能診斷邁向 “自愈”時代

    模態(tài)的技術特性,DeepSeek正加速推動AI金融、政務、科研及網絡智能化等關鍵領域深度應用。 信而泰:AI推理引擎賦能網絡智能診斷新范
    發(fā)表于 07-16 15:29

    華興變壓器:絕緣壽命預測為何這么?

    您在使用華興變壓器時,是不是也疑惑:三相隔離變壓器的絕緣壽命預測咋就這么?這可困擾著不少企業(yè)。先看絕緣材料的個體差異。即便是同一批次生產的絕緣材料,由于原材料微小雜質、生產時的溫
    的頭像 發(fā)表于 07-11 11:24 ?510次閱讀
    華興變壓器:絕緣壽命預測為何<b class='flag-5'>這么</b><b class='flag-5'>難</b>?

    模型推理顯存和計算量估計方法研究

    隨著人工智能技術的飛速發(fā)展,深度學習大模型各個領域得到了廣泛應用。然而,大模型的推理過程對顯存和計算資源的需求較高,給實際應用帶來了挑戰(zhàn)。
    發(fā)表于 07-03 19:43

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    STM32MP257 開發(fā)板基于 DeepLab 模型實現(xiàn)圖像分割的項目設計,包括 DeepLab 模型介紹、官方Demo例程測試、USB 攝像頭采集畫面的動態(tài)圖像分割、板端圖片靜態(tài)推理等,為該開發(fā)板人工智能等相關
    發(fā)表于 06-21 21:11

    半導體器件CV測量技術解析

    前言:研究器件特性和器件建模都離不開精確的電容電壓(CV)測量。精確的CV模型仿真器件的開關特性,延遲特性等方面尤為重要。目前,寬禁帶器
    的頭像 發(fā)表于 06-01 10:02 ?1705次閱讀
    半導體器件<b class='flag-5'>CV</b>測量技術解析

    模型時代的深度學習框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 CNN時代 ,AI模型的參數(shù)規(guī)模都在百萬級別,僅需單張消費類顯卡即可完成訓練。例如,以業(yè)界知名的CNN
    的頭像 發(fā)表于 04-25 11:43 ?860次閱讀
    大<b class='flag-5'>模型</b>時代的<b class='flag-5'>深度</b>學習框架

    如何在RAKsmart服務器實現(xiàn)企業(yè)AI模型部署

    AI模型的訓練與部署需要強大的算力支持、穩(wěn)定的網絡環(huán)境和專業(yè)的技術管理。RAKsmart作為全球領先的服務器托管與云計算服務提供商,已成為企業(yè)部署AI模型的理想選擇。那么,如何在RAKsmart服務器
    的頭像 發(fā)表于 03-27 09:46 ?948次閱讀