亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何用圖神經(jīng)網(wǎng)絡(GNN)做CV的研究

新機器視覺 ? 來源:新機器視覺 ? 作者:新機器視覺 ? 2022-08-16 10:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

用圖神經(jīng)網(wǎng)絡(GNN)做CV的研究有不少,但通常是圍繞點云數(shù)據(jù)做文章,少有直接處理圖像數(shù)據(jù)的。其實與CNN把一張圖片看成一個網(wǎng)格、Transformer把圖片拉直成一個序列相比,圖方法更適合學習不規(guī)則和復雜物體的特征。

近期中科院與華為諾亞方舟實驗室等提出一種全新的骨干網(wǎng)絡,把圖片表示成圖結構數(shù)據(jù),讓GNN也能完成經(jīng)典CV三大任務。

5f037a9e-1cec-11ed-ba43-dac502259ad0.png

該論文引起GNN學者廣泛關注。有人認為GNN領域積累多年的技巧都將涌入這一新方向,帶來一波研究熱潮。

5f2e6100-1cec-11ed-ba43-dac502259ad0.png

在研究團隊看來,圖結構是一種更通用的數(shù)據(jù)結構。甚至網(wǎng)格和序列可以當作圖結構的特例,用圖結構來做視覺感知會更加靈活。圖數(shù)據(jù)由節(jié)點和邊組成,如果把每個像素都看作節(jié)點計算難度過于大了,因此研究團隊采用了切塊(patch)方法。

對于224x224分辨率的圖像,每16x16像素為一個Patch,也就是圖數(shù)據(jù)中的一個節(jié)點,總共有196個節(jié)點。對每個節(jié)點搜索他們距離最近的節(jié)點構成邊,邊的數(shù)量隨網(wǎng)絡深度而增加。接下來,網(wǎng)絡架構分為兩部分:一個圖卷積網(wǎng)絡(GCN),負責處理圖數(shù)據(jù)、聚合相鄰節(jié)點中的特征。一個前饋神經(jīng)網(wǎng)絡(FFN),結構比較簡單是兩個全連接層的MLP,負責特征的轉換。

5f4c674a-1cec-11ed-ba43-dac502259ad0.png

傳統(tǒng)GCN會出現(xiàn)過度平滑現(xiàn)象,為解決這個問題,團隊在圖卷積層前后各增加一個線性層,圖卷積層后再增加一個激活函數(shù)。

5f5f49d2-1cec-11ed-ba43-dac502259ad0.png

實驗表明,用上新方法,當層數(shù)較多時ViG學習到的特征會比傳統(tǒng)ResGCN更為多樣。

為了更準確評估ViG的性能,研究團隊設計了ViT常用的同質結構(isotropic)和CNN常用的金字塔結構(Pyramid)兩種ViG網(wǎng)絡,來分別做對比實驗。同質架構ViG分為下面三種規(guī)格。

5f7a5ae2-1cec-11ed-ba43-dac502259ad0.png

與常見的同質結構CNN、ViT與MLP網(wǎng)絡相比,ViG在同等算力成本下ImageNet圖像分類的表現(xiàn)更好。金字塔結構的ViG網(wǎng)絡具體設置如下。

5f8a7814-1cec-11ed-ba43-dac502259ad0.png

同等算力成本下,ViG也與最先進的CNN、ViT和MLP相比,性能也能超越或表現(xiàn)相當。

5f9c1128-1cec-11ed-ba43-dac502259ad0.png

在目標檢測和實例分割測試上,ViG表現(xiàn)也與同等規(guī)模的Swin Transformer相當。

5faac984-1cec-11ed-ba43-dac502259ad0.png

最后,研究團隊希望這項工作能作為GNN在通用視覺任務上的基礎架構,Pytorch版本和Mindspore版本代碼都會分別開源。

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:?圖神經(jīng)網(wǎng)絡(GNN)直接處理圖像數(shù)據(jù)

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經(jīng)網(wǎng)絡概述第三彈:來自IEEE Fellow的GNN綜述

    本文來源:機器之心編譯 作者:Zonghan Wu 神經(jīng)網(wǎng)絡GNN)熱度持續(xù)上升,之前我們曾介紹了清華兩篇綜述論文,參見:深度學習時代的模型,清華發(fā)文綜述
    發(fā)表于 01-10 10:26 ?1.3w次閱讀
    <b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>概述第三彈:來自IEEE Fellow的<b class='flag-5'>GNN</b>綜述

    神經(jīng)網(wǎng)絡教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡的構成  第2章人工神經(jīng)網(wǎng)絡基本模型  2.
    發(fā)表于 03-20 11:32

    【案例分享】ART神經(jīng)網(wǎng)絡與SOM神經(jīng)網(wǎng)絡

    今天學習了兩個神經(jīng)網(wǎng)絡,分別是自適應諧振(ART)神經(jīng)網(wǎng)絡與自組織映射(SOM)神經(jīng)網(wǎng)絡。整體感覺不是很難,只不過一些最基礎的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡是競爭學習的一個代表,
    發(fā)表于 07-21 04:30

    GNN神經(jīng)網(wǎng)絡)硬件加速的FPGA實戰(zhàn)解決方案

    ,對傳統(tǒng)的機器學習算法設計以及其實現(xiàn)技術帶來了嚴峻的挑戰(zhàn)。在此背景之下,諸多基于Graph的新型機器學習算法—GNN神經(jīng)網(wǎng)絡),在學術界和產(chǎn)業(yè)界不斷的涌現(xiàn)出來。GNN對算力和存儲器
    發(fā)表于 07-07 08:00

    如何構建神經(jīng)網(wǎng)絡

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預測的計算系統(tǒng)。如何構建神經(jīng)網(wǎng)絡?神經(jīng)網(wǎng)絡包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權重的層,以提高模型的預測
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡的PID控制

    最近在學習電機的智能控制,上周學習了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡的PID控制。神經(jīng)網(wǎng)絡具有任意非線性表達能力,可以通過對系統(tǒng)性能的學習來實現(xiàn)具有最佳組合的PID控
    發(fā)表于 09-07 07:43

    如何使用stm32cube.ai部署神經(jīng)網(wǎng)絡

    何用stm32cube.ai簡化人工神經(jīng)網(wǎng)絡映射?如何使用stm32cube.ai部署神經(jīng)網(wǎng)絡?
    發(fā)表于 10-11 08:05

    卷積神經(jīng)網(wǎng)絡一維卷積的處理過程

    以前的神經(jīng)網(wǎng)絡幾乎都是部署在云端(服務器上),設備端采集到數(shù)據(jù)通過網(wǎng)絡發(fā)送給服務器inference(推理),結果再通過網(wǎng)絡返回給設備端。如今越來越多的
    發(fā)表于 12-23 06:16

    神經(jīng)網(wǎng)絡移植到STM32的方法

    神經(jīng)網(wǎng)絡移植到STM32最近在做的一個項目需要用到網(wǎng)絡進行擬合,并且將擬合得到的結果用作控制,就在想能不能直接在單片機上神經(jīng)網(wǎng)絡計算,這樣就可以實時計算,不依賴于上位機。所以要解決
    發(fā)表于 01-11 06:20

    卷積神經(jīng)網(wǎng)絡模型發(fā)展及應用

    卷積神經(jīng)網(wǎng)絡模型發(fā)展及應用轉載****地址:http://fcst.ceaj.org/CN/abstract/abstract2521.shtml深度學習是機器學習和人工智能研究的最新趨勢,作為一個
    發(fā)表于 08-02 10:39

    神經(jīng)網(wǎng)絡GNN的卷積操作流程

    2019年的時針開始轉動,在CNN、RNN、LSTM、GAN、GNN、CAP的潮起潮落中,帶來了這篇博客。放上一篇 參考引用 。 其實個人認為理解GNN的核心問題就是理解怎么傅里葉
    的頭像 發(fā)表于 06-08 17:13 ?3879次閱讀
    <b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b><b class='flag-5'>GNN</b>的卷積操作流程

    圖形神經(jīng)網(wǎng)絡的基礎知識兩種較高級的算法

    神經(jīng)網(wǎng)絡是一種直接在結構上運行的神經(jīng)網(wǎng)絡。GNN的一個典型應用是節(jié)點分類。本質上,圖中的每個節(jié)點都與一個標簽相關聯(lián),我們希望預測未標記節(jié)
    的頭像 發(fā)表于 04-17 14:19 ?3015次閱讀
    圖形<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的基礎知識兩種較高級的算法

    神經(jīng)網(wǎng)絡逆勢而上,7日學懂入門

    要問這幾年一直在逆勢而上的技術有哪些?你一定不會忽略它神經(jīng)網(wǎng)絡。 相比傳統(tǒng)神經(jīng)網(wǎng)絡神經(jīng)網(wǎng)絡的優(yōu)勢非常明顯: 1、非順序排序的特征學習:
    的頭像 發(fā)表于 11-26 13:54 ?1983次閱讀

    GNN解釋技術的總結和分析與神經(jīng)網(wǎng)絡的解釋性綜述

    神經(jīng)網(wǎng)絡的可解釋性是目前比較值得探索的方向,今天解讀的2021最新綜述,其針對近期提出的 GNN 解釋技術進行了系統(tǒng)的總結和分析,歸納對比了該問題的解決思路。
    的頭像 發(fā)表于 03-27 11:45 ?6915次閱讀
    <b class='flag-5'>GNN</b>解釋技術的總結和分析與<b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>的解釋性綜述

    基于神經(jīng)網(wǎng)絡異常值檢測庫介紹

    我們先簡單了解一下現(xiàn)在熱門的神經(jīng)網(wǎng)絡 (GNN),這已經(jīng)成為數(shù)據(jù)挖掘的一種主導且強大的工具。與圖像數(shù)據(jù)的 CNN 相似,GNN 是一種
    的頭像 發(fā)表于 12-08 10:34 ?2894次閱讀