亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何去理解CNN卷積層與池化層計算?

電子工程師 ? 來源:51CTO博客gloomyfish ? 作者:gloomyfish ? 2021-04-06 15:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

概述

深度學(xué)習(xí)中CNN網(wǎng)絡(luò)是核心,對CNN網(wǎng)絡(luò)來說卷積層與池化層的計算至關(guān)重要,不同的步長、填充方式、卷積核大小、池化層策略等都會對最終輸出模型與參數(shù)、計算復(fù)雜度產(chǎn)生重要影響,本文將從卷積層與池化層計算這些相關(guān)參數(shù)出發(fā),演示一下不同步長、填充方式、卷積核大小計算結(jié)果差異。

一:卷積層

卷積神經(jīng)網(wǎng)絡(luò)(CNN)第一次提出是在1997年,楊樂春(LeNet)大神的一篇關(guān)于數(shù)字OCR識別的論文,在2012年的ImageNet競賽中CNN網(wǎng)絡(luò)成功擊敗其它非DNN模型算法,從此獲得學(xué)術(shù)界的關(guān)注與工業(yè)界的興趣。毫無疑問學(xué)習(xí)深度學(xué)習(xí)必須要學(xué)習(xí)CNN網(wǎng)絡(luò),學(xué)習(xí)CNN就必須明白卷積層,池化層等這些基礎(chǔ)各層,以及它們的參數(shù)意義,從本質(zhì)上來說,圖像卷積都是離散卷積,圖像數(shù)據(jù)一般都是多維度數(shù)據(jù)(至少兩維),離散卷積本質(zhì)上是線性變換、具有稀疏與參數(shù)重用特征即相同參數(shù)可以應(yīng)用輸入圖像的不同小分塊,假設(shè)有3x3離散卷積核如下:

pIYBAGBsCaaAXhtpAAAVeBDiS9Q778.png

假設(shè)有

5x5的圖像輸入塊

步長為1(strides=1)

填充方式為VALID(Padding=VALID)

卷積核大小filter size=3x3

則它們的計算過程與輸出如下

100017588-59694-2.png

假設(shè)這個時候我們修改步長為2、填充方式為SAME,卷積核大小不變(strides=2 Padding=SAME filter size=3x3),則計算過程與輸出變?yōu)槿缦拢?/p>

100017588-59695-3.png

最終輸出得到的結(jié)果我們可以稱為featuremap,CNN的深度多數(shù)時候是指featuremap的個數(shù),對多維度的輸入圖像計算多個卷積核,得到多個featuremap輸出疊加,顯示如下:

100017588-59696-4.png

上述輸入為5x5x2,使用卷積核3x3,輸出3x3x3,填充方式為VALID,計算如果填充方式改為SAME則輸出為5x5x3。可以看出填充方式對輸出結(jié)果的影響。

二:小卷積核VS大卷積核

在AlexNet中有有11x11的卷積核與5x5的卷積核,但是在VGG網(wǎng)絡(luò)中因為層數(shù)增加,卷積核都變成3x3與1x1的大小啦,這樣的好處是可以減少訓(xùn)練時候的計算量,有利于降低總的參數(shù)數(shù)目。關(guān)于如何把大卷積核替換為小卷積核,本質(zhì)上有兩種方法。

1. 將二維卷積差分為兩個連續(xù)一維卷積

二維卷積都可以拆分為兩個一維的卷積,這個是有數(shù)學(xué)依據(jù)的,所以11x11的卷積可以轉(zhuǎn)換為1x11與11x1兩個連續(xù)的卷積核計算,總的運算次數(shù):

11x11 = 121次

1x11+ 11x1 = 22次

2.將大二維卷積用多個連續(xù)小二維卷積替代
可見把大的二維卷積核在計算環(huán)節(jié)改成兩個連續(xù)的小卷積核可以極大降低計算次數(shù)、減少計算復(fù)雜度。同樣大的二維卷積核還可以通過幾個小的二維卷積核替代得到。比如:5x5的卷積,我們可以通過兩個連續(xù)的3x3的卷積替代,比較計算次數(shù)

5x5= 25次

3x3+ 3x3=18次

三:池化層

在CNN網(wǎng)絡(luò)中卷積池之后會跟上一個池化層,池化層的作用是提取局部均值與最大值,根據(jù)計算出來的值不一樣就分為均值池化層與最大值池化層,一般常見的多為最大值池化層。池化的時候同樣需要提供filter的大小、步長、下面就是3x3步長為1的filter在5x5的輸入圖像上均值池化計算過程與輸出結(jié)果

100017588-59697-5.png

改用最大值做池化的過程與結(jié)果如下:

100017588-59698-6.png

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    18909
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23193
  • vgg
    vgg
    +關(guān)注

    關(guān)注

    1

    文章

    11

    瀏覽量

    5410
  • 池化
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    1231
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網(wǎng)絡(luò)粗略分共有7,細分共有13。包括卷積,最大
    發(fā)表于 10-29 07:49

    數(shù)據(jù)全復(fù)用高性能設(shè)計思路分享

    大家好,本團隊此次分享的內(nèi)容為可實現(xiàn)數(shù)據(jù)全復(fù)用高性能設(shè)計思路,核心部分主要由以下3個部分組成; 1.SRAM讀取模塊;——使用的存
    發(fā)表于 10-29 07:10

    NMSISI庫的使用

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接函數(shù)   神經(jīng)網(wǎng)絡(luò)函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能   該庫具有用于操作不同權(quán)重和激活數(shù)據(jù)類型的
    發(fā)表于 10-29 07:07

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接函數(shù)   神經(jīng)網(wǎng)絡(luò)函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能   該庫具有用于操作不同權(quán)重和激活數(shù)據(jù)類型的
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般建議

    的尺寸不宜過大,3*3或者1*1等小尺寸的卷積核(濾波器)對于實現(xiàn)輕量級模型是十分必要的。 3)添加歸一和驗證檢查點:歸一可以調(diào)整
    發(fā)表于 10-28 08:02

    卷積運算分析

    的數(shù)據(jù),故設(shè)計了ConvUnit模塊實現(xiàn)單個感受域規(guī)模的卷積運算. 卷積運算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴格意義
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    , batch_size=512, epochs=20)總結(jié) 這個核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過程,是用來對MNIST手寫數(shù)字圖像進行分類的。模型將圖像作為輸入,通過卷積
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來需要使用擴展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對第一卷積+的部署進行說明,其余與之類似。 1.使用 Custom_Dtr
    發(fā)表于 10-20 08:00

    在友晶LabCloud平臺上使用PipeCNN實現(xiàn)ImageNet圖像分類

    利用深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)進行圖像分類是通過使用多個卷積來從輸入數(shù)據(jù)中提取特征,最后通過分類做決策來識別出目標(biāo)物體。
    的頭像 發(fā)表于 04-23 09:42 ?795次閱讀
    在友晶LabCloud平臺上使用PipeCNN實現(xiàn)ImageNet圖像分類

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一都由若干個神經(jīng)元構(gòu)成,神經(jīng)元之間通過權(quán)重連接。信號在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) : CNN主要由
    的頭像 發(fā)表于 02-12 15:53 ?1125次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    FC的大小或配置。 這些組件的組合和優(yōu)化構(gòu)成了卷積神經(jīng)網(wǎng)絡(luò)的核心,并且隨著計算機視覺領(lǐng)域的發(fā)展,新的技術(shù)和理論不斷被提出,以進一步提升CNN的性能和泛
    發(fā)表于 12-19 14:33

    如何理解OSI七模型 OSI七模型在網(wǎng)絡(luò)中的應(yīng)用

    OSI七模型(Open Systems Interconnection Reference Model)是一個概念性模型,用于標(biāo)準網(wǎng)絡(luò)通信過程和協(xié)議。它由國際標(biāo)準組織(ISO)在1984年提出
    的頭像 發(fā)表于 11-24 10:48 ?1547次閱讀

    OSI七模型的每一功能

    開放系統(tǒng)互聯(lián)(OSI)模型是一個概念性框架,用于標(biāo)準網(wǎng)絡(luò)通信過程,以便不同的計算機系統(tǒng)和網(wǎng)絡(luò)能夠相互通信。OSI模型分為七,每一都有其特定的功能和協(xié)議。以下是OSI七
    的頭像 發(fā)表于 11-24 10:46 ?2375次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)整方法

    卷積神經(jīng)網(wǎng)絡(luò)因其在處理具有空間層次結(jié)構(gòu)的數(shù)據(jù)時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數(shù)的合理設(shè)置。參數(shù)調(diào)整是一個復(fù)雜的過程,涉及到多個超參數(shù)的選擇和優(yōu)化。 網(wǎng)絡(luò)架構(gòu)參數(shù) 卷積
    的頭像 發(fā)表于 11-15 15:10 ?1692次閱讀

    詳解KiCad中的

    “ ?不同EDA對于PCB中物理的定義基本相同,比如信號、絲印、阻焊、助焊等。但對于工藝(輔助)的定義會略有不同,比如Altium Designer沒有專門的板框
    的頭像 發(fā)表于 11-12 12:21 ?3100次閱讀
    詳解KiCad中的<b class='flag-5'>層</b>