亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)中的dropout是什么?怎么使用

汽車玩家 ? 來(lái)源:CSDN ? 作者:_VioletHan_ ? 2020-01-28 17:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、dropout目的

Dropout是在《ImageNet Classification with Deep Convolutional》這篇論文里提出來(lái)為了防止神經(jīng)網(wǎng)絡(luò)的過(guò)擬合。它的主要思想是讓隱藏層的節(jié)點(diǎn)在每次迭代時(shí)(包括正向和反向傳播)有一定幾率(keep-prob)失效。這樣來(lái)預(yù)防過(guò)擬合。它主要避免對(duì)某個(gè)節(jié)點(diǎn)的強(qiáng)依賴,讓反向傳播的修正值可以更加平衡的分布到各個(gè)參數(shù)上。還有如果一些節(jié)點(diǎn)失效,實(shí)際上也和我們減少網(wǎng)絡(luò)復(fù)雜度是一樣的道理。所以可以防止過(guò)擬合。

二、dropout方法

(1)訓(xùn)練階段

Dropout是在標(biāo)準(zhǔn)的bp網(wǎng)絡(luò)的的結(jié)構(gòu)上,使bp網(wǎng)的隱層激活值,以一定的比例v變?yōu)?,即按照一定比例v,隨機(jī)地讓一部分隱層節(jié)點(diǎn)失效;在后面benchmark實(shí)驗(yàn)測(cè)試時(shí),部分實(shí)驗(yàn)讓隱層節(jié)點(diǎn)失效的基礎(chǔ)上,使輸入數(shù)據(jù)也以一定比例(試驗(yàn)用20%)是部分輸入數(shù)據(jù)失效(這個(gè)有點(diǎn)像denoising autoencoder),這樣得到了更好的結(jié)果。

去掉權(quán)值懲罰項(xiàng),取而代之的是,限制權(quán)值的范圍,給每個(gè)權(quán)值設(shè)置一個(gè)上限范圍;如果在訓(xùn)練跟新的過(guò)程中,權(quán)值超過(guò)了這個(gè)上限,則把權(quán)值設(shè)置為這個(gè)上限的值(這個(gè)上限值得設(shè)定作者并沒(méi)有說(shuō)設(shè)置多少最好,后面的試驗(yàn)中作者說(shuō)這個(gè)上限設(shè)置為15時(shí),最好;為啥?估計(jì)是交叉驗(yàn)證得出的實(shí)驗(yàn)結(jié)論)。

此外,還可以使算法使用一個(gè)比較大的學(xué)習(xí)率,來(lái)加快學(xué)習(xí)速度,從而使算法在一個(gè)更廣闊的權(quán)值空間中搜索更好的權(quán)值,而不用擔(dān)心權(quán)值過(guò)大。

(2)測(cè)試階段

Dropout只發(fā)生在模型的訓(xùn)練階段,預(yù)測(cè)、測(cè)試階段則不用Dropout

三、關(guān)于dropout需要知道的

直觀認(rèn)識(shí):Dropout隨機(jī)刪除神經(jīng)元后,網(wǎng)絡(luò)變得更小,訓(xùn)練階段也會(huì)提速

事實(shí)證明,dropout已經(jīng)被正式地作為一種正則化的替代形式

有了dropout,網(wǎng)絡(luò)不會(huì)為任何一個(gè)特征加上很高的權(quán)重(因?yàn)槟莻€(gè)特征的輸入神經(jīng)元有可能被隨機(jī)刪除),最終dropout產(chǎn)生了收縮權(quán)重平方范數(shù)的效果

Dropout的功能類似于L2正則化,但Dropout更適用于不同的輸入范圍

如果你擔(dān)心某些層比其它層更容易過(guò)擬合,可以把這些層的keep-prob值設(shè)置的比其它層更低

Dropout主要用在計(jì)算機(jī)視覺(jué)領(lǐng)域,因?yàn)檫@個(gè)領(lǐng)域我們通常沒(méi)有足夠的數(shù)據(jù),容易過(guò)擬合。但在其它領(lǐng)域用的比較少

Dropout的一大缺點(diǎn)就是代價(jià)函數(shù)不再被明確定義,所以在訓(xùn)練過(guò)程中,代價(jià)函數(shù)的值并不是單調(diào)遞減的

使用時(shí),先關(guān)閉Dropout,設(shè)置keep-prob為1,使代價(jià)函數(shù)的值單調(diào)遞減,然后再打開(kāi)Dropout

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介

    神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介
    發(fā)表于 08-05 21:01

    求助基于labview的神經(jīng)網(wǎng)絡(luò)pid控制

    小女子做基于labview的蒸發(fā)過(guò)程液位的控制,想使用神經(jīng)網(wǎng)絡(luò)pid控制,請(qǐng)問(wèn)這個(gè)控制方法可以嗎?有誰(shuí)會(huì)神經(jīng)網(wǎng)絡(luò)pid控制么。。。叩謝
    發(fā)表于 09-23 13:43

    神經(jīng)網(wǎng)絡(luò)基本介紹

    神經(jīng)網(wǎng)絡(luò)基本介紹
    發(fā)表于 01-04 13:41

    【PYNQ-Z2試用體驗(yàn)】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)

    神經(jīng)網(wǎng)絡(luò)的計(jì)算。對(duì)于多層多節(jié)點(diǎn)的神經(jīng)網(wǎng)絡(luò),我們可以使用矩陣乘法來(lái)表示。在上面的神經(jīng)網(wǎng)絡(luò),我們將權(quán)重作為一個(gè)矩陣,將第一層的輸入作為另一個(gè)矩陣,兩個(gè)矩陣相乘,得到的矩陣恰好為第二層的輸
    發(fā)表于 03-03 22:10

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別
    發(fā)表于 06-06 14:21

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問(wèn)題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    傳播的,不會(huì)回流),區(qū)別于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN。BP算法(Back Propagation):誤差反向傳播算法,用于更新網(wǎng)絡(luò)的權(quán)重。BP神經(jīng)網(wǎng)絡(luò)思想:表面上:1. 數(shù)據(jù)信息的前向傳播,
    發(fā)表于 07-21 04:00

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    ,同理,閾值越大,則容納的模式類也就越多----------以上純屬個(gè)人理解,如果有錯(cuò)誤歡迎指正。ART比較好地緩解了競(jìng)爭(zhēng)型學(xué)習(xí)的“可塑性-穩(wěn)定性窘境”,其中可塑性指神經(jīng)網(wǎng)絡(luò)要能夠?qū)W習(xí)新知識(shí),穩(wěn)定性
    發(fā)表于 07-21 04:30

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機(jī)的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達(dá)能力,可以通過(guò)對(duì)系統(tǒng)性能的學(xué)習(xí)來(lái)實(shí)現(xiàn)具有最佳組合的PID控制。利用BP
    發(fā)表于 09-07 07:43

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    神經(jīng)網(wǎng)絡(luò)研究的第一次浪潮。1969 年美國(guó)數(shù)學(xué)家及人工智能先驅(qū) Minsky在其著作證 明感知器本質(zhì)上是一種線性模型[21],只能處理線性分 類問(wèn)題,最簡(jiǎn)單的異或問(wèn)題都無(wú)法正確分類,因此神 經(jīng)網(wǎng)絡(luò)的研究也
    發(fā)表于 08-02 10:39

    理解神經(jīng)網(wǎng)絡(luò)Dropout

    dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過(guò)程,對(duì)于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時(shí)從網(wǎng)絡(luò)
    發(fā)表于 11-16 01:11 ?4113次閱讀
    理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>中</b>的<b class='flag-5'>Dropout</b>

    基于Numpy實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò):如何加入和調(diào)整dropout

    幾乎所有目前最先進(jìn)的神經(jīng)網(wǎng)絡(luò)都用到了dropout. 這篇教程介紹如何通過(guò)幾行Python代碼在神經(jīng)網(wǎng)絡(luò)中加入Dropout. 讀完這篇教程之后,你將得到一個(gè)可以工作的
    的頭像 發(fā)表于 04-15 09:59 ?8066次閱讀
    基于Numpy實(shí)現(xiàn)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>:如何加入和調(diào)整<b class='flag-5'>dropout</b>?

    神經(jīng)網(wǎng)絡(luò)在數(shù)學(xué)建模的應(yīng)用

    數(shù)學(xué)建模是一種利用數(shù)學(xué)方法和工具來(lái)描述和分析現(xiàn)實(shí)世界問(wèn)題的過(guò)程。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)和功能的計(jì)算模型,可以用于解決各種復(fù)雜問(wèn)題。在數(shù)學(xué)建模,神經(jīng)網(wǎng)絡(luò)可以作為一種有效的工具
    的頭像 發(fā)表于 07-02 11:29 ?2140次閱讀