亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)的Softmax定義和優(yōu)點(diǎn)

汽車玩家 ? 來源:今日頭條 ? 作者:不一樣的程序猿 ? 2020-03-15 17:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Softmax在機(jī)器學(xué)習(xí)中有非常廣泛的應(yīng)用,但是剛剛接觸機(jī)器學(xué)習(xí)的人可能對Softmax的特點(diǎn)以及好處并不理解,其實(shí)你了解了以后就會發(fā)現(xiàn),Softmax計(jì)算簡單,效果顯著,非常好用。

我們先來直觀看一下,Softmax究竟是什么意思

我們知道m(xù)ax,假如說我有兩個(gè)數(shù),a和b,并且a>b,如果取max,那么就直接取a,沒有第二種可能

但有的時(shí)候我不想這樣,因?yàn)檫@樣會造成分值小的那個(gè)饑餓。所以我希望分值大的那一項(xiàng)經(jīng)常取到,分值小的那一項(xiàng)也偶爾可以取到,那么我用softmax就可以了

現(xiàn)在還是a和b,a>b,如果我們?nèi)“凑誷oftmax來計(jì)算取a和b的概率,那a的softmax值大于b的,所以a會經(jīng)常取到,而b也會偶爾取到,概率跟它們本來的大小有關(guān)。所以說不是max,而是 Soft max

那各自的概率究竟是多少呢,我們下面就來具體看一下

定義

假設(shè)我們有一個(gè)數(shù)組V,Vi表示V中的第i個(gè)元素,那么Vi元素的Softmax值就是

機(jī)器學(xué)習(xí)的Softmax定義和優(yōu)點(diǎn)

Vi元素的Softmax值

也就是說,是該元素的指數(shù)值,與所有元素指數(shù)值和的比值

這個(gè)定義可以說非常的直觀,當(dāng)然除了直觀樸素好理解以外,它還有更多的優(yōu)點(diǎn)

1.計(jì)算與標(biāo)注樣本的差距

神經(jīng)網(wǎng)絡(luò)的計(jì)算當(dāng)中,我們經(jīng)常需要計(jì)算按照神經(jīng)網(wǎng)絡(luò)的正向傳播計(jì)算的分?jǐn)?shù)S1,按照正確標(biāo)注計(jì)算的分?jǐn)?shù)S2,之間的差距,計(jì)算Loss,才能應(yīng)用反向傳播。Loss定義為交叉熵

機(jī)器學(xué)習(xí)的Softmax定義和優(yōu)點(diǎn)

交叉熵

取log里面的值就是這組數(shù)據(jù)正確分類的Softmax值,它占的比重越大,這個(gè)樣本的Loss也就越小,這種定義符合我們的要求

2.計(jì)算上非常非常的方便

當(dāng)我們對分類的Loss進(jìn)行改進(jìn)的時(shí)候,我們要通過梯度下降,每次優(yōu)化一個(gè)step大小的梯度

我們定義選到y(tǒng)i的概率是

機(jī)器學(xué)習(xí)的Softmax定義和優(yōu)點(diǎn)

yi的概率

然后我們求Loss對每個(gè)權(quán)重矩陣的偏導(dǎo),應(yīng)用到了鏈?zhǔn)椒▌t

機(jī)器學(xué)習(xí)的Softmax定義和優(yōu)點(diǎn)

求導(dǎo)結(jié)果

詳細(xì)過程

機(jī)器學(xué)習(xí)的Softmax定義和優(yōu)點(diǎn)

求導(dǎo)過程

最后結(jié)果的形式非常的簡單,只要將算出來的概率的向量對應(yīng)的真正結(jié)果的那一維減1,就可以了

舉個(gè)例子,通過若干層的計(jì)算,最后得到的某個(gè)訓(xùn)練樣本的向量的分?jǐn)?shù)是[ 1, 5, 3 ],

那么概率分別就是

機(jī)器學(xué)習(xí)的Softmax定義和優(yōu)點(diǎn)

訓(xùn)練樣本的概率

如果這個(gè)樣本正確的分類是第二個(gè)的話,那么計(jì)算出來的偏導(dǎo)就是

[0.015,0.866?1,0.117]=[0.015,?0.134,0.117]

是不是很簡單!!然后再根據(jù)這個(gè)進(jìn)行back propagation就可以了

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    量子機(jī)器學(xué)習(xí)入門:三種數(shù)據(jù)編碼方法對比與應(yīng)用

    在傳統(tǒng)機(jī)器學(xué)習(xí)中數(shù)據(jù)編碼確實(shí)相對直觀:獨(dú)熱編碼處理類別變量,標(biāo)準(zhǔn)化調(diào)整數(shù)值范圍,然后直接輸入模型訓(xùn)練。整個(gè)過程更像是數(shù)據(jù)清洗,而非核心算法組件。量子機(jī)器學(xué)習(xí)的編碼完全是另一回事。傳統(tǒng)算
    的頭像 發(fā)表于 09-15 10:27 ?383次閱讀
    量子<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>入門:三種數(shù)據(jù)編碼方法對比與應(yīng)用

    FPGA在機(jī)器學(xué)習(xí)中的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為一種靈活且高效的硬件加速平臺
    的頭像 發(fā)表于 07-16 15:34 ?2440次閱讀

    機(jī)器學(xué)習(xí)模型市場前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)模型市場的未來發(fā)展。
    的頭像 發(fā)表于 02-13 09:39 ?542次閱讀

    嵌入式機(jī)器學(xué)習(xí)的應(yīng)用特性與軟件開發(fā)環(huán)境

    作者:DigiKey Editor 在許多嵌入式系統(tǒng)中,必須采用嵌入式機(jī)器學(xué)習(xí)(Embedded Machine Learning)技術(shù),這是指將機(jī)器學(xué)習(xí)模型部署在資源受限的設(shè)備(如微
    的頭像 發(fā)表于 01-25 17:05 ?1054次閱讀
    嵌入式<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的應(yīng)用特性與軟件開發(fā)環(huán)境

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹了機(jī)器學(xué)習(xí)的關(guān)鍵概念術(shù)語。在本文中,我們會介紹傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識和多種算法特征,供各位老師選擇。 01 傳統(tǒng)機(jī)器
    的頭像 發(fā)表于 12-30 09:16 ?1783次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    如何選擇云原生機(jī)器學(xué)習(xí)平臺

    當(dāng)今,云原生機(jī)器學(xué)習(xí)平臺因其彈性擴(kuò)展、高效部署、低成本運(yùn)營等優(yōu)勢,逐漸成為企業(yè)構(gòu)建和部署機(jī)器學(xué)習(xí)應(yīng)用的首選。然而,市場上的云原生機(jī)器
    的頭像 發(fā)表于 12-25 11:54 ?648次閱讀

    zeta在機(jī)器學(xué)習(xí)中的應(yīng)用 zeta的優(yōu)缺點(diǎn)分析

    在探討ZETA在機(jī)器學(xué)習(xí)中的應(yīng)用以及ZETA的優(yōu)缺點(diǎn)時(shí),需要明確的是,ZETA一詞在不同領(lǐng)域可能有不同的含義和應(yīng)用。以下是根據(jù)不同領(lǐng)域的ZETA進(jìn)行的分析: 一、ZETA在機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 12-20 09:11 ?1524次閱讀

    ASR和機(jī)器學(xué)習(xí)的關(guān)系

    自動語音識別(ASR)技術(shù)的發(fā)展一直是人工智能領(lǐng)域的一個(gè)重要分支,它使得機(jī)器能夠理解和處理人類語言。隨著機(jī)器學(xué)習(xí)(ML)技術(shù)的迅猛發(fā)展,ASR系統(tǒng)的性能和準(zhǔn)確性得到了顯著提升。 ASR技術(shù)概述 自動
    的頭像 發(fā)表于 11-18 15:16 ?1078次閱讀

    什么是機(jī)器學(xué)習(xí)?通過機(jī)器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機(jī)器學(xué)習(xí)”最初的研究動機(jī)是讓計(jì)算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆]有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?1419次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問題?

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對計(jì)算資源的需求也在不斷增長。NPU作為一種專門為深度學(xué)習(xí)機(jī)器
    的頭像 發(fā)表于 11-15 09:19 ?1775次閱讀

    eda在機(jī)器學(xué)習(xí)中的應(yīng)用

    機(jī)器學(xué)習(xí)項(xiàng)目中,數(shù)據(jù)預(yù)處理和理解是成功構(gòu)建模型的關(guān)鍵。探索性數(shù)據(jù)分析(EDA)是這一過程中不可或缺的一部分。 1. 數(shù)據(jù)清洗 數(shù)據(jù)清洗 是機(jī)器學(xué)習(xí)中的首要任務(wù)之一。EDA可以幫助識別
    的頭像 發(fā)表于 11-13 10:42 ?1238次閱讀

    魯棒性在機(jī)器學(xué)習(xí)中的重要性

    金融風(fēng)險(xiǎn)評估。這些應(yīng)用場景對模型的魯棒性提出了極高的要求。 魯棒性的定義 魯棒性通常被定義為系統(tǒng)在面對不確定性和變化時(shí)仍能保持其功能的能力。在機(jī)器學(xué)習(xí)中,這意味著即使輸入數(shù)據(jù)包含錯(cuò)誤、
    的頭像 發(fā)表于 11-11 10:19 ?1805次閱讀

    使用機(jī)器學(xué)習(xí)和NVIDIA Jetson邊緣AI和機(jī)器人平臺打造機(jī)器人導(dǎo)盲犬

    Selin Alara Ornek 是一名富有遠(yuǎn)見的高中生。她使用機(jī)器學(xué)習(xí)和 NVIDIA Jetson 邊緣 AI 和機(jī)器人平臺,為視障人士打造了機(jī)器人導(dǎo)盲犬。 該項(xiàng)目名為 I
    的頭像 發(fā)表于 11-08 10:05 ?1044次閱讀

    MLOps平臺優(yōu)點(diǎn)

    MLOps平臺在提升機(jī)器學(xué)習(xí)模型的開發(fā)與部署效率、可擴(kuò)展性與靈活性、透明度與可重復(fù)性以及降低風(fēng)險(xiǎn)和持續(xù)改進(jìn)方面具有顯著優(yōu)點(diǎn)
    的頭像 發(fā)表于 11-06 10:10 ?616次閱讀

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)是一種機(jī)器學(xué)習(xí)方法,它通過與環(huán)境的交互來學(xué)習(xí)如何做出決策,以最大化累積獎(jiǎng)勵(lì)。PyTorch 是一個(gè)流行的開源
    的頭像 發(fā)表于 11-05 17:34 ?1326次閱讀