亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)的回歸分析和回歸方法

汽車玩家 ? 來(lái)源:智能算法 ? 作者:智能算法 ? 2020-01-19 17:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

根據(jù)受歡迎程度,線性回歸和邏輯回歸經(jīng)常是我們做預(yù)測(cè)模型時(shí),且第一個(gè)學(xué)習(xí)的算法。但是如果認(rèn)為回歸就兩個(gè)算法,就大錯(cuò)特錯(cuò)了。事實(shí)上我們有許多類型的回歸方法可以去建模。每一個(gè)算法都有其重要性和特殊性。

內(nèi)容

1.什么是回歸分析?

2.我們?yōu)槭裁匆褂没貧w分析?

3.回歸有哪些類型 ?

4.線性回歸

5.邏輯回歸

6.多項(xiàng)式回歸

7.逐步回歸

8.嶺回歸

9.Lasso回歸

10.ElasticNet回歸

什么是回歸分析?

回歸分析是研究自變量和因變量之間關(guān)系的一種預(yù)測(cè)模型技術(shù)。這些技術(shù)應(yīng)用于預(yù)測(cè),時(shí)間序列模型和找到變量之間關(guān)系。例如可以通過(guò)回歸去研究超速與交通事故發(fā)生次數(shù)的關(guān)系。

我們?yōu)槭裁匆没貧w分析?

這里有一些使用回歸分析的好處:它指示出自變量與因變量之間的顯著關(guān)系;它指示出多個(gè)自變量對(duì)因變量的影響?;貧w分析允許我們比較不同尺度的變量,例如:價(jià)格改變的影響和宣傳活動(dòng)的次數(shù)。這些好處可以幫助市場(chǎng)研究者/數(shù)據(jù)分析師去除和評(píng)價(jià)用于建立預(yù)測(cè)模型里面的變量。

回歸有哪些類型?

我們有很多種回歸方法用預(yù)測(cè)。這些技術(shù)可通過(guò)三種方法分類:自變量的個(gè)數(shù)、因變量的類型和回歸線的形狀。

1.線性回歸

線性回歸可謂是世界上最知名的建模方法之一,也是應(yīng)該是我們第一個(gè)接觸的模型。在模型中,因變量是連續(xù)型的,自變量可以使連續(xù)型或離散型的,回歸線是線性的。

線性回歸用最適直線(回歸線)去建立因變量Y和一個(gè)或多個(gè)自變量X之間的關(guān)系??梢杂霉絹?lái)表示:

Y=a+b*X+e

a為截距,b為回歸線的斜率,e是誤差項(xiàng)。

簡(jiǎn)單線性回歸與多元線性回歸的差別在于:多元線性回歸有多個(gè)(》1)自變量,而簡(jiǎn)單線性回歸只有一個(gè)自變量。到現(xiàn)在我們的問(wèn)題就是:如何找到那條回歸線?

我們可以通過(guò)最小二乘法把這個(gè)問(wèn)題解決。其實(shí)最小二乘法就是線性回歸模型的損失函數(shù),只要把損失函數(shù)做到最小時(shí)得出的參數(shù),才是我們最需要的參數(shù)。

我們一般用決定系數(shù)(R方)去評(píng)價(jià)模型的表現(xiàn)。

重點(diǎn):

1.自變量與因變量之間必須要有線性關(guān)系。

2.多重共線性、自相關(guān)和異方差對(duì)多元線性回歸的影響很大。

3.線性回歸對(duì)異常值非常敏感,其能嚴(yán)重影響回歸線,最終影響預(yù)測(cè)值。

4.在多元的自變量中,我們可以通過(guò)前進(jìn)法,后退法和逐步法去選擇最顯著的自變量。

2. 邏輯回歸

邏輯回歸是用來(lái)找到事件成功或事件失敗的概率。當(dāng)我們的因變量是二分類(0/1,True/False,Yes/No)時(shí)我們應(yīng)該使用邏輯回歸。

重點(diǎn):

1.在分類問(wèn)題中使用的非常多。

2.邏輯回歸因其應(yīng)用非線性log轉(zhuǎn)換方法,使得其不需要自變量與因變量之間有線性關(guān)系。

3.為防止過(guò)擬合和低擬合,我們應(yīng)該確保每個(gè)變量是顯著的。應(yīng)該使用逐步回歸方法去估計(jì)邏輯回歸。

4.邏輯回歸需要大樣本量,因?yàn)樽畲笏迫还烙?jì)在低樣本量的情況下表現(xiàn)不好。

5.要求沒(méi)有共線性。

6.如果因變量是序數(shù)型的,則稱為序數(shù)型邏輯回歸。

7.如果因變量有多個(gè),則稱為多項(xiàng)邏輯回歸。

3. 多項(xiàng)式回歸

如果一個(gè)回歸,它的自變量指數(shù)超過(guò)1,則稱為多項(xiàng)式回歸??梢杂霉奖硎荆?/p>

y = a + b * x^2

在這個(gè)回歸技術(shù)中,最適的線不是一條直線,而是一條曲線。

重點(diǎn):

① 很多情況下,我們?yōu)榱私档驼`差,經(jīng)常會(huì)抵制不了使用多項(xiàng)式回歸的誘惑,但事實(shí)是,我們經(jīng)常會(huì)造成過(guò)擬合。所以要經(jīng)常的把數(shù)據(jù)可視化,觀察數(shù)據(jù)與模型的擬合程度。

② 特別是要看曲線的結(jié)尾部分,看它的形狀和趨勢(shì)是否有意義。高的多項(xiàng)式往往會(huì)產(chǎn)生特別古怪的預(yù)測(cè)值。

4. 逐步回歸

當(dāng)我們要處理多個(gè)自變量時(shí),我們就需要這個(gè)回歸方法。在這個(gè)方法中選擇變量都是通過(guò)自動(dòng)過(guò)程實(shí)現(xiàn)的,不需要人的干預(yù)。

這個(gè)工程是通過(guò)觀察統(tǒng)計(jì)值,比如判定系數(shù),t值和最小信息準(zhǔn)則等去篩選變量。逐步回歸變量一般是基于特定的標(biāo)準(zhǔn)加入或移除變量來(lái)擬合回歸模型。

一些常用的逐步回歸方法如下:

1. 標(biāo)準(zhǔn)逐步回歸做兩件事情。只要是需要每一步它都會(huì)添加或移除一些變量。

2. 前進(jìn)法是開(kāi)始于最顯著的變量然后在模型中逐漸增加次顯著變量。

3. 后退法是開(kāi)始于所有變量,然后逐漸移除一些不顯著變量。

4. 這個(gè)模型技術(shù)的目的是為了用最少的變量去最大化模型的預(yù)測(cè)能力。它也是一種降維技術(shù)。

5. 嶺回歸

當(dāng)碰到數(shù)據(jù)有多重共線性時(shí),我們就會(huì)用到嶺回歸。所謂多重共線性,簡(jiǎn)單的說(shuō)就是自變量之間有高度相關(guān)關(guān)系。在多重共線性中,即使是最小二乘法是無(wú)偏的,它們的方差也會(huì)很大。通過(guò)在回歸中加入一些偏差,嶺回歸酒會(huì)減少標(biāo)準(zhǔn)誤差。

‘嶺回歸是一種專用于共線性數(shù)據(jù)分析的有偏估計(jì)回歸方法,實(shí)質(zhì)上是一種改良的最小二乘估計(jì)法,通過(guò)放棄最小二乘法的無(wú)偏性,以損失部分信息、降低精度為代價(jià)獲得回歸系數(shù)更為符合實(shí)際、更可靠的回歸方法,對(duì)病態(tài)數(shù)據(jù)的擬合要強(qiáng)于最小二乘法?!?---百度百科

嶺回歸是通過(guò)嶺參數(shù)λ去解決多重共線性的問(wèn)題??聪旅娴墓剑?/p>

機(jī)器學(xué)習(xí)的回歸分析和回歸方法

其中l(wèi)oss為損失函數(shù),penalty為懲罰項(xiàng)。

重點(diǎn):

1.嶺回歸的假設(shè)與最小二乘法回歸的假設(shè)相同除了假設(shè)正態(tài)性。

2.它把系數(shù)的值收縮了,但是不會(huì)為0.

3.正則化方法是使用了l2正則。

6. LASSO回歸

和嶺回歸類似,Lasso(least Absolute Shrinkage and Selection Operator)也是通過(guò)懲罰其回歸系數(shù)的絕對(duì)值。看下面的公式:

機(jī)器學(xué)習(xí)的回歸分析和回歸方法

Lasso回歸和嶺回歸不同的是,Lasso回歸在懲罰方程中用的是絕對(duì)值,而不是平方。這就使得懲罰后的值可能會(huì)變成0.

重點(diǎn):

1.其假設(shè)與最小二乘回歸相同除了正態(tài)性。

2.其能把系數(shù)收縮到0,使得其能幫助特征選擇。

3.這個(gè)正則化方法為l1正則化。

4.如果一組變量是高度相關(guān)的,lasso會(huì)選擇其中的一個(gè),然后把其他都變?yōu)?.

7. ElasticNet回歸

ElasticNet回歸是Lasso回歸和嶺回歸的組合。它會(huì)事先訓(xùn)練L1和L2作為懲罰項(xiàng)。當(dāng)許多變量是相關(guān)的時(shí)候,Elastic-net是有用的。Lasso一般會(huì)隨機(jī)選擇其中一個(gè),而Elastic-net則會(huì)選在兩個(gè)。

機(jī)器學(xué)習(xí)的回歸分析和回歸方法

與Lasso和嶺回歸的利弊比較,一個(gè)實(shí)用的優(yōu)點(diǎn)就是Elastic-Net會(huì)繼承一些嶺回歸的穩(wěn)定性。

重點(diǎn):

1.在選擇變量的數(shù)量上沒(méi)有限制

2.雙重收縮對(duì)其有影響

3.除了這7個(gè)常用的回歸技術(shù),你也可以看看貝葉斯回歸、生態(tài)學(xué)回歸和魯棒回歸。

如何選擇回歸模型?

面對(duì)如此多的回歸模型,最重要的是根據(jù)自變量因變量的類型、數(shù)據(jù)的維數(shù)和其他數(shù)據(jù)的重要特征去選擇最合適的方法。以下是我們選擇正確回歸模型時(shí)要主要考慮的因素:

1.數(shù)據(jù)探索是建立預(yù)測(cè)模型不可或缺的部分。它應(yīng)該是在選擇正確模型之前要做的。

2.為了比較不同模型的擬合程度,我們可以分析不同的度量,比如統(tǒng)計(jì)顯著性參數(shù)、R方、調(diào)整R方、最小信息標(biāo)準(zhǔn)、BIC和誤差準(zhǔn)則。另一個(gè)是Mallow‘s Cp準(zhǔn)則。

3.交叉驗(yàn)證是驗(yàn)證預(yù)測(cè)模型最好的方法。你把你的數(shù)據(jù)集分成兩組:一組用于訓(xùn)練,一組用于驗(yàn)證。

4.如果你的數(shù)據(jù)集有許多讓你困惑的變量,你就不應(yīng)該用自動(dòng)模型選擇方法,因?yàn)槟悴幌氚堰@些變量放在模型當(dāng)中。

5.不強(qiáng)大的模型往往容易建立,而強(qiáng)大的模型很難建立。

6.回歸正則方法在高維度和多重共線性的情況下表現(xiàn)的很好。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【嘉楠堪智K230開(kāi)發(fā)板試用體驗(yàn)】K230機(jī)器視覺(jué)相關(guān)功能體驗(yàn)

    、畫(huà)十字交叉、寫(xiě)字符等多種操作。具體使用方法參考官方教程機(jī)器學(xué)習(xí)-畫(huà)圖 圖像檢測(cè) K230能夠使用MicroPython進(jìn)行邊緣檢測(cè)、線段檢測(cè)、圓形檢測(cè)、矩形檢測(cè)、快速線性回歸。官方在
    發(fā)表于 07-08 17:25

    十大鮮為人知卻功能強(qiáng)大的機(jī)器學(xué)習(xí)模型

    本文轉(zhuǎn)自:QuantML當(dāng)我們談?wù)?b class='flag-5'>機(jī)器學(xué)習(xí)時(shí),線性回歸、決策樹(shù)和神經(jīng)網(wǎng)絡(luò)這些常見(jiàn)的算法往往占據(jù)了主導(dǎo)地位。然而,除了這些眾所周知的模型之外,還存在一些鮮為人知但功能強(qiáng)大的算法,它們能夠以驚人的效率
    的頭像 發(fā)表于 04-02 14:10 ?833次閱讀
    十大鮮為人知卻功能強(qiáng)大的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>模型

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?1365次閱讀

    藍(lán)牙技術(shù)聯(lián)盟宣布2025藍(lán)牙亞洲大會(huì)重磅回歸

    月22日至23日在深圳會(huì)展中心(福田)5號(hào)館舉辦。作為藍(lán)牙技術(shù)的年度盛會(huì),2025藍(lán)牙亞洲大會(huì)在時(shí)隔五年后重磅回歸,旨在為全球行業(yè)領(lǐng)袖、開(kāi)發(fā)者和創(chuàng)新人士分享藍(lán)牙技術(shù)的最新進(jìn)展,共探藍(lán)牙生態(tài)的未來(lái)
    發(fā)表于 01-15 13:44 ?562次閱讀

    藍(lán)牙技術(shù)聯(lián)盟宣布2025藍(lán)牙亞洲大會(huì)重磅回歸

    (福田)5號(hào)館舉辦。作為藍(lán)牙技術(shù)的年度盛會(huì),2025藍(lán)牙亞洲大會(huì)在時(shí)隔五年后重磅回歸,旨在為全球行業(yè)領(lǐng)袖、開(kāi)發(fā)者和創(chuàng)新人士分享藍(lán)牙技術(shù)的最新進(jìn)展,共探藍(lán)牙生態(tài)的未來(lái)發(fā)展趨勢(shì)。
    發(fā)表于 01-15 13:43 ?960次閱讀
    藍(lán)牙技術(shù)聯(lián)盟宣布2025藍(lán)牙亞洲大會(huì)重磅<b class='flag-5'>回歸</b>

    基于移動(dòng)自回歸的時(shí)序擴(kuò)散預(yù)測(cè)模型

    在人工智能領(lǐng)域,目前有很多工作采用自回歸方法來(lái)模擬或是替代擴(kuò)散模型,其中視覺(jué)自回歸建模(Visual AutoRegressive modeling,簡(jiǎn)稱 VAR)就是其中的典型代表,該工作利用自
    的頭像 發(fā)表于 01-03 14:05 ?1524次閱讀
    基于移動(dòng)自<b class='flag-5'>回歸</b>的時(shí)序擴(kuò)散預(yù)測(cè)模型

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開(kāi)發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個(gè)強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比,傳統(tǒng)
    的頭像 發(fā)表于 12-30 09:16 ?1788次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)方法</b>和應(yīng)用指導(dǎo)

    zeta在機(jī)器學(xué)習(xí)中的應(yīng)用 zeta的優(yōu)缺點(diǎn)分析

    在探討ZETA在機(jī)器學(xué)習(xí)中的應(yīng)用以及ZETA的優(yōu)缺點(diǎn)時(shí),需要明確的是,ZETA一詞在不同領(lǐng)域可能有不同的含義和應(yīng)用。以下是根據(jù)不同領(lǐng)域的ZETA進(jìn)行的分析: 一、ZETA在機(jī)器
    的頭像 發(fā)表于 12-20 09:11 ?1524次閱讀

    垂直型回歸反射光電開(kāi)關(guān)的原理有哪些E3S-AR61

    垂直型回歸反射光電開(kāi)關(guān)的原理是基于光線的反射和光電傳感器的檢測(cè)機(jī)制。通過(guò)利用這一原理,它可以實(shí)現(xiàn)對(duì)物體的非接觸式檢測(cè)和控制,為工業(yè)自動(dòng)化和機(jī)器人技術(shù)等領(lǐng)域提供了重要的技術(shù)支持。
    的頭像 發(fā)表于 12-16 10:23 ?1044次閱讀

    近紅外光譜儀校準(zhǔn)方法 近紅外光譜儀與紫外光譜儀區(qū)別

    近紅外光譜儀校準(zhǔn)方法 近紅外光譜儀(NIR)是一種用于分析物質(zhì)成分的儀器,它通過(guò)測(cè)量物質(zhì)對(duì)近紅外光的吸收來(lái)獲取信息。校準(zhǔn)是確保光譜儀測(cè)量結(jié)果準(zhǔn)確性的重要步驟。以下是近紅外光譜儀校準(zhǔn)的一些常見(jiàn)方法
    的頭像 發(fā)表于 12-06 10:31 ?1679次閱讀

    基于RK3568國(guó)產(chǎn)處理器教學(xué)實(shí)驗(yàn)箱操作案例分享:一元線性回歸實(shí)驗(yàn)

    一、實(shí)驗(yàn)?zāi)康?本節(jié)視頻的目的是了解一元線性回歸定義、了解一元線性回歸簡(jiǎn)單數(shù)學(xué)推導(dǎo)、通過(guò)一元線性回歸預(yù)測(cè)模型,掌握預(yù)測(cè)模型的建立和應(yīng)用方法,了解線性
    發(fā)表于 12-05 14:14

    Minitab常用功能介紹 如何在 Minitab 中進(jìn)行回歸分析

    : Minitab常用功能介紹 數(shù)據(jù)分析功能 :從基本的描述性統(tǒng)計(jì)到復(fù)雜的多元回歸分析,Minitab都能輕松應(yīng)對(duì)。具體包括: 基本統(tǒng)計(jì) :提供均值、標(biāo)準(zhǔn)差、方差等基本統(tǒng)計(jì)量的計(jì)算。 回歸
    的頭像 發(fā)表于 12-02 15:38 ?4317次閱讀

    什么是機(jī)器學(xué)習(xí)?通過(guò)機(jī)器學(xué)習(xí)方法能解決哪些問(wèn)題?

    計(jì)算機(jī)系統(tǒng)自身的性能”。事實(shí)上,由于“經(jīng)驗(yàn)”在計(jì)算機(jī)系統(tǒng)中主要以數(shù)據(jù)的形式存在,因此機(jī)器學(xué)習(xí)需要設(shè)法對(duì)數(shù)據(jù)進(jìn)行分析學(xué)習(xí),這就使得它逐漸成為智能數(shù)據(jù)
    的頭像 發(fā)表于 11-16 01:07 ?1423次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過(guò)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)方法</b>能解決哪些問(wèn)題?

    什么是回歸測(cè)試_回歸測(cè)試的測(cè)試策略

    ? 1、什么是回歸測(cè)試 回歸測(cè)試(Regression testing) 指在發(fā)生修改之后重新測(cè)試先前的測(cè)試以保證修改的正確性。理論上,軟件產(chǎn)生新版本,都需要進(jìn)行回歸測(cè)試,驗(yàn)證以前發(fā)現(xiàn)和修復(fù)的錯(cuò)誤
    的頭像 發(fā)表于 11-14 16:44 ?1658次閱讀

    基于LSTM神經(jīng)網(wǎng)絡(luò)的情感分析方法

    能力而受到廣泛關(guān)注。 1. 引言 情感分析在商業(yè)智能、客戶服務(wù)、社交媒體監(jiān)控等領(lǐng)域具有廣泛的應(yīng)用。傳統(tǒng)的情感分析方法依賴于手工特征提取和機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 11-13 10:15 ?1548次閱讀