亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

未來實(shí)例分割中更具挑戰(zhàn)性的一個問題 將單個對象進(jìn)行細(xì)分

8g3K_AI_Thinker ? 來源:未知 ? 作者:李倩 ? 2018-04-30 17:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,Yann LeCun 等人發(fā)表了一篇針對未來實(shí)例分割預(yù)測的論文。該論文提出了一種預(yù)測模型,可通過預(yù)測卷積特征來對未來實(shí)例分割進(jìn)行預(yù)測。該算法有以下幾大優(yōu)勢:

可以處理模型輸出大小不固定的情況,如對象檢測和實(shí)例分割;

不需要使用帶有標(biāo)記的視頻序列進(jìn)行訓(xùn)練,可以直接從未標(biāo)記的數(shù)據(jù)中計(jì)算出中間的 CNN 特征映射圖;

支持可生成多個場景解釋的模型,如曲面法線、對象邊界框和人體部分標(biāo)簽,而不需要針對這些任務(wù)設(shè)計(jì)合適的編碼器和損失函數(shù)。

▌簡介

預(yù)測未來事件是實(shí)現(xiàn)智能行為的一個重要的先決條件,而視頻預(yù)測就是其中一項(xiàng)任務(wù)。最近的研究表明,在對未來幀進(jìn)行語義分割時,在語義層面上的預(yù)測,比先預(yù)測 RGB 幀,然后將其分段更加有效。本文考慮了未來實(shí)例分割中更具挑戰(zhàn)性的一個問題——將單個對象進(jìn)行細(xì)分。為了處理各圖像中不同數(shù)量的輸出標(biāo)簽,我們在 Mask R-CNN 實(shí)例分割模型的固定尺寸卷積特征空間中開發(fā)了一個預(yù)測模型。

我們將 Mask R-CNN 框架的“探測頭(detection head)”應(yīng)用于預(yù)測特征,以產(chǎn)生未來幀的實(shí)例分割。實(shí)驗(yàn)表明,與基于光流(optical flow)的基線相比,該算法在性能上有顯著提升。

圖 1:預(yù)測未來 0.5 秒。 光流基線 (a) 和本文算法 (b) 的實(shí)例分割比較。來自文獻(xiàn) [8] 的算法 (c) 和本文的實(shí)例語義分割算法 (d) 的語義分割比較。實(shí)例建模顯著提高了單個行人的分割精度。

我們的貢獻(xiàn)如下:

引入未來實(shí)例預(yù)測這一新任務(wù),在語義上比之前研究的預(yù)期識別任務(wù)更為豐富。

基于預(yù)測未來幀的高維卷積神經(jīng)網(wǎng)絡(luò)特征的自監(jiān)督算法,支持多種預(yù)期識別任務(wù)。

實(shí)驗(yàn)結(jié)果表明我們的特征學(xué)習(xí)算法相對于強(qiáng)光流基線有所改進(jìn)。

預(yù)測未來實(shí)例分割的特征

本節(jié)簡要回顧了 Mask R-CNN 框架實(shí)例分割框架,然后介紹了如何通過預(yù)測未來幀的內(nèi)部 CNN 特征,將該框架用于預(yù)期識別(anticipated recognition)。

使用 Mask R-CNN 進(jìn)行實(shí)例分割

Mask R-CNN 模型主要由三個主要階段組成。首先,使用一個 CNN 主干框架結(jié)構(gòu)提取高層特征映射圖。其次,候選區(qū)域生成網(wǎng)絡(luò) (RPN) 利用這些特征以包含實(shí)例邊界框坐標(biāo)的形式產(chǎn)生興趣區(qū)域(ROI)。候選邊界框用作興趣區(qū)域?qū)拥妮斎?,通過在每個邊界框中插入高級特征,為每個邊界框獲取固定大小的表示(不管大?。?將每個興趣區(qū)域的特征輸入到檢測分支,并產(chǎn)生精確的邊界框坐標(biāo)、類別預(yù)測以及用于預(yù)測類別的固定二進(jìn)制掩碼。最后,在預(yù)測的邊界框內(nèi)將掩碼插入到圖像分辨率中,并報(bào)告為預(yù)測類的一個實(shí)例分割。

圖2 :左,自上而下的特征采樣結(jié)合相同分辨率吧的自下而上的特征,從而獲得的 FPN(feature pyramid network) 算法主干框架中的特征。右,為了得到未來實(shí)例分割,我們從 t-τ 到 t 幀提取 FPN 特征,并預(yù)測 t + 1 幀的 FPN 特征。

預(yù)測卷積特征

對處于不同 FPN 層級的特征進(jìn)行訓(xùn)練,并將其作為共享“探測頭(detection head)”的輸入。然而,由于分辨率在不同層級上會發(fā)生改變,每層上的“空間-時間”動態(tài)特性也會不同。 因此,我們提出了一種多尺度算法,對每一級采用單獨(dú)的網(wǎng)絡(luò)進(jìn)行預(yù)測。每級網(wǎng)絡(luò)都經(jīng)過訓(xùn)練,彼此完全獨(dú)立地工作。對于每一級,我們關(guān)注的是特征維度輸入序列的特征。

實(shí)驗(yàn)評估

我們使用的是 Cityscapes 數(shù)據(jù)集,數(shù)據(jù)來自于汽車在駕駛過程中錄制的城市環(huán)境視頻,每個視頻片段時長 1.8 秒,一共分為 2,975 個訓(xùn)練集,500 個驗(yàn)證集和 1,525 個測試集。

我們使用在 MS-COCO 數(shù)據(jù)集上預(yù)先訓(xùn)練好的的 Mask R-CNN 模型,并在 Cityscapes 數(shù)據(jù)集上以端到端的形式對其進(jìn)行微調(diào)。

未來實(shí)例分割:表1為未來特征預(yù)測算法 (F2F) 的實(shí)例分割結(jié)果,并將其與 Oracle、Copy 和光流基線的性能做比較。由表可知,F(xiàn)2F 算法效果最好,比最佳的中期基線提高了 74% 以上。

表1:Cityscapes val.數(shù)據(jù)集上實(shí)例分割的精確度

未來語義分割:我們發(fā)現(xiàn),F(xiàn)2F 算法在 IoU 方面比所有的短期分割方法都有明顯的改進(jìn),以61.2 %的成績排名第一。

表2: 不同算法在 Cityscapes val. 數(shù)據(jù)集上的移動對象( 8 類)短期和中期語義分割表現(xiàn)。

圖4顯示,與 Warp 基線相比, F2F 算法能夠與對象的實(shí)際布局更好地對齊,這表明該算法已經(jīng)學(xué)會了對場景和對象的動態(tài)建模,且效果比基線好。如預(yù)期所示,預(yù)測的掩碼也比那些 S2S 算法更加精確。

圖4:對三個序列的中期預(yù)測(未來 0.5 秒)。

通過圖5展示的示例,我們可以更好地理解,為什么在語義分割度量標(biāo)準(zhǔn)方面,F(xiàn)2F 和 Warp 基線之間的差異比實(shí)例分割度量標(biāo)準(zhǔn)要小很多。

圖5:用 Warp 基線和 F2F 模型獲得的中期預(yù)測的實(shí)例和語義分割。不準(zhǔn)確的實(shí)例分割會導(dǎo)致精確的語義分割區(qū)域,請看圖中的橙色矩形高光部分。

失敗案例討論

在圖6(a) 的第一個例子中,由于前面的所有模型認(rèn)為白色轎車完全被另一輛車遮擋,因此沒有檢測到。這是不可避免的一種情況,除非對象在較早的幀中可見,在這種情況下,長期記憶機(jī)制可能會避免不必要的錯誤。

在圖 6(b) 中,卡車和行人的預(yù)測掩碼在形狀和位置上都不連貫。用明確建模遮擋機(jī)制或許可以獲得更一致的預(yù)測。

最后,由于對象本身比較模糊,某些運(yùn)動和形狀轉(zhuǎn)換很難得到準(zhǔn)確的預(yù)測,如圖 6(c)中的行人的腿部,對于這種情況,確切的姿勢存在高度的不確定性。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3885

    瀏覽量

    141076
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    42111
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49594

    瀏覽量

    260010

原文標(biāo)題:Yann LeCun等最新研究:如何對未來實(shí)例分割進(jìn)行預(yù)測?

文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何選擇LTE系統(tǒng)測試方法,存在哪些挑戰(zhàn)?

    TD-LTE、FDD-LTE和LTE-Advanced(LTE-A)無線技術(shù)使用了幾種不同的多種輸入多路輸出(MIMO)技術(shù)。鑒于MIMO系統(tǒng)的復(fù)雜正在日益提高,因此相關(guān)的測試方法也更具
    發(fā)表于 02-28 11:18

    設(shè)計(jì)了定制形狀的圣誕樹

    描述圣誕樹我們設(shè)計(jì)了定制形狀的 PCB,并將其發(fā)送到 PCBWAY 進(jìn)行制造。它是從美國俄亥俄州到中國的往返行程,8 天后返回。為了制作我們的自定義形狀,我們繪圖導(dǎo)入 PCB 設(shè)
    發(fā)表于 08-02 07:58

    如何使用Wemos D1 mini制作款簡單但具有挑戰(zhàn)性的游戲?

    我使用 Wemos D1 mini 制作了款簡單但具有挑戰(zhàn)性的游戲。 我盡量使說明盡可能詳細(xì),但如果您對此有任何疑問,請告訴我。 您所要做的就是魔杖從電線的端拿到另
    發(fā)表于 05-23 06:14

    基于視頻對象的區(qū)域分割及其應(yīng)用

    為適應(yīng)MPEG-4 基于對象的應(yīng)用,提出種基于視頻對象的區(qū)域分割算法。在視頻對象的指導(dǎo)下,利用均值漂移
    發(fā)表于 10-04 14:06 ?12次下載

    音頻設(shè)計(jì):比你所想象的更富挑戰(zhàn)性

    音頻設(shè)計(jì):比你所想象的更富挑戰(zhàn)性 通常會認(rèn)為20 Hz ~20 kHz常規(guī)頻段的音頻設(shè)計(jì)是基本的、不具挑戰(zhàn)性的。但是本篇特別報(bào)道的作者----音頻工程(audio engineering)的專家們對
    發(fā)表于 09-16 10:02 ?963次閱讀

    聚焦語義分割任務(wù),如何用卷積神經(jīng)網(wǎng)絡(luò)處理語義圖像分割

    一對象。作者沿著該領(lǐng)域的研究脈絡(luò),說明如何用卷積神經(jīng)網(wǎng)絡(luò)處理語義圖像分割的任務(wù)。 更具體地講,語義圖像分割的目標(biāo)在于標(biāo)記圖片中每
    發(fā)表于 09-17 15:21 ?766次閱讀

    Facebook AI使用單神經(jīng)網(wǎng)絡(luò)架構(gòu)來同時完成實(shí)例分割和語義分割

    新架構(gòu)“全景 FPN ”在 Facebook 2017 年發(fā)布的 Mask R-CNN 的基礎(chǔ)上添加了用于語義分割的分支。這新架構(gòu)
    的頭像 發(fā)表于 04-22 11:46 ?3349次閱讀
    Facebook AI使用單<b class='flag-5'>一</b>神經(jīng)網(wǎng)絡(luò)架構(gòu)來同時完成<b class='flag-5'>實(shí)例</b><b class='flag-5'>分割</b>和語義<b class='flag-5'>分割</b>

    四軸飛行器進(jìn)行特技飛行極具挑戰(zhàn)性

    然而,用四軸飛行器進(jìn)行特技飛行極具挑戰(zhàn)性,無人機(jī)駕駛員需要多年的實(shí)踐才能安全地做到這點(diǎn),而又不會損害硬件,自身或他人。
    發(fā)表于 07-08 17:15 ?1430次閱讀

    深度學(xué)習(xí)在視頻對象分割的應(yīng)用及相關(guān)研究

    視頻對象分割是指在給定的段視頻序列的各幀圖像,找岀屬于特定前景對象的所有像素點(diǎn)位置區(qū)域。隨著硬件平臺計(jì)算能力的提升,深度學(xué)習(xí)受到了越來越
    發(fā)表于 03-24 15:47 ?9次下載
    深度學(xué)習(xí)在視頻<b class='flag-5'>對象</b><b class='flag-5'>分割</b><b class='flag-5'>中</b>的應(yīng)用及相關(guān)研究

    什么是圖像實(shí)例分割?常見的圖像實(shí)例分割有哪幾種?

    圖像實(shí)例分割是在對象檢測的基礎(chǔ)上進(jìn)步細(xì)化,分離對象的前景與背景,實(shí)現(xiàn)像素級別的對象分離。
    的頭像 發(fā)表于 06-17 11:15 ?2.7w次閱讀
    什么是圖像<b class='flag-5'>實(shí)例</b><b class='flag-5'>分割</b>?常見的圖像<b class='flag-5'>實(shí)例</b><b class='flag-5'>分割</b>有哪幾種?

    深度學(xué)習(xí)部分監(jiān)督的實(shí)例分割環(huán)境

    實(shí)例分割的任務(wù)是圖像的像素分組為單個事物的實(shí)例,并用類標(biāo)簽(可計(jì)數(shù)的
    的頭像 發(fā)表于 10-21 14:05 ?2247次閱讀

    點(diǎn)云分割相較圖像分割的優(yōu)勢是啥?

    自動駕駛領(lǐng)域的下游任務(wù),我認(rèn)為主要包括目標(biāo)檢測、語義分割實(shí)例分割和全景分割。其中目標(biāo)檢測是指在區(qū)域中提取目標(biāo)的候選框并分類,語義分割是對區(qū)
    的頭像 發(fā)表于 12-14 14:25 ?3599次閱讀

    每日課 | 在智慧燈桿視覺技術(shù)實(shí)例分割技術(shù)簡介

    3.2.5實(shí)例分割圖3-9所示為實(shí)例分割示意圖。圖3-9實(shí)例分割
    的頭像 發(fā)表于 03-08 09:19 ?744次閱讀
    每日<b class='flag-5'>一</b>課 | 在智慧燈桿視覺技術(shù)<b class='flag-5'>中</b>的<b class='flag-5'>實(shí)例</b><b class='flag-5'>分割</b>技術(shù)簡介

    圖像分割和語義分割的區(qū)別與聯(lián)系

    、亮度等。圖像分割的目的是圖像感興趣的部分與背景分離,以便進(jìn)行進(jìn)一步的處理和分析。 1.1 圖像分割的類型 圖像
    的頭像 發(fā)表于 07-17 09:55 ?2295次閱讀

    康謀分享 | 在基于場景的AD/ADAS驗(yàn)證過程,識別挑戰(zhàn)性場景!

    基于場景的驗(yàn)證是AD/ADAS系統(tǒng)開發(fā)過程的重要步驟,然而面對海量駕駛記錄數(shù)據(jù)時,如何實(shí)現(xiàn)自動且高效地識別、分類和提取駕駛記錄挑戰(zhàn)性場景?本文康謀為您介紹IVEX軟件識別挑戰(zhàn)性
    的頭像 發(fā)表于 08-28 10:16 ?1637次閱讀
    康謀分享 | 在基于場景的AD/ADAS驗(yàn)證過程<b class='flag-5'>中</b>,識別<b class='flag-5'>挑戰(zhàn)性</b>場景!