亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于邊緣的模板匹配適用部分遮擋和光照變化情形(附源碼)

新機器視覺 ? 來源:Shiju PK ? 作者:Shiju PK ? 2021-10-13 15:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

介紹

模板匹配是一個圖像處理問題,當其姿態(tài)(X,Y,θ)未知時,使用另一張搜索圖像中的模板圖像找到對象的位置。在本文中,我們實現(xiàn)了一種算法,該算法使用對象的邊緣信息來識別搜索圖像中的對象。

背景

由于其速度和可靠性問題,模板匹配本質(zhì)上是一個棘手的問題。當對象部分可見或與其他對象混合時,該解決方案應對亮度變化具有魯棒性,最重要的是,該算法應具有計算效率。解決這個問題主要有兩種方法,基于灰度值的匹配(或基于區(qū)域的匹配)和基于特征的匹配(非基于區(qū)域的匹配)。

基于灰度值的方法:在基于灰度值的匹配中,歸一化互相關(guān) (NCC) 算法早在過去就已為人所知。這通常在每一步通過減去平均值并除以標準偏差來完成。模板 t(x, y) 與子圖像 f(x, y) 的互相關(guān)為:

其中 n 是 t(x, y) 和 f(x, y) 中的像素數(shù)。[維基]

盡管該方法對線性光照變化具有魯棒性,但當對象部分可見或?qū)ο笈c其他對象混合時,該算法將失敗。此外,該算法的計算成本很高,因為它需要計算模板圖像中所有像素與搜索圖像之間的相關(guān)性。

基于特征的方法:在圖像處理領(lǐng)域中使用了幾種基于特征的模板匹配方法。與基于邊緣的物體識別一樣,物體邊緣是用于匹配的特征,在廣義霍夫變換中,物體的幾何特征將用于匹配。

在本文中,我們實現(xiàn)了一種算法,該算法使用對象的邊緣信息來識別搜索圖像中的對象。此實現(xiàn)使用開源計算機視覺庫作為平臺。

編譯示例代碼

我們使用 OpenCV 2.0 和 Visual Studio 2008 來開發(fā)此代碼。要編譯示例代碼,我們需要安裝 OpenCV。

OpenCV 可以從這里免費下載。OpenCV的(開放源碼?動態(tài)數(shù)值V ision)是一種用于實時計算機視覺編程功能的庫。下載 OpenCV 并將其安裝在您的系統(tǒng)中。安裝信息可以從這里閱讀。

我們需要配置我們的 Visual Studio 環(huán)境??梢詮拇颂庨喿x此信息。

算法

在這里,我們將解釋基于邊緣的模板匹配技術(shù)。邊緣可以定義為數(shù)字圖像中圖像亮度急劇變化或具有不連續(xù)性的點。從技術(shù)上講,它是一種離散微分運算,計算圖像強度函數(shù)的梯度近似值。

邊緣檢測的方法有很多,但大多數(shù)可以分為兩類:基于搜索的和基于過零的?;谒阉鞯姆椒ㄍㄟ^首先計算邊緣強度的度量來檢測邊緣,通常是一階導數(shù)表達式,例如梯度幅度,然后使用計算的局部方向的估計來搜索梯度幅度的局部方向最大值邊緣,通常是梯度方向。在這里,我們使用了一種由 Sobel 實現(xiàn)的方法,稱為 Sobel 算子。操作員計算每個點的圖像強度梯度,給出從明到暗的最大可能增加方向以及該方向的變化率。

我們在 X 方向和 Y 方向使用這些梯度或?qū)?shù)進行匹配。

該算法包括兩個步驟。首先,我們需要為模板圖像創(chuàng)建一個基于邊緣的模型,然后我們使用這個模型在搜索圖像中進行搜索。

創(chuàng)建基于邊緣的模板模型

我們首先從模板圖像的邊緣創(chuàng)建一個數(shù)據(jù)集或模板模型,用于在搜索圖像中查找該對象的姿態(tài)。

在這里,我們使用 Canny 邊緣檢測方法的變體來查找邊緣。您可以在此處閱讀有關(guān) Canny 邊緣檢測的更多信息。對于邊緣提取,Canny 使用以下步驟:

第一步:求圖像的強度梯度

在模板圖像上使用 Sobel 過濾器,它返回 X (Gx) 和 Y (Gy) 方向的梯度。根據(jù)這個梯度,我們將使用以下公式計算邊緣大小和方向:

我們正在使用 OpenCV 函數(shù)來查找這些值。

cvSobel( src, gx, 1,0, 3 ); //gradient in X directioncvSobel( src, gy, 0, 1, 3 ); //gradient in Y direction
for( i = 1; i < Ssize.height-1; i++ ){    for( j = 1; j < Ssize.width-1; j++ )    {                  _sdx = (short*)(gx->data.ptr + gx->step*i);        _sdy = (short*)(gy->data.ptr + gy->step*i);        fdx = _sdx[j]; fdy = _sdy[j];        // read x, y derivatives
        //Magnitude = Sqrt(gx^2 +gy^2)        MagG = sqrt((float)(fdx*fdx) + (float)(fdy*fdy));        //Direction = invtan (Gy / Gx)        direction =cvFastArctan((float)fdy,(float)fdx);        magMat[i][j] = MagG;
        if(MagG>MaxGradient)            MaxGradient=MagG;            // get maximum gradient value for normalizing.

        // get closest angle from 0, 45, 90, 135 set        if ( (direction>0 && direction < 22.5) ||               (direction >157.5 && direction < 202.5) ||               (direction>337.5 && direction<360)  )            direction = 0;        else if ( (direction>22.5 && direction < 67.5) ||                   (direction >202.5 && direction <247.5)  )            direction = 45;        else if ( (direction >67.5 && direction < 112.5)||                  (direction>247.5 && direction<292.5) )            direction = 90;        else if ( (direction >112.5 && direction < 157.5)||                  (direction>292.5 && direction<337.5) )            direction = 135;        else            direction = 0;
        orients[count] = (int)direction;        count++;    }}

一旦找到邊緣方向,下一步就是關(guān)聯(lián)圖像中可以追蹤的邊緣方向。有四種可能的方向來描述周圍的像素:0 度、45 度、90 度和 135 度。我們將所有方向分配給這些角度中的任何一個。

步驟 2:應用非極大值抑制

找到邊緣方向后,我們會做一個非極大值抑制算法。非極大值抑制沿邊緣方向跟蹤左右像素,如果當前像素幅度小于左右像素幅度,則抑制當前像素幅度。這將導致圖像變薄。

for( i = 1; i < Ssize.height-1; i++ ){    for( j = 1; j < Ssize.width-1; j++ )    {        switch ( orients[count] )        {            case 0:                leftPixel  = magMat[i][j-1];                rightPixel = magMat[i][j+1];                break;            case 45:                leftPixel  = magMat[i-1][j+1];                rightPixel = magMat[i+1][j-1];                break;            case 90:                leftPixel  = magMat[i-1][j];                rightPixel = magMat[i+1][j];                break;            case 135:                leftPixel  = magMat[i-1][j-1];                rightPixel = magMat[i+1][j+1];                break;        }        // compare current pixels value with adjacent pixels        if (( magMat[i][j] < leftPixel ) || (magMat[i][j] < rightPixel ) )            (nmsEdges->data.ptr + nmsEdges->step*i)[j]=0;        Else            (nmsEdges->data.ptr + nmsEdges->step*i)[j]=                                 (uchar)(magMat[i][j]/MaxGradient*255);        count++;    }}

第三步:做滯后閾值

用滯后做閾值需要兩個閾值:高和低。我們應用高閾值來標記那些我們可以相當確定是真實的邊緣。從這些開始,使用先前導出的方向信息,可以通過圖像追蹤其他邊緣。在跟蹤邊緣時,我們應用較低的閾值,只要我們找到一個起點,我們就可以跟蹤邊緣的微弱部分。

_sdx = (short*)(gx->data.ptr + gx->step*i);_sdy = (short*)(gy->data.ptr + gy->step*i);fdx = _sdx[j]; fdy = _sdy[j];
MagG = sqrt(fdx*fdx + fdy*fdy); //Magnitude = Sqrt(gx^2 +gy^2)DirG =cvFastArctan((float)fdy,(float)fdx);     //Direction = tan(y/x)
////((uchar*)(imgGDir->imageData + imgGDir->widthStep*i))[j]= MagG;flag=1;if(((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j]) < maxContrast){    if(((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j])< minContrast)    {        (nmsEdges->data.ptr + nmsEdges->step*i)[j]=0;        flag=0; // remove from edge        ////((uchar*)(imgGDir->imageData + imgGDir->widthStep*i))[j]=0;    }    else    {   // if any of 8 neighboring pixel is not greater than max contraxt remove from edge        if( (((double)((nmsEdges->data.ptr + nmsEdges->step*(i-1)))[j-1]) < maxContrast) &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*(i-1)))[j]) < maxContrast)   &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*(i-1)))[j+1]) < maxContrast) &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j-1]) < maxContrast)     &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j+1]) < maxContrast)     &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*(i+1)))[j-1]) < maxContrast) &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*(i+1)))[j]) < maxContrast)   &&            (((double)((nmsEdges->data.ptr + nmsEdges->step*(i+1)))[j+1]) < maxContrast))        {            (nmsEdges->data.ptr + nmsEdges->step*i)[j]=0;            flag=0;            ////((uchar*)(imgGDir->imageData + imgGDir->widthStep*i))[j]=0;        }    }}

第 4 步:保存數(shù)據(jù)集

提取邊緣后,我們將所選邊緣的 X 和 Y 導數(shù)與坐標信息一起保存為模板模型。這些坐標將重新排列以反映作為重心的起點。

找到基于邊的模板模型

算法中的下一個任務是使用模板模型在搜索圖像中找到對象。我們可以看到我們從包含一組點的模板圖像創(chuàng)建的模型:

,以及它在 X 和 Y 方向上的梯度

,其中i = 1…n,n是模板 (T) 數(shù)據(jù)集中的元素數(shù)。

我們還可以在搜索圖像 (S) 中找到梯度

,其中 u = 1.。。搜索圖像中的行數(shù),v = 1.。。搜索圖像中的列數(shù)。

在匹配過程中,應使用相似性度量將模板模型與所有位置的搜索圖像進行比較。相似性度量背后的思想是取模板圖像梯度向量的所有歸一化點積之和,并在模型數(shù)據(jù)集中的所有點上搜索圖像。這會導致搜索圖像中每個點的分數(shù)。這可以表述如下:

如果模板模型和搜索圖像之間存在完美匹配,則此函數(shù)將返回分數(shù) 1。該分數(shù)對應于搜索圖像中可見的對象部分。如果搜索圖像中不存在對象,則分數(shù)將為 0。

cvSobel( src, Sdx, 1, 0, 3 );  // find X derivativescvSobel( src, Sdy, 0, 1, 3 ); // find Y derivativesfor( i = 0; i < Ssize.height; i++ ){    for( j = 0; j < Ssize.width; j++ )    {         partialSum = 0; // initilize partialSum measure        for(m=0;m        {            curX    = i + cordinates[m].x ;    // template X coordinate            curY    = j + cordinates[m].y ; // template Y coordinate            iTx    = edgeDerivativeX[m];    // template X derivative            iTy    = edgeDerivativeY[m];    // template Y derivative
            if(curX<0 ||curY<0||curX>Ssize.height-1 ||curY>Ssize.width-1)                continue;
            _Sdx = (short*)(Sdx->data.ptr + Sdx->step*(curX));            _Sdy = (short*)(Sdy->data.ptr + Sdy->step*(curX));
            iSx=_Sdx[curY]; // get curresponding  X derivative from source image            iSy=_Sdy[curY];// get curresponding  Y derivative from source image
            if((iSx!=0 || iSy!=0) && (iTx!=0 || iTy!=0))            {                //partial Sum  = Sum of(((Source X derivative* Template X drivative)                //+ Source Y derivative * Template Y derivative)) / Edge                //magnitude of(Template)* edge magnitude of(Source))                partialSum = partialSum + ((iSx*iTx)+(iSy*iTy))*                            (edgeMagnitude[m] * matGradMag[curX][curY]);
            }

在實際情況下,我們需要加快搜索過程。這可以使用各種方法來實現(xiàn)。第一種方法是使用平均的屬性。在尋找相似性度量時,如果我們可以為相似性度量設置一個最小分數(shù)(Smin,我們就不需要評估模板模型中的所有點。為了檢查特定點 J 處的部分分數(shù) Su,v,我們必須找到部分總和 Sm。點 m 處的 Sm 可以定義如下:

0cf1416a-2183-11ec-82a8-dac502259ad0.png

很明顯,和的剩余項小于或等于 1。因此,如果 ,我們可以停止評估

0d2a7502-2183-11ec-82a8-dac502259ad0.png

。

另一個標準可以是任何點的部分分數(shù)應大于最低分數(shù)。即,

0d56cac6-2183-11ec-82a8-dac502259ad0.png

。使用此條件時,匹配將非??臁?/span>但問題是,如果先檢查對象的缺失部分,部分和會很低。在這種情況下,對象的該實例不會被視為匹配項。我們可以用另一個標準修改它,我們用安全停止標準檢查模板模型的第一部分,用硬標準檢查其余部分,

0d99eb08-2183-11ec-82a8-dac502259ad0.png

.用戶可以指定貪婪參數(shù) (g),其中使用硬標準檢查模板模型的部分。所以如果g=1,模板模型中的所有點都用硬標準檢查,如果g=0,所有點將只用安全標準檢查。我們可以將這個過程表述如下。

部分分數(shù)的評估可以在以下位置停止:

0da9e256-2183-11ec-82a8-dac502259ad0.png

// stoping criterias to search for modeldouble normMinScore = minScore /noOfCordinates; // precompute minumum score double normGreediness = ((1- greediness * minScore)/(1-greediness)) /noOfCordinates;// precompute greedniness
sumOfCoords = m + 1;partialScore = partialSum /sumOfCoords ;// check termination criteria// if partial score score is less than the score than// needed to make the required score at that position// break serching at that coordinate.if( partialScore < (MIN((minScore -1) +         normGreediness*sumOfCoords,normMinScore*  sumOfCoords)))    break;

這種相似性度量有幾個優(yōu)點:相似性度量對非線性光照變化是不變的,因為所有梯度向量都是歸一化的。由于邊緣過濾沒有分割,它將顯示對光照任意變化的真實不變性。更重要的是,當對象部分可見或與其他對象混合時,這種相似性度量是穩(wěn)健的。

增強功能

該算法有多種可能的增強。為了進一步加快搜索過程,可以使用金字塔方法。在這種情況下,搜索以低分辨率和小圖像尺寸開始。這對應于金字塔的頂部。如果在此階段搜索成功,則在金字塔的下一層繼續(xù)搜索,該層代表更高分辨率的圖像。以這種方式,繼續(xù)搜索,從而細化結(jié)果,直到達到原始圖像大小,即到達金字塔底部。

通過擴展旋轉(zhuǎn)和縮放算法,可以實現(xiàn)另一種增強。這可以通過創(chuàng)建用于旋轉(zhuǎn)和縮放的模板模型并使用所有這些模板模型執(zhí)行搜索來完成。

原文作者:Shiju PK 原文鏈接:

https://www.codeproject.com/articles/99457/edge-based-template-matching

翻譯整理:Color Space

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 邊緣檢測
    +關(guān)注

    關(guān)注

    0

    文章

    94

    瀏覽量

    18589
  • OpenCV
    +關(guān)注

    關(guān)注

    33

    文章

    650

    瀏覽量

    44235

原文標題:OpenCV實現(xiàn)基于邊緣的模板匹配--適用部分遮擋和光照變化情形(附源碼)

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    目標追蹤的簡易實現(xiàn):模板匹配

    一直不變的,當目標靠近或者遠離攝像頭的時候,在視頻中就會表現(xiàn)出目標尺度大小的變化,這給算法的自適應能力帶來了挑戰(zhàn);遮擋與消失,即目標物體在運動過程中可能會被其他物體短暫地遮擋,因此需要算法能夠在目標
    發(fā)表于 10-28 07:21

    1688 拍立淘接口實戰(zhàn):從圖像優(yōu)化、工廠排序到供應鏈匹配可跑代碼)

    深耕B2B電商十余年,親歷1688拍立淘接口20+坑:從圖像預處理、權(quán)限申請到工廠排序。本文詳解核心參數(shù)、實戰(zhàn)代碼及多圖驗證、定制方案生成等高級技巧,助你實現(xiàn)“看圖找廠”精準匹配,可運行代碼,新手也能少走兩年彎路。
    的頭像 發(fā)表于 10-09 10:39 ?191次閱讀

    部署邊緣計算設備時需要考慮哪些問題?

    應對邊緣場景的復雜挑戰(zhàn)。以下是關(guān)鍵注意事項,按核心維度分類說明: 一、硬件選型:匹配邊緣場景的 “環(huán)境適應性” 與 “資源平衡” 邊緣設備的硬件是基礎(chǔ),需優(yōu)先解決 “ 環(huán)境耐受度 ”
    的頭像 發(fā)表于 09-05 15:38 ?555次閱讀
    部署<b class='flag-5'>邊緣</b>計算設備時需要考慮哪些問題?

    怎么導出python邊緣計算中的APP,想進行修改又找不到源碼?

    怎么導出python邊緣計算中的APP,想進行修改又找不到源碼
    發(fā)表于 08-06 07:33

    貴港光電固定式雙測頭的兩種典型應用形式

    關(guān)鍵字:固定式雙測頭,雙測頭測徑儀,雙測頭測寬儀, 固定式雙測頭適用于測量較大尺寸但尺寸變化較小的棒材、管材的直徑以及在線偏移量小的板材的寬度、角鋼、方鋼的邊長等。 固定式雙測頭系統(tǒng)通常采用CCD
    發(fā)表于 07-23 15:17

    樂山不同類型的線纜外徑測量儀適用于哪些場景?

    測徑儀/激光掃描測徑儀:中小直徑+自動控制 CCD光電原理:LED光源通過鏡頭形成遠心平行光視場,線陣CCD傳感器捕捉線纜遮擋光線的邊緣,計算直徑(測量頻率5002000Hz),無旋轉(zhuǎn)部件,無易損部件
    發(fā)表于 07-11 15:08

    每周推薦!基于STM32開發(fā)項目實例下載(含PCB、原理圖、源碼等)

    、論文等) 基于STM32的武警哨位聯(lián)動報警系統(tǒng)設計,支持以太網(wǎng)和WIFI通信(硬件、源碼、論文等) 項目實例下載! 4、基于STM32的衛(wèi)星GPS路徑記錄儀(完整源代碼) 基于STM32的衛(wèi)星
    發(fā)表于 05-26 14:01

    HarmonyOS5云服務技術(shù)分享--Serverless抽獎模板部署

    手把手教你部署HarmonyOS Serverless抽獎活動模板貼心提醒) 嘿,小伙伴們!今天給大家分享一個超實用的教程——如何用華為HarmonyOS的Serverless模板快速搭建抽獎
    發(fā)表于 05-22 20:25

    基于LockAI視覺識別模塊:C++多模板匹配

    景:廣泛應用于物體識別、工業(yè)自動化、機器人導航等領(lǐng)域。 優(yōu)勢:支持多個模板的同時匹配,能夠靈活處理多種目標。 局限性:對旋轉(zhuǎn)、縮放和光照變化較為敏感,因此通常需要結(jié)合其他技術(shù)來提高魯棒
    發(fā)表于 05-14 15:00

    基于LockAI視覺識別模塊:C++多模板匹配

    模板匹配是一種在圖像中同時尋找多個模板的技術(shù)。通過對每個模板逐一進行匹配,找到與輸入圖像最相似的區(qū)域,并標記出
    的頭像 發(fā)表于 05-14 14:37 ?1253次閱讀
    基于LockAI視覺識別模塊:C++多<b class='flag-5'>模板</b><b class='flag-5'>匹配</b>

    基于LockAI視覺識別模塊:C++模板匹配

    、機器人導航等領(lǐng)域。 局限性:模板匹配對旋轉(zhuǎn)、縮放和光照變化較為敏感,因此通常需要結(jié)合其他技術(shù)來提高魯棒性。 1.2 模板
    發(fā)表于 05-13 14:40

    基于LockAI視覺識別模塊:C++模板匹配

    模板匹配是一種在圖像中尋找特定模式的技術(shù)。它通過滑動一個模板圖像(較小的圖像)在輸入圖像上進行比較,找到最相似的區(qū)域。本實驗提供了一個簡單的模板匹配
    的頭像 發(fā)表于 05-13 14:14 ?443次閱讀
    基于LockAI視覺識別模塊:C++<b class='flag-5'>模板</b><b class='flag-5'>匹配</b>

    典型模電電路應用108例,Protel DXP原理圖和pdf文件

    資料介紹 108個典型經(jīng)典應用電路實例,內(nèi)Protel DXP原理圖和pdf文件,初學適用。 資料部分截圖展示: 純分享貼,有需要可以直接下載附件獲取資料! (如果內(nèi)容有幫助
    發(fā)表于 03-20 13:21

    基于無操作系統(tǒng)的STM32單片機開發(fā)源碼

    現(xiàn)在非常多的的MCU性能都還不錯,同時用戶也會去擴展一些外部RAM,這樣如果高效便捷的管理這些內(nèi)存是一個重要話題。 今天給大家分享一份源碼:基于無操作系統(tǒng)的STM32單片機開發(fā),功能強大,可申請
    的頭像 發(fā)表于 11-15 11:24 ?1746次閱讀

    手寫圖像模板匹配算法在OpenCV中的實現(xiàn)

    OpenCV中的模板匹配是支持基于NCC相似度查找的,但是不是很好用,一個主要的原因是查找最大閾值,只能匹配一個,自己比對閾值,又導致無法正確設定閾值范圍,所以問題很多。于是我重新寫了純Python版本的NCC圖像
    的頭像 發(fā)表于 11-11 10:12 ?1013次閱讀
    手寫圖像<b class='flag-5'>模板</b><b class='flag-5'>匹配</b>算法在OpenCV中的實現(xiàn)