《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 其他 > 設(shè)計(jì)應(yīng)用 > 基于分塊背景更新的目標(biāo)特征識(shí)別與跟蹤
基于分塊背景更新的目標(biāo)特征識(shí)別與跟蹤
來源:電子技術(shù)應(yīng)用2013年第12期
武曉光, 郭天文, 沈天培, 溫健陽(yáng)
南京工業(yè)大學(xué) 電子與信息工程學(xué)院, 江蘇 南京211816
摘要: 提出了基于背景分塊更新的目標(biāo)特征點(diǎn)識(shí)別、匹配和跟蹤算法。該算法對(duì)視頻檢測(cè)區(qū)域進(jìn)行分塊處理,以圖像幀差結(jié)果判定前景目標(biāo)的狀態(tài),從而完成背景更新,可有效消除傳統(tǒng)的基于概率模型背景更新方法的弊端。在此基礎(chǔ)上提出了以目標(biāo)位置和顏色作為特征信息的匹配、跟蹤算法;并將算法成功應(yīng)用于DM648硬件平臺(tái)實(shí)現(xiàn)了4路PAL視頻客流量統(tǒng)計(jì)。結(jié)果表明,該算法可將客流量統(tǒng)計(jì)準(zhǔn)確率穩(wěn)定在95%。
中圖分類號(hào): TN911.73
文獻(xiàn)標(biāo)識(shí)碼: A
文章編號(hào): 0258-7998(2013)12-0141-04
Feature recognition and tracking algorithm based on block-updating of background
Wu Xiaoguang, Guo Tianwen, Shen Tianpei, Wen Jianyang
College of Electronic and Information, Nanjing University of Technology, Nanjing 211816, China
Abstract: A new target feature matching and tracking algorithm was proposed, based on block-updating of video background. Using this algorithm, block processing the video detection zone, the correct background image was obtained according to the status of foreground target throgh the frame difference. This algorithm could effectively eliminate defects of traditional background updating method, which was based on probability model. Then, a new method to matching and tracking the feature of target, using position,luminance and colour etc. of the target was imposed. At last the algorithm was applied on the DM648 hard platform,which achieved the 4 channel PAL video passenger flow statistics. The results showed the counting precision steady at 95%.
Key words : background update; feature tracking; target recognition; passenger flow statistics

    運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤是在動(dòng)態(tài)圖像分析的基礎(chǔ)上,結(jié)合圖像模式識(shí)別和圖像跟蹤方法對(duì)圖像序列中的目標(biāo)進(jìn)行檢測(cè)、識(shí)別、跟蹤的過程。人體目標(biāo)識(shí)別與跟蹤是該領(lǐng)域的重要課題之一,在安防監(jiān)控、客流統(tǒng)計(jì)等方面應(yīng)用廣泛。

    目前目標(biāo)跟蹤算法可以分為兩類:(1)基于模型的方法,如模板匹配、圖像分割和活動(dòng)輪廓法[1]。以Mean Shift算法和Snake算法為代表,其中Mean Shift以目標(biāo)顏色進(jìn)行建模,具有較好的實(shí)時(shí)性和跟蹤性能,但目標(biāo)顏色與背景顏色接近時(shí)跟蹤失敗;Snake算法基于目標(biāo)輪廓進(jìn)行跟蹤,受目標(biāo)初始形狀和位置影響較大,計(jì)算量大不適合實(shí)時(shí)操作。(2)基于運(yùn)動(dòng)的方法,如光流法和特特征點(diǎn)法[1],現(xiàn)有的基于特征點(diǎn)跟蹤算以目標(biāo)的質(zhì)心或任意特征點(diǎn)實(shí)現(xiàn)對(duì)目標(biāo)的跟蹤,在處理多目標(biāo)跟蹤時(shí)效果較差[2]。
      本文提出了將檢測(cè)區(qū)按32×32像素點(diǎn)進(jìn)行分割,以圖像序列多狀態(tài)轉(zhuǎn)移綜合判定前景目標(biāo)和背景的情況,完成背景的提取與更新;基于運(yùn)動(dòng)的方法,提出利用目標(biāo)的亮度和顏色信息,以及在圖像序列中的相對(duì)位置來構(gòu)建代價(jià)函數(shù)的算法,進(jìn)行目標(biāo)特征匹配與跟蹤,改善多目標(biāo)情況下的跟蹤性能。以商場(chǎng)客流統(tǒng)計(jì)為例,從人體目標(biāo)運(yùn)動(dòng)檢測(cè)、特征匹配跟蹤和計(jì)數(shù)三方面展開論述。
1 人體運(yùn)動(dòng)檢測(cè)
    在客流量統(tǒng)計(jì)中運(yùn)動(dòng)目標(biāo)檢測(cè)有獲取目標(biāo)在場(chǎng)景中的位置信息及獲取目標(biāo)盡可能多的特征信息兩個(gè)任務(wù)。
    商場(chǎng)客流統(tǒng)計(jì)攝像頭常安裝于出入口正上方垂直向下攝取圖像,屬于靜止背景的目標(biāo)識(shí)別,常用算法有幀間差分法、背景差分法和光流法。
1.1 幀間差分法
    幀差法具有運(yùn)算量小、對(duì)光照和陰影等外界因素不敏感的優(yōu)點(diǎn)。但其缺點(diǎn)也非常明顯:無法檢測(cè)出靜止或移動(dòng)速度緩慢的目標(biāo),相反在目標(biāo)移動(dòng)較快時(shí),檢測(cè)出來的目標(biāo)又遠(yuǎn)大于實(shí)際目標(biāo);亮度、顏色等特征單一的目標(biāo)在差分運(yùn)算后將形成較大的空洞,造成差分結(jié)果不連通,即便進(jìn)行圖像的膨脹和腐蝕等形態(tài)學(xué)方面的處理,也不能消除空洞的影響。圖1所示為相鄰兩幀差分結(jié)果信息相對(duì)豐富,而圖2(a)中目標(biāo)信息單一,圖2(b)差分結(jié)果只有目標(biāo)輪廓,采用參考文獻(xiàn)[3]等改進(jìn)的差分算法對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行提取,結(jié)果如圖2(c)所示。

1.2 背景分塊更新算法
    背景差與幀間差相比,檢測(cè)出的目標(biāo)內(nèi)部區(qū)域不會(huì)出現(xiàn)較大的空洞,可以將目標(biāo)完整提取出來,獲取豐富的特征信息,便于目標(biāo)的匹配跟蹤。
    常用的方法包括基于卡爾曼濾波模型、基于高斯背景模型和基于簡(jiǎn)單概率統(tǒng)計(jì)的方法等,前兩種方法實(shí)現(xiàn)過程較為復(fù)雜,且算法的實(shí)現(xiàn)對(duì)硬件要求高。第三種方法在沒有運(yùn)動(dòng)目標(biāo)長(zhǎng)時(shí)間滯留的情況下效果較好,且運(yùn)算量不大,符合實(shí)時(shí)性要求;在實(shí)際應(yīng)用中,由于天氣、光照等外界條件的變化,或目標(biāo)長(zhǎng)時(shí)間滯留,影響了背景的準(zhǔn)確更新,由此可能會(huì)得到虛假的運(yùn)動(dòng)目標(biāo),從而造成誤判。
    基于概率統(tǒng)計(jì)的背景更新方法,常以一段時(shí)間內(nèi)序列幀圖像每個(gè)像素做差分運(yùn)算,滿足預(yù)設(shè)條件,則進(jìn)行背景更新[4]。如圖3所示,按32×32像素大小將檢測(cè)區(qū)域進(jìn)行分割,對(duì)每個(gè)分塊圖像按照?qǐng)D4所示將其分成初始狀態(tài)Status0,當(dāng)三幀差結(jié)果判定圖像無前景目標(biāo)和干擾時(shí),進(jìn)入Status1取背景數(shù)據(jù)BG1;在該狀態(tài)若有前景目標(biāo)運(yùn)動(dòng),則進(jìn)入Status2;當(dāng)前景目標(biāo)消失、圖像恢復(fù)靜止,則進(jìn)入Status3取背景數(shù)據(jù)BG3,據(jù)BG1、BG3差分運(yùn)算判定進(jìn)行背景更新,否則返回Status0。

    圖4中,②主要判斷是否有前景運(yùn)動(dòng)目標(biāo)存在,與①檢測(cè)圖像細(xì)微變化不同,人體運(yùn)動(dòng)時(shí)幀差結(jié)果較大、差分像素點(diǎn)數(shù)也較大,故將步驟(2)中的亮度閾值LumT1修改為L(zhǎng)umT2=2LumT1,步驟(4)中閾值CntT1修改為CntT2=10CntT1。當(dāng)Cnti i=1,2,3均大于CntT2時(shí)判定有前景目標(biāo)移動(dòng)Flag2=1,由Status1跳轉(zhuǎn)到Status2。
    
       對(duì)所有分塊區(qū)域按照?qǐng)D4方法進(jìn)行背景更新,可以得到整個(gè)檢測(cè)區(qū)的背景數(shù)據(jù)。

1.3 光流法
      光流法的優(yōu)點(diǎn)在于能夠檢測(cè)獨(dú)立運(yùn)動(dòng)的目標(biāo),對(duì)背景處于靜態(tài)或是動(dòng)態(tài)的環(huán)境均能適用,但是計(jì)算量較大,無法保證實(shí)用性和實(shí)時(shí)性[1]。
2 人體運(yùn)動(dòng)目標(biāo)跟蹤和計(jì)數(shù)
       采用分塊更新的方法可準(zhǔn)確提取背景信息有效檢測(cè)出前景目標(biāo),識(shí)別人體運(yùn)動(dòng)。在此基礎(chǔ)上實(shí)現(xiàn)人體特征結(jié)點(diǎn)的創(chuàng)建、跟蹤和計(jì)數(shù)。
2.1 虛擬檢測(cè)區(qū)
    圖3中將檢測(cè)區(qū)域劃分為3個(gè)區(qū)域、2條計(jì)數(shù)線,分別是:
    ①③創(chuàng)建區(qū),創(chuàng)建人體特征結(jié)點(diǎn);
    ②跟蹤區(qū),匹配人體特征信息,跟蹤人體運(yùn)動(dòng);
    ④出計(jì)數(shù)線,當(dāng)人體從③區(qū)域跨過該計(jì)數(shù)線時(shí),出計(jì)數(shù)值加1,標(biāo)注為⑦。
    ⑤進(jìn)計(jì)數(shù)線,當(dāng)人體從①區(qū)跨過該計(jì)數(shù)線時(shí),進(jìn)計(jì)數(shù)值加1,標(biāo)注為⑥。
2.2 人體特征結(jié)點(diǎn)的創(chuàng)建
    采用9宮格方法查找背景差結(jié)果的連通域[5],得到圖3中⑧所示的人體目標(biāo)的位置、長(zhǎng)寬信息,綜合判斷其是否在①③區(qū)域,以及長(zhǎng)寬大小、比例等信息,創(chuàng)建該目標(biāo)Person[i], i為人體目標(biāo)序號(hào), i=[1:I],I為當(dāng)前場(chǎng)景下目標(biāo)個(gè)數(shù),其信息如下:
    Person[i].x第i個(gè)人中心位置x坐標(biāo);
    Person[i].y第i個(gè)人中心位置y坐標(biāo);
    Person[i].W人體寬度;
    Person[i].H人體高度;
    Person[i].Cnt包含的特征方塊個(gè)數(shù);
    Person[i].Dir 創(chuàng)建區(qū)域。
    而該目標(biāo)的特征信息由PsnFeature[i][m]表示,m表示特征方塊序號(hào),m=[1:Person[i].Cnt]
    PsnFeature[i][m].x該特征方塊x坐標(biāo);
    PsnFeature[i][m].y該特征方塊y坐標(biāo);
    PsnFeature[i][m].Ymean 該特征塊Y分量均值;
    PsnFeature[i][m].Umean 該特征塊U分量均值;
    PsnFeature[i][m].Vmean 該特征塊V分量均值;
    Y、U、V均值采用算術(shù)平均的方法獲得。
2.3 特征匹配與跟蹤
   目標(biāo)在檢測(cè)區(qū)域內(nèi)運(yùn)動(dòng)軌跡無規(guī)律可循,特別是當(dāng)人流量較大時(shí),人體的運(yùn)動(dòng)軌跡雜亂。提出以目標(biāo)特征信息進(jìn)行匹配、跟蹤的算法,步驟如下:
    (1)獲取當(dāng)前幀數(shù)據(jù)與背景做差分運(yùn)算;
    (2)查找連通域,去除干擾點(diǎn)保存變量為:
      Zone[k].x 第k個(gè)連通域中心x坐標(biāo);
         Zone[k].y第k個(gè)連通域中心y坐標(biāo);
      Zone[k].Cnt 第k個(gè)連通域特征方塊個(gè)數(shù)。
k=[1:K],K為當(dāng)前計(jì)算的滿足條件的連通域個(gè)數(shù),隸屬于第k個(gè)連通域的特征信息方塊,表示為變量ZoneFeature[k][m],其中m=[1:Zone[k].Cnt]
        ZoneFeature[k][m].x第m個(gè)方塊x坐標(biāo);
     ZoneFeature[k][m].y第m個(gè)方塊y坐標(biāo);
     ZoneFeature[k][m].Ymean特征塊Y分量均值;
        ZoneFeature[k][m].Umean特征塊U分量均值;
     ZoneFeature[k][m].Vmean特征塊V分量均值。
    (3)計(jì)算第i個(gè)目標(biāo)與第k個(gè)連通域(k=[1:K])的距離和顏色特征差異保存為變量CompDist[i][k]和CompRes[i][k],并做歸一化處理,構(gòu)建代價(jià)函數(shù),得到第i個(gè)目標(biāo)與所有連通域的代價(jià)函數(shù)值CstFun[i][k]=0.6CompDist[i][k]+0.4CompRes[i][k]。
    (4)將步驟(3)重復(fù)I次,得到I×K的代價(jià)函數(shù)矩陣CstFun;
    (5)由CstFun得到與第i個(gè)目標(biāo)最為匹配的連通域,即滿足CstFun[i][k]最小的序號(hào)k,用Zone[k]變量更新Person[i]變量,用ZoneFeature[k]更新PsnFeature[i]變量,完成目標(biāo)跟蹤。
      圖5所示為采用該算法對(duì)走出某賣場(chǎng)出入口的兩人進(jìn)行跟蹤的結(jié)果。

2.4 計(jì)數(shù)
       Person[i]跟隨第i個(gè)目標(biāo)的運(yùn)動(dòng)不斷被更新,當(dāng)滿足2.1節(jié)所述條件時(shí)計(jì)數(shù),之后將Person[i]結(jié)點(diǎn)刪除,其他出邊界的情況則只刪除結(jié)點(diǎn)不計(jì)數(shù)。
3 算法實(shí)現(xiàn)和結(jié)果分析
    TMS320DM648是一款針對(duì)多媒體處理和視頻安全與監(jiān)控領(lǐng)域,基于VelociTITM超長(zhǎng)指令結(jié)構(gòu)的高性價(jià)比的單核DSP芯片。結(jié)合視頻解碼芯片TVP5154,視頻編碼SAA7015實(shí)現(xiàn)了4路PAL格式視頻輸入,1路PAL格式視頻輸出的商場(chǎng)客流統(tǒng)計(jì)系統(tǒng),其結(jié)構(gòu)如圖6所示[6]。
    將該系統(tǒng)成功應(yīng)用于某家電賣場(chǎng),其中抽取了2個(gè)時(shí)間段共7 h,統(tǒng)計(jì)結(jié)果如表1所示,現(xiàn)場(chǎng)人工計(jì)數(shù)為實(shí)際值,系統(tǒng)計(jì)數(shù)為檢測(cè)值。由表1可見統(tǒng)計(jì)準(zhǔn)確率保持在95%左右,注意到 “正大門”、“通信門”和“數(shù)碼門”這3個(gè)門在2個(gè)時(shí)間段內(nèi)系統(tǒng)均多計(jì),而“服務(wù)門”均少計(jì),說明算法性能穩(wěn)定,不會(huì)出現(xiàn)忽多計(jì)、忽少計(jì)的情況。

    本文針對(duì)基于概率模型的背景更新方法進(jìn)行了改進(jìn),更新了背景分區(qū)域,提高了背景更新的可靠性和準(zhǔn)確性。在此基礎(chǔ)上提出了以目標(biāo)位置、亮度和顏色構(gòu)建代價(jià)函數(shù)的特征匹配和跟蹤算法,并將其成功應(yīng)用于商場(chǎng)客流統(tǒng)計(jì)系統(tǒng),在TMS320DM648硬件平臺(tái)同時(shí)處理4路PAL視頻,且客流統(tǒng)計(jì)準(zhǔn)確率穩(wěn)定在95%。結(jié)果表明,該算法有較好的目標(biāo)識(shí)別、匹配和跟蹤能力。
參考文獻(xiàn)
[1] 趙艷啟. 運(yùn)動(dòng)目標(biāo)識(shí)別與跟蹤算法的研究[D].南京:河海大學(xué),2005.
[2] 金鑫.基于改進(jìn)特征跟蹤的客流量統(tǒng)計(jì)[J].計(jì)算機(jī)工程,2012,38(15):175-178.
[3] 丁磊,宮寧生.基于改進(jìn)的三幀差分法運(yùn)動(dòng)目標(biāo)檢測(cè)[J].電視技術(shù),2013,37(1):151-153.
[4] 曹海青.基于全局和局部特征的目標(biāo)識(shí)別研究[J].微型機(jī)與應(yīng)用,2011,30(14):41-43.
[5] 孫抗,汪渤,鄭智輝.基于局部亮度直方圖特征的實(shí)時(shí)目標(biāo)識(shí)別與跟蹤[J].系統(tǒng)工程與電子技術(shù),2011,33(9):
1927-1931.
[6] 王文武.嵌入式客流量統(tǒng)計(jì)模塊的設(shè)計(jì)和實(shí)現(xiàn)[J].電子技術(shù)應(yīng)用,2011,37(8):33-35.

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
一区二区三区欧美日韩| 久久精品国产清自在天天线| 国产精品视频久久久| 欧美久久影院| 欧美极品一区| 欧美成人久久| 免费亚洲一区二区| 久久视频在线视频| 久久久精品视频成人| 久久精品导航| 久久久久久久网站| 久久久蜜桃精品| 久久婷婷国产麻豆91天堂| 久久精品国产亚洲高清剧情介绍| 欧美一区二区在线视频| 欧美在线亚洲一区| 久久黄色网页| 久久久久久综合网天天| 久久午夜国产精品| 久久综合伊人77777麻豆| 久久最新视频| 欧美国产视频一区二区| 欧美激情a∨在线视频播放| 欧美激情视频在线免费观看 欧美视频免费一 | 欧美欧美天天天天操| 欧美激情在线免费观看| 欧美日韩视频在线一区二区观看视频 | 国产精品欧美在线| 国产伦精品一区二区三区| 国产欧美一区二区精品秋霞影院 | 久久手机免费观看| 老鸭窝亚洲一区二区三区| 欧美国产专区| 欧美三级乱码| 国产精品久久综合| 国产一区二区三区奇米久涩| 狠狠干狠狠久久| 亚洲日韩第九十九页| 99re6这里只有精品视频在线观看| 在线亚洲成人| 久久精品国产一区二区电影| 亚洲国产精品成人va在线观看| 亚洲人妖在线| 亚洲视频999| 欧美亚洲一区二区三区| 久久综合图片| 欧美日韩亚洲一区三区| 国产欧美一区二区精品仙草咪| 一区在线观看视频| 亚洲麻豆视频| 欧美一区观看| 一本一本久久a久久精品综合麻豆 一本一本久久a久久精品牛牛影视 | 亚洲一区二区三区精品在线 | 欧美精品一区在线| 国产精品福利网站| 精品不卡一区| 一本色道久久综合一区 | 免费欧美在线| 欧美性猛交视频| 激情国产一区| 日韩午夜电影av| 久久国产精品亚洲77777| 一本色道久久综合狠狠躁篇怎么玩 | 国产精品久久久久9999吃药| 国产视频在线观看一区二区| 亚洲国产高清自拍| 亚洲一区高清| 亚洲三级视频在线观看| 性欧美暴力猛交69hd| 欧美国产第一页| 国产亚洲在线| 一本久久综合亚洲鲁鲁五月天| 久久av免费一区| 亚洲午夜伦理| 欧美成人精品在线视频| 国产日韩欧美视频| 夜夜嗨av一区二区三区网站四季av| 欧美一区二区三区成人| 亚洲少妇最新在线视频| 久久夜色精品国产| 国产精品久久久久一区二区三区| 亚洲高清在线视频| 欧美一区二区视频在线| 亚洲一卡久久| 欧美黄色影院| 狠狠色2019综合网| 亚洲综合色自拍一区| 一区二区高清视频| 欧美大片va欧美在线播放| 国产手机视频一区二区| 国产精品99久久久久久久久久久久| 亚洲国产精品成人一区二区 | 久久综合99re88久久爱| 国产精品婷婷| 一区二区三区欧美激情| 99re热这里只有精品视频 | 女人色偷偷aa久久天堂| 国产一区二区高清不卡| 亚洲一线二线三线久久久| 一区二区av在线| 欧美国产精品中文字幕| 国产一区二区三区在线观看精品 | 久久国产主播精品| 久久av在线| 欧美精品123区| 欧美精品一区二区蜜臀亚洲| 狠狠色噜噜狠狠色综合久| 亚洲一区在线直播| 亚洲一区影音先锋| 欧美久久久久免费| 亚洲黄色有码视频| 91久久极品少妇xxxxⅹ软件| 久久亚洲精品网站| 国产一区二区三区精品欧美日韩一区二区三区 | 日韩午夜在线观看视频| 亚洲乱码国产乱码精品精98午夜| 看欧美日韩国产| 韩国视频理论视频久久| 欧美一区二区大片| 久久国产日韩| 国产日韩欧美黄色| 欧美一区二区三区四区在线| 久久国产精品99国产| 国产视频欧美视频| 欧美影院在线播放| 久久久精品免费视频| 一区二区三区在线观看欧美| 久久精品盗摄| 免费日韩av电影| 亚洲国产欧美在线人成| 亚洲破处大片| 欧美国产三级| 一本一本久久| 亚洲免费一区二区| 国产精品专区第二| 欧美一级淫片播放口| 久久免费视频这里只有精品| 国语自产精品视频在线看| 亚洲电影有码| 欧美激情一区在线| 99re66热这里只有精品3直播| 亚洲综合丁香| 国产手机视频一区二区| 久久精品国产69国产精品亚洲 | 欧美激情精品久久久久久| 最近中文字幕mv在线一区二区三区四区| 亚洲精品中文字| 国产精品大片wwwwww| 亚洲欧美精品一区| 久久香蕉精品| 亚洲精品乱码久久久久久| 亚洲自拍都市欧美小说| 韩国一区电影| 99av国产精品欲麻豆| 国产精品久久久久久亚洲调教| 欧美一区免费| 欧美激情精品久久久久久蜜臀| 亚洲另类在线视频| 午夜精品一区二区三区四区| 黑丝一区二区| 欧美视频一二三区| 久久综合久色欧美综合狠狠| 亚洲精品久久久久久一区二区| 亚洲一区三区视频在线观看| 国产欧美日韩伦理| 91久久久久久久久久久久久| 欧美网站在线| 久久国产精品网站| 欧美日韩中国免费专区在线看| 欧美一级淫片aaaaaaa视频| 欧美韩国日本一区| 亚洲欧美激情在线视频| 欧美成人精品激情在线观看| 在线亚洲观看| 男人插女人欧美| 亚洲字幕一区二区| 麻豆精品国产91久久久久久| 一本久道久久久| 久久亚洲精品一区| 一区二区三区日韩欧美| 久色成人在线| 亚洲一二三区在线| 欧美激情一区二区| 小黄鸭精品aⅴ导航网站入口| 欧美激情四色 | 欧美日本簧片| 久久成人av少妇免费| 欧美日韩裸体免费视频| 欧美中文字幕| 国产精品盗摄久久久| 亚洲日本中文字幕| 国产免费亚洲高清| 日韩视频免费看| 韩国av一区二区三区| 亚洲欧美日韩在线观看a三区 | 亚洲日本中文字幕区| 久久久久久久97| 亚洲网站视频福利| 欧美久久电影| 久久国产免费|