《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > 基于增量記憶視覺注意模型的復(fù)雜目標(biāo)識別研究
基于增量記憶視覺注意模型的復(fù)雜目標(biāo)識別研究
2016年微型機(jī)與應(yīng)用第1期
崔麗娜,胡玉蘭,片兆宇
(沈陽理工大學(xué) 信息科學(xué)與工程學(xué)院,遼寧 沈陽 110159)
摘要: 針對復(fù)雜背景下的目標(biāo)識別問題,提出一種新的基于增量記憶的視覺注意模型。首先根據(jù)目標(biāo)的顏色形狀,以及自底向上的原始視覺特征顏色、強(qiáng)度、方向、對稱性對目標(biāo)進(jìn)行粗定位。在此基礎(chǔ)上,利用粗選目標(biāo)的顏色、形狀生成一組自頂向下的偏差信號,對初選目標(biāo)進(jìn)行及時指導(dǎo)修正。為了提高識別的準(zhǔn)確率,算法設(shè)計了一種增量學(xué)習(xí)記憶的機(jī)制來指導(dǎo)偏差信號,所提出的增量注意機(jī)制不僅可以不斷學(xué)習(xí)和記憶各類目標(biāo)的顏色和形狀特征,而且利用這種機(jī)制可生成一個自頂向下的偏差信號,對關(guān)注的候選區(qū)域的目標(biāo)進(jìn)行精確定位。此外,訓(xùn)練后的增量記憶的顏色、形狀特征有助于推斷新的未知目標(biāo)。最后的仿真實驗中,與五種典型算法對比,無論是主觀還是客觀實驗,都獲得了較優(yōu)結(jié)果。因此,所提算法是一種高效的、切實可行的算法。
Abstract:
Key words :

  摘要:針對復(fù)雜背景下的目標(biāo)識別問題,提出一種新的基于增量記憶的視覺注意模型。首先根據(jù)目標(biāo)的顏色形狀,以及自底向上的原始視覺特征顏色、強(qiáng)度、方向、對稱性對目標(biāo)進(jìn)行粗定位。在此基礎(chǔ)上,利用粗選目標(biāo)的顏色、形狀生成一組自頂向下的偏差信號,對初選目標(biāo)進(jìn)行及時指導(dǎo)修正。為了提高識別的準(zhǔn)確率,算法設(shè)計了一種增量學(xué)習(xí)記憶的機(jī)制來指導(dǎo)偏差信號,所提出的增量注意機(jī)制不僅可以不斷學(xué)習(xí)和記憶各類目標(biāo)的顏色和形狀特征,而且利用這種機(jī)制可生成一個自頂向下的偏差信號,對關(guān)注的候選區(qū)域的目標(biāo)進(jìn)行精確定位。此外,訓(xùn)練后的增量記憶的顏色、形狀特征有助于推斷新的未知目標(biāo)。最后的仿真實驗中,與五種典型算法對比,無論是主觀還是客觀實驗,都獲得了較優(yōu)結(jié)果。因此,所提算法是一種高效的、切實可行的算法。

  關(guān)鍵詞自底向上注意自頂向下注意;增量記憶;視覺顯著性

0引言

  人類視覺系統(tǒng)[1]具有機(jī)器無法比擬的靈活、高效的適應(yīng)能力,在自然或雜亂復(fù)雜的場景中,往往可以輕松地檢測到任意目標(biāo)。因此,把人類視覺系統(tǒng)的特性融入到人工視覺系統(tǒng)中一直是計算機(jī)視覺領(lǐng)域的研究重點。而顯著目標(biāo)檢測,由于其高效的處理性能、廣闊的應(yīng)用前景,被認(rèn)為是機(jī)器視覺研究的重中之重。

  本文利用增量記憶將自底向上處理過程與自頂向下處理過程結(jié)合起來,提出一種新的注意模型。基于該模型的算法強(qiáng)調(diào)自頂向下的注意感知,實際上是一個自底向上和自頂向下有機(jī)融合和相互作用的過程,將目標(biāo)對象生成的偏差信號定義為增量記憶,自頂向下模型生成的增量記憶不斷指導(dǎo)修正自底向上模型對目標(biāo)對象的識別,達(dá)到即使在復(fù)雜背景下,也可以準(zhǔn)確、高效地識別出目標(biāo)對象。最后的仿真結(jié)果中,與6種典型自底向上注意模型對比,所提算法體現(xiàn)了更好的穩(wěn)定性和有效性。

1視覺注意機(jī)制

  視覺注意機(jī)制是模擬人腦來處理信息的機(jī)制[2]。通過將不同的處理優(yōu)先級賦予不同的圖像區(qū)域,可以降低處理過程的復(fù)雜度,提高處理速度和抗干擾能力,即在特征整合理論的基礎(chǔ)上,提取圖像的亮度等初級視覺特征,形成各個特征維的顯著圖;然后基于非均勻采樣的方式,采用多特征圖合并策略對這些不同特征維的顯著圖進(jìn)行融合,形成一幅最終的顯著圖。根據(jù)顯著圖可以得到一系列的待注意的目標(biāo),各目標(biāo)通過注意轉(zhuǎn)移的禁止返回(Iinhibition of retum)機(jī)制[3]和勝者為王(Winnertakeall)競爭機(jī)制[4]吸引注意焦點,并使得注意焦點在各個待注意的目標(biāo)之間依一定的原則轉(zhuǎn)移。注意信息是由每一個對應(yīng)于特定區(qū)域圖像特征的點組成的。

  以基于視覺注意機(jī)制的注意快速識別目標(biāo)為例,其識別效果如圖1所示。

  

001.jpg

  由圖可知,單純視覺注意模型檢測顯著目標(biāo)的效果并不好,在目標(biāo)對象和背景對比度不明顯的情況下識別效果很差,顯著區(qū)域的邊界不清晰,特征細(xì)節(jié)給模糊掉了,目標(biāo)對象并不突出,尤其背景比較復(fù)雜的情況下,噪聲干擾也比較大。

2基于增量記憶視覺注意模型的復(fù)雜目標(biāo)

  為了模擬人類的智能視覺系統(tǒng),本文提出一種基于增量記憶的視覺注意的模型。本模型包括兩個處理過程:自底向上處理過程[5],自頂向下處理[6]過程。自頂向下處理過程生成增量記憶,指導(dǎo)修正自底向上處理過程的識別目標(biāo)對象工作,其中增量注意不僅可以不斷學(xué)習(xí)和記憶各類目標(biāo)的顏色和形狀特征,而且利用增量記憶生成自頂向下的偏差信號,可以對目標(biāo)對象進(jìn)行精確定位。整體框圖如圖2所示。

002.jpg

  首先由原始的輸入圖像可獲取到圖像的基本特征,通過高斯金字塔提取粗尺度圖像,圖像通過中央標(biāo)準(zhǔn)差(CSD)獲取到顯著信息[7];同時對圖像的基本顏色特征、形狀特征進(jìn)行加權(quán)等處理生成基于原始圖像的顏色、形狀偏差信號,即增量記憶,在生成細(xì)識別目標(biāo)對象的過程中,偏差信號對識別不斷指導(dǎo)修正,以實現(xiàn)復(fù)雜背景下目標(biāo)對象的高效準(zhǔn)確識別,生成顯著圖。通過增量記憶[8]不僅可以識別顯著區(qū)域,而且可以將其存儲下來。

  21自底向上處理

  211顏色特征提取

  為了提高識別精度,并且實現(xiàn)彩色圖像的識別,識別過程中各個顏色通道需保持獨(dú)立。若想獲得最佳的圖像邊緣就需要采用IUV顏色空間[9]。把對彩色圖像(R,G,B)的識別問題轉(zhuǎn)換成(I,U,V)顏色空間的問題,識別過程中各個顏色通道保持獨(dú)立,這種方法識別精度高,并且實現(xiàn)了彩色圖像的識別。通過公式(1)計算:

  1.png

  根據(jù)RGB顏色空間模型[10]構(gòu)建一個 IUV 顏色模型,轉(zhuǎn)化方法如公式(2)所示:

  2.png

  強(qiáng)度特征i通過公式(3)獲得:

  i=(r+g+b)/3(3)

  212基于中央周邊差的特征處理

  在顯著圖模型中,以方向(O)和對稱性(S)特性作為高階特性,分別利用Gabor濾波器和Fukushima對稱性提取邊緣特性的方法,將I、O、S、U、V 5個特征通過高斯金字塔,生成7個不同尺寸的特征圖,可以得到35幅特征圖。然后,利用中央周邊差,將I、O、S、U、V的顯著圖組合成4個顯著圖,如式(4):

  4.png

  I,O,S,C分別表示強(qiáng)度、方向、對稱性和顏色對立的顯著圖。c和s分別代表規(guī)模指數(shù)小尺度(中心)和粗尺度(周圍)。N(·)是一種歸一化函數(shù),這樣每個像素值都在0~255范圍內(nèi)。

  213基于顯著圖的獨(dú)立成分分析

  在該模塊中,采用獨(dú)立分量分析算法[11]來減少冗余,以視覺皮層的作用作為冗余減速器。將特征圖各個特征通道與濾波器寬度作卷積計算并求和來確定局部顯著區(qū)域。最合適的規(guī)模顯著區(qū)域集中在x,如式(5)所示:

  5.jpg

  HD(l,x)和WD(l,x)分別是熵和窗大小。在自底向上顯著圖模型中獲取局部區(qū)域,定義為IOR 區(qū)域[12]。自底向上凸起的局部地區(qū)獲得的地圖模型被定義為IOR地區(qū)。那么屏蔽掉這個IOR 區(qū)域也就是排除了先前認(rèn)為的顯著對象,接著可以找到下一個顯著目標(biāo)。

  214顯著圖的熵值選擇與目標(biāo)對象中央加強(qiáng)

  本文通過抑制幅度譜脈沖進(jìn)行顯著目標(biāo)檢測,對脈沖的抑制量不同檢測出的顯著圖結(jié)果也不同,所以建立了不同高斯函數(shù)平滑后幅度譜尺度空間[13],它是由一系列高斯函數(shù)與幅度譜卷積[14]得到的,每個高斯函數(shù)具有一個不同的尺度參數(shù),如式(6)所示:

  6.png

  其中k為可調(diào)節(jié)的尺度參數(shù), k=1…K,K由圖像的尺寸決定,如式(7)所示:

  K=[log2min{H,W}]+1(7)

  H,W為圖像的長和寬,t0=05。給定圖像的幅度譜為A(u,v),則平滑幅度譜的尺度空間如式(8)所示:

  Λ(u,v,k)=(g(u,k)*A(u,v))(8)

  對不同尺度的顯著圖求熵值,熵值最小的顯著圖[15]認(rèn)為檢測結(jié)果是最好的,其計算公式如式(9)所示:

  kp=arg min{H(Sk)}(9)

  其中熵值計算為傳統(tǒng)的計算公式如式(10)所示:

  H(x)=-∑ni-1Pilogpi(10)

  22自頂向下處理

  221提取顏色和形狀特征

  由R,G,B和Y色彩成分可以獲取到RG和BY特性,而由RG和BY可以獲取物體的顏色和形狀特性,通過此過程可以有效地通過顏色特征來提取圖像的細(xì)節(jié)信息。目標(biāo)物體的RG和BY特征通過裁剪變成兩個16×16極對數(shù)特性,并且將每個極對數(shù)特性轉(zhuǎn)換為一維向量。

  本文采用熵最大模型來分別模擬視覺注意機(jī)制簡單特性和復(fù)雜特性,即S1和C1特性。S1特性構(gòu)造使用一個對象在一個局部區(qū)域的定位信息,并通過Gabor濾波器具有不同尺度的輸入圖像。通過濾波可以獲得2尺度和8個方向的濾波特性的S1特性。因此每個方向就有了兩個S1定位圖,通過S1定位圖對每個方向的操作取最大的操作可以得到C1特性。

  222自頂向下信號生成偏差矩陣

  當(dāng)成功訓(xùn)練學(xué)習(xí)目標(biāo)對象后還有一個額外的作用就是可以生成權(quán)重矩陣,矩陣可以生成自上而下的偏差信號,這樣便在輸入場景中可以找到目標(biāo)對象區(qū)域。基于特定偏差注意的目標(biāo)對象任務(wù)來考慮尺度不變特性,基于三種不同尺度的高斯金字塔,其三種不同的尺度可以用來訓(xùn)練三種不同比例的顏色和形狀特性。所以這三種不同比例訓(xùn)練的權(quán)重矩陣可以生成三種不同尺度的特性。在中央周邊差(CSD&N)過程中,三種不同比例的權(quán)重矩陣可以用于生成不同尺度的偏差信號。

  在自底向上的特征提取過程中獲取到權(quán)重矩陣從而獲得自上而下的偏差信號,在生成偏差信號的過程中IBe,OBe,SBe,CBe如式(11)所示:

  11.png

  其中c_We和f_We分別是顏色和形狀的加權(quán)矩陣,Ie,Oe,Se,Ce分別是強(qiáng)度、方向、對稱性和顏色特征。

  23增量記憶

  首先將自頂向下處理工程生成的顏色、形狀偏差信號定義為增量記憶,結(jié)合考慮自頂向下的目標(biāo)對象的形狀和顏色偏差信號,得出顯著圖,利用提出的模型可以成功地提取出目標(biāo)物體區(qū)域,生成流程圖如圖3所示。 

003.jpg

  通過對一個特定尺度的目標(biāo)對象的感知可以獲取到每個感知對象的權(quán)重矩陣。因此,通過使用不同尺度的自底向上特征并用自上向下的加權(quán)矩陣提出的自上向下偏差模型可以檢測出尺度不變的對象定位區(qū)域。基于同一特征圖生成過程由自頂向下的偏差強(qiáng)度特征、方向特征、對稱性特征、顏色特征可以創(chuàng)建偏差強(qiáng)度特征圖、偏差方向特征圖、偏差顏色特征圖、偏差對稱性特征圖這四種不同的偏差特征圖。

3實驗結(jié)果

  將本文提出的方法與FT,SR,AIM,Gbvs,Itti算法進(jìn)行比較,實驗結(jié)果如圖4。

004.jpg

  (d)AIM(e)Gbvs(f)Itti(g)本文方法從上圖的對比結(jié)果可以看出,本文方法具有最好的顯著性能評估。對于測試圖像,大多數(shù)方法都能夠檢測出顯著目標(biāo),但是都各有利弊,并不完善。FT算法可以識別目標(biāo)對象但是精確度不高,沒有消除冗余信息;SR算法抗噪聲性能不好,識別效果也不是很理想;AIM算法在目標(biāo)對象和背景對比度不明顯的情況下識別效果很差,顯著區(qū)域的邊界不清晰;Gbvs算法和Itti算法可以識別出目標(biāo)對象的大體輪廓,但是對象的細(xì)節(jié)信息被復(fù)雜的背景給模糊掉了,所以最終識別效果不好。從本文算法最終識別效果可以看出,對于復(fù)雜背景下的目標(biāo)對象識別效果還是很不錯的,冗余信息處理的也比較好,抗噪聲性能相比較也是比較強(qiáng)的,精確度、準(zhǔn)確率等各方面的表現(xiàn)都不錯。

4結(jié)束語

  在正常的人類視覺中,自底向上和自頂向下處理過程的結(jié)合將會影響注意,并將注意吸引到顯著的相關(guān)場景部分。所以,強(qiáng)調(diào)模擬自頂向下的注意感知實際上是一個自下而上和自上而下的有機(jī)融合和相互作用的過程,在這個過程中自動運(yùn)用視覺認(rèn)知規(guī)律,通過一系列視知覺操作,使視覺處理過程在一定目的下,以盡可能小的代價獲得盡可能好的結(jié)果,也更加符合人類視覺感知的基本特征。

  復(fù)雜背景下的目標(biāo)識別是計算機(jī)視覺的研究熱點和難點問題。本文中提出了一種基于增量記憶將自底向上和自頂向下相結(jié)合的方式來定位復(fù)雜背景下目標(biāo)對象的方法。在復(fù)雜的背景下,該模型有較強(qiáng)的噪聲抑制能力,可以把目標(biāo)準(zhǔn)確定位出來并且更好地解決目標(biāo)識別的問題。

  參考文獻(xiàn)

  [1] 田媚.模擬自頂向下視覺注意機(jī)制的感知模型研究[D].北京:北京交通大學(xué),2007.

  [2] 暴林超.復(fù)雜目標(biāo)視覺注意模型研究[D].武漢:華中科技大學(xué),2011.

  [3] 謝玉林.貝葉斯框架下圖像顯著性檢測[D]. 大連: 大連理工大學(xué), 2011.

  [4] 殷德奎,張保民,柏連發(fā).一種熱圖像的多模板邊緣檢測方法[J].南京理工大學(xué)學(xué)報,1999,23(1): 16-20.

  [5] TREISMAN A,GELADE G. A feature integration theory of attention [J]. Cognitive Psychology, 1980, 12(1): 97-136.

  [6] 王岳環(huán),張?zhí)煨?基于視覺注意機(jī)制的實時紅外小目標(biāo)預(yù)檢測[J].華中科技大學(xué)學(xué)報: 自然科學(xué)版,2001,29(6):7-9.

  [7] 唐奇伶.基于初級視皮層感知機(jī)制的輪廓與邊界檢測[D].武漢:華中科技大學(xué),2007.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
亚洲欧美伊人| 99re热精品| 亚洲欧洲免费视频| 一区免费观看| 精品粉嫩aⅴ一区二区三区四区| 国产日韩一区| 国产免费成人| 欧美日韩久久不卡| 亚洲欧美在线一区二区| 亚洲美女视频| 日韩亚洲欧美高清| 一本色道久久88综合日韩精品 | 欧美精品一区在线发布| 欧美国产第二页| 欧美激情 亚洲a∨综合| 欧美美女视频| 欧美色网在线| 国产精品国产馆在线真实露脸 | 一区二区三区四区精品| 亚洲天堂偷拍| 亚洲欧美日韩国产综合| 欧美一区久久| 亚洲国产视频一区| 亚洲乱码国产乱码精品精天堂| 亚洲美女91| 中文精品视频| 午夜性色一区二区三区免费视频 | 国产伦精品一区二区三区在线观看 | 1769国内精品视频在线播放| 亚洲国产小视频在线观看| 亚洲高清在线视频| 日韩亚洲在线观看| 亚洲欧美激情诱惑| 欧美在线视频免费播放| 亚洲激情六月丁香| 中文精品视频| 久久av最新网址| 免费美女久久99| 欧美欧美天天天天操| 国产精品久久久久av| 国产午夜精品一区理论片飘花| 在线成人激情视频| 亚洲免费福利视频| 亚洲男同1069视频| 亚洲国产精品第一区二区| 亚洲九九九在线观看| 亚洲已满18点击进入久久| 久久国产精品久久精品国产| 嫩草伊人久久精品少妇av杨幂| 欧美日韩喷水| 国产一区二区三区免费观看| 亚洲激情图片小说视频| 亚洲一区二区三区乱码aⅴ蜜桃女| 欧美一区观看| 一区二区三区高清在线观看| 欧美亚洲在线视频| 蜜臀va亚洲va欧美va天堂| 欧美肉体xxxx裸体137大胆| 国产一区二区久久精品| 亚洲精品婷婷| 欧美在线观看一二区| 一本一本a久久| 久久精品免费电影| 欧美日韩大片一区二区三区| 国产精品自拍小视频| 亚洲国内在线| 午夜精品亚洲| 一本色道久久综合亚洲二区三区| 久久av一区二区| 欧美日本精品| 狠狠狠色丁香婷婷综合久久五月 | 欧美日韩精品一区视频| 国产亚洲二区| 99国产精品久久久| 亚洲国产91| 亚洲欧美日韩在线| 欧美国产三级| 狠狠入ady亚洲精品| 亚洲素人在线| 日韩视频免费在线观看| 久久久久国产一区二区| 欧美巨乳在线观看| 激情五月综合色婷婷一区二区| 一区二区三区偷拍| 亚洲精品午夜| 久久青草福利网站| 国产精品综合网站| 夜夜夜久久久| 日韩视频一区二区三区在线播放免费观看 | 国产精品青草久久| 亚洲精品欧美一区二区三区| 久久精品午夜| 久久激情视频免费观看| 国产精品欧美在线| 99精品视频网| 一本色道久久88综合日韩精品 | 日韩视频―中文字幕| 久久久久九九视频| 国产精品日韩一区| 一区二区三区欧美| 亚洲少妇自拍| 欧美成人自拍| 亚洲第一精品久久忘忧草社区| 欧美一区二区三区的| 欧美亚洲日本网站| 国产精品女人网站| 亚洲天堂av图片| 亚洲香蕉伊综合在人在线视看| 欧美国产亚洲另类动漫| 1204国产成人精品视频| 亚洲电影自拍| 久久亚洲综合色| 黄色国产精品| 久久精品一二三| 久久亚洲风情| 激情欧美丁香| 久久精品国产一区二区电影| 久久精品一区蜜桃臀影院| 国产精品一区二区你懂得| 亚洲一区欧美一区| 亚洲欧美日韩在线播放| 国产精品久久久久91| 在线亚洲成人| 性久久久久久久久久久久| 欧美视频在线看| 亚洲无线视频| 久久动漫亚洲| 韩国成人理伦片免费播放| 久久成人精品| 老司机一区二区| 亚洲国产精品欧美一二99| 亚洲精品视频在线观看网站| 欧美激情成人在线| 亚洲精品日韩久久| 一区二区日韩欧美| 国产精品久久久免费| 亚洲欧美日韩国产另类专区| 久久精品欧洲| 在线欧美电影| 一区二区三区四区五区精品视频| 欧美日韩综合网| 亚洲欧美日本在线| 久久久国产精品亚洲一区 | 国产精品综合色区在线观看| 欧美一区二区三区在线播放| 久久综合久久综合这里只有精品| 亚洲国产美女久久久久 | 午夜精品一区二区三区四区 | 国模私拍一区二区三区| 亚洲黄色小视频| 欧美日韩另类国产亚洲欧美一级| 亚洲一品av免费观看| 久久免费午夜影院| 最新亚洲电影| 午夜国产欧美理论在线播放| 国产一区二区三区免费在线观看| 亚洲七七久久综合桃花剧情介绍| 欧美日韩午夜视频在线观看| 亚洲欧美国产77777| 久色成人在线| 日韩视频免费观看高清完整版| 午夜伦欧美伦电影理论片| 国内成+人亚洲+欧美+综合在线| 亚洲六月丁香色婷婷综合久久| 国产精品久久久久久久久借妻| 欧美在线观看www| 欧美精品首页| 欧美一乱一性一交一视频| 欧美国产视频在线| 亚洲男女自偷自拍| 欧美成人一区二区三区片免费| 亚洲视频在线观看视频| 久久综合导航| 一区二区三区日韩| 奶水喷射视频一区| 亚洲一区二区在线免费观看| 免费视频亚洲| 亚洲一区二区三区视频| 欧美成人精品在线观看| 亚洲综合清纯丝袜自拍| 欧美激情精品久久久久久久变态| 亚洲永久精品国产| 欧美另类videos死尸| 欧美一区二区精品在线| 欧美日韩成人一区二区三区| 欧美亚洲三级| 欧美日韩在线直播| 久久精品视频在线播放| 国产精品理论片在线观看| 亚洲精品免费网站| 国产日韩欧美a| 在线视频亚洲欧美| 黄色免费成人| 校园激情久久| 99精品国产一区二区青青牛奶| 久久婷婷麻豆| 亚洲女ⅴideoshd黑人| 欧美日韩激情小视频| 亚洲国产你懂的| 国产手机视频精品|