《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 結(jié)合SIFT特征和神經(jīng)網(wǎng)絡(luò)池的物體分類方法
結(jié)合SIFT特征和神經(jīng)網(wǎng)絡(luò)池的物體分類方法
2017年電子技術(shù)應(yīng)用第7期
白艷宇1,申超群2,楊新鋒3
1.中原工學(xué)院信息商務(wù)學(xué)院 信息技術(shù)系,河南 鄭州451191; 2.河南機(jī)電職業(yè)學(xué)院,河南 鄭州451191;3.南陽(yáng)理工學(xué)院 計(jì)算機(jī)與信息工程學(xué)院,河南 南陽(yáng)473004
摘要: 為了提高物體分類性能,提出了一種神經(jīng)網(wǎng)絡(luò)池特征分類方法,并結(jié)合SIFT特征實(shí)現(xiàn)物體的可靠分類。該方法首先提取樣本的SIFT特征向量,并從特征向量集合中隨機(jī)選取樣本子集;然后采用徑向基神經(jīng)網(wǎng)絡(luò)為每一個(gè)樣本子集構(gòu)建基元分類器;接著通過(guò)重復(fù)迭代方式得到許多基元分類器集合,再結(jié)合增強(qiáng)技術(shù)組建神經(jīng)網(wǎng)絡(luò)池;最后采用樸素貝葉斯模型對(duì)神經(jīng)網(wǎng)絡(luò)池中的各個(gè)基元分類器集合的分類結(jié)果進(jìn)行融合,預(yù)測(cè)特征的最終分類結(jié)果。實(shí)驗(yàn)結(jié)果表明,新方法的運(yùn)算效率高,對(duì)VOC-2007數(shù)據(jù)集的分類正確率高。
中圖分類號(hào): TP391
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.2017.07.033
中文引用格式: 白艷宇,申超群,楊新鋒. 結(jié)合SIFT特征和神經(jīng)網(wǎng)絡(luò)池的物體分類方法[J].電子技術(shù)應(yīng)用,2017,43(7):130-134,139.
英文引用格式: Bai Yanyu,Shen Chaoqun,Yang Xinfeng. An object classification method combing with SIFT features and neural network pool[J].Application of Electronic Technique,2017,43(7):130-134,139.
An object classification method combing with SIFT features and neural network pool
Bai Yanyu1,Shen Chaoqun2,Yang Xinfeng3
1.Department of Information Technology,College of Information & Business Zhongyuan University of Technology, Zhengzhou 451191,China; 2.Henan Mechanical and Electrical Vocational College,Zhengzhou 451191,China; 3.School of Computer and Information Engineering, Nanyang Institute of Technology,Nanyang 473004,China
Abstract: In order to improve the performance of object classification, a feature classification method based on neural network pool is proposed, to achieve reliable object classification by combing with SIFT features. First, this method extracts SIFT features of samples, and randomly selects sub-collections from feature vectors of samples. Then, it builds base-classifiers for every sub-collection by using radial basis function neural network. And then,it obtains many base-classifiers collections through repeat iteration process, and constructs neural network pool by combining boosting technology. Finally,it uses naive Bayes neural network model to fuse the classification results of each base-classifiers collection in neural network pool, for predicting the final classification results of features. Experimental results show that, it has high efficiency and high rate of correct classification on VOC-2007 dataset.
Key words : object classification;neural network;scale-invariant feature transform;radial basis function;Bayes

0 引言

    基于圖像的物體分類是計(jì)算機(jī)視覺(jué)領(lǐng)域的基礎(chǔ)研究課題,在人工智能、自動(dòng)化生成等領(lǐng)域應(yīng)用廣泛[1]。物體分類的關(guān)鍵是提取圖像特征和設(shè)計(jì)分類器。這兩個(gè)方面目前的成果都比較多,如特征提取方面,目前應(yīng)用比較成熟的有Haar特征[2]、方向梯度直方圖(Histograms of Oriented Gradients,HOG)特征[3]、局部二元模式(Local Binary Pattern,LBP)特征[4]尺度不變特征變換(Scale-Invariant Feature Transform,SIFT)特征[5]等。在分類器設(shè)計(jì)方面,目前常用的有Adaboost分類器、支持向量機(jī)(Support Vector Machine,SVM)分類器、決策樹、隨機(jī)森林、神經(jīng)網(wǎng)絡(luò)[6-7]。針對(duì)不同的圖像內(nèi)容,特征的表述能力也不盡相同。文獻(xiàn)[8]提出一種基于Kolmogorov-Sinai熵的分類方法,通過(guò)構(gòu)建模糊集進(jìn)行物體分類。文獻(xiàn)[9]采用圖像局部區(qū)域的梯度特征來(lái)描述特征,并采用稀疏分布構(gòu)建圖像描述子,能有效提高物體的分類效果。文獻(xiàn)[10]結(jié)合近似Fisher核特征和詞袋模型,實(shí)現(xiàn)物體的有效分類。

    為了進(jìn)一步提高物體分類的性能,本文提出了一種結(jié)合SIFT特征和神經(jīng)網(wǎng)絡(luò)池的物體分類方法,主要?jiǎng)?chuàng)新是提出了神經(jīng)網(wǎng)絡(luò)池的特征分類方法。該方法采用徑向基神經(jīng)網(wǎng)絡(luò)構(gòu)建基元分類器,通過(guò)重復(fù)迭代方式構(gòu)建基元分類器集合,結(jié)合增強(qiáng)技術(shù)組建神經(jīng)網(wǎng)絡(luò)池,采用樸素貝葉斯分類器預(yù)測(cè)特征分類結(jié)果,有效提高了物體分類性能。

1 本文方法

    本文提出一種結(jié)合SIFT特征和神經(jīng)網(wǎng)絡(luò)池的物體分類方法。對(duì)于不同物體的圖像集合,首先提取圖像的SIFT特征,然后構(gòu)建神經(jīng)網(wǎng)絡(luò)池分類器,實(shí)現(xiàn)物體的分類。其中,SIFT特征是目前非常成熟的特征提取方法,本文將在實(shí)驗(yàn)部分對(duì)不同特征提取方法進(jìn)行對(duì)比實(shí)驗(yàn),驗(yàn)證SIFT方法在物體分類領(lǐng)域的優(yōu)勢(shì)。基本框架如圖1所示。

jsj4-t1.gif

    由圖1可見,神經(jīng)網(wǎng)絡(luò)池的構(gòu)建過(guò)程主要分為三個(gè)階段:(1)基元分類器的構(gòu)建,本文采用徑向基(Radial Basis Function,RBF)神經(jīng)網(wǎng)絡(luò)來(lái)構(gòu)造基元分類器;(2)神經(jīng)網(wǎng)絡(luò)池的組建,本文采用重復(fù)迭代和增強(qiáng)技術(shù)組建神經(jīng)網(wǎng)絡(luò)池;(3)最終分類器的構(gòu)建,本文采用樸素貝葉斯分類器作為最終的分類器,對(duì)神經(jīng)網(wǎng)絡(luò)池中各個(gè)基元分類器集合的預(yù)測(cè)結(jié)果進(jìn)行融合,得到最終的預(yù)測(cè)結(jié)果。

1.1 基元分類器

    目前,基元分類器有很多種,如Adaboost、SVM、決策樹、神經(jīng)網(wǎng)絡(luò)等。本文采用徑向基神經(jīng)網(wǎng)絡(luò)構(gòu)建基元分類器。RBF神經(jīng)網(wǎng)絡(luò)是一種3層的前向網(wǎng)絡(luò),由輸入層、隱含層和輸出層組成。對(duì)于特征分類而言,輸入層為特征向量,輸出層為分類結(jié)果。中間的隱含層的變換函數(shù)采用徑向基函數(shù)。該函數(shù)是一種非負(fù)非線性函數(shù),對(duì)中心點(diǎn)徑向?qū)ΨQ且衰減。輸入層與隱含層之間采用權(quán)重向量,相當(dāng)于一種非線性映射。同樣地,隱含層與輸出層之間也是一種非線性映射,采用不同的權(quán)重相連接。在徑向基神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)采用徑向基函數(shù),以輸入向量與權(quán)值向量之間的距離作為自變量,調(diào)整神經(jīng)元的靈敏度。隨著權(quán)值與輸入向量之間距離的減少,網(wǎng)絡(luò)輸出是遞增的。

1.2 神經(jīng)網(wǎng)絡(luò)池

    本文將多個(gè)基元分類器構(gòu)建成一個(gè)基元分類器集合,由各個(gè)類別的基元分類器集合組建神經(jīng)網(wǎng)絡(luò)池。具體方法是:在基元分類器構(gòu)建階段,將K個(gè)二元神經(jīng)網(wǎng)絡(luò){BNNi|i=1,2,…,K}應(yīng)用于數(shù)據(jù)集合D,得到K個(gè)基元分類器,記為{Ci|i=1,2,…,K}。將這一過(guò)程重復(fù)執(zhí)行T次,可以對(duì)每一個(gè)類別ci生成T個(gè)基元分類器集合,記為{ECi|i=1,2,…,T}。

    在構(gòu)建神經(jīng)網(wǎng)絡(luò)池中的每一個(gè)基元分類器集合時(shí),本文采用了一對(duì)多的分類策略。在二元策略中,分類器對(duì)未知樣本x的預(yù)測(cè)是二元的,也即該樣本x的預(yù)測(cè)結(jié)果只有兩個(gè),即屬于某一類別或者不屬于某一類別。對(duì)于未知樣本x,基元分類器C中的K個(gè)預(yù)測(cè)結(jié)果可以組合生成一個(gè)基元分類器集合。每一個(gè)基元分類器集合對(duì)未知樣本x的預(yù)測(cè)結(jié)果可以用類別出現(xiàn)的概率表示為:

     jsj4-gs1.gif

其中,S(x)表示基元分類器集合的預(yù)測(cè)結(jié)果,其值為0或1,由設(shè)定的概率閾值θ1決定。因此,二元策略允許每一個(gè)獨(dú)立的基元分類器集合接受或者拒絕某一個(gè)類別的出現(xiàn)。該策略將一個(gè)復(fù)雜的多元分類問(wèn)題轉(zhuǎn)化為多個(gè)簡(jiǎn)單的二元分類的子問(wèn)題。P(x)表示類別ci出現(xiàn)的概率,由基元分類器{Ci|i=1,2,…,K}預(yù)測(cè)得到,表示為:

    jsj4-gs2.gif

其中,hi表示第i個(gè)基元分類器判斷x屬于類別ci的分類結(jié)果,取值為0或1,0表示x不屬于類別ci,1表示x屬于類別ci

    為了分類一個(gè)未知樣本x,N個(gè)基元分類器集合對(duì)樣本x給出N個(gè)預(yù)測(cè)結(jié)果,本文采用樸素貝葉斯模型作為最終的預(yù)測(cè)器,對(duì)這N個(gè)預(yù)測(cè)結(jié)果進(jìn)行綜合。這部分內(nèi)容在下一節(jié)介紹,下面先介紹神經(jīng)網(wǎng)絡(luò)池的訓(xùn)練過(guò)程。

    作為一個(gè)分類器,基元分類器集合依靠徑向基神經(jīng)網(wǎng)絡(luò)的輸出來(lái)計(jì)算概率,用于估計(jì)某一類別是否存在。某一類別是否存在的概率同樣在每一個(gè)基元分類器集合分類器的訓(xùn)練階段計(jì)算,后續(xù)用于計(jì)算樸素貝葉斯分類器的先驗(yàn)概率。先驗(yàn)概率分布用于估計(jì)未知樣本的特征向量所對(duì)應(yīng)的類別的出現(xiàn)概率。因此,樣本的特征向量輸入到神經(jīng)網(wǎng)絡(luò)池的多個(gè)基元分類器集合之后,最終得到一個(gè)概率值,作為樣本分類的依據(jù)。本文采用增強(qiáng)技術(shù)來(lái)訓(xùn)練神經(jīng)網(wǎng)絡(luò)池,最后采用樸素貝葉斯分類器構(gòu)建最終的預(yù)測(cè)器。

    本文通過(guò)為二元神經(jīng)網(wǎng)絡(luò)隨機(jī)選擇訓(xùn)練樣本進(jìn)行重復(fù)訓(xùn)練來(lái)解決過(guò)擬合問(wèn)題。在訓(xùn)練基元分類器集合時(shí),借鑒詞袋的思想,隨機(jī)從整體訓(xùn)練數(shù)據(jù)中選取一定數(shù)量的子樣本集,每一個(gè)樣本子集用于訓(xùn)練一個(gè)基元分類器。

    基元分類器集合通過(guò)對(duì)大量的二元神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)得到。因此,每一個(gè)基元分類器集合很難確定一個(gè)最優(yōu)的二元神經(jīng)網(wǎng)絡(luò)數(shù)量。本文訓(xùn)練了許多冗余的二元神經(jīng)網(wǎng)絡(luò),以此來(lái)實(shí)現(xiàn)最優(yōu)的分類性能。得到許多基元分類器集合之后,即構(gòu)建了神經(jīng)網(wǎng)絡(luò)池。

    本文將增強(qiáng)技術(shù)引入到神經(jīng)網(wǎng)絡(luò)池的訓(xùn)練過(guò)程,由增強(qiáng)技術(shù)組合多個(gè)基元分類器集合。這些基元分類器集合通過(guò)多次迭代構(gòu)建,每一個(gè)新的基元分類器集合都受上一級(jí)基元分類器集合的預(yù)測(cè)誤差的影響。增強(qiáng)技術(shù)鼓勵(lì)新的基元分類器集合對(duì)前一級(jí)分類錯(cuò)誤的樣本盡可能正確分類,方法是依據(jù)它們的分類性能來(lái)調(diào)整權(quán)重。初始時(shí),為所有訓(xùn)練樣本(樣本數(shù)為N)分配相同的權(quán)重,表示為:

    jsj4-gs3.gif

    然后,隨機(jī)選取一個(gè)訓(xùn)練樣本子集來(lái)訓(xùn)練一個(gè)二元神經(jīng)網(wǎng)絡(luò),用于構(gòu)建基元分類器集合。并依據(jù)基元分類器集合的性能來(lái)修改每一個(gè)樣本的權(quán)重,正確分類樣本的權(quán)重降低,誤分類樣本的權(quán)重增加。

    本文將訓(xùn)練數(shù)據(jù)劃分為兩組:低權(quán)重組和高權(quán)重組。然后,依據(jù)該基元分類器集合的性能來(lái)增加或者減少訓(xùn)練樣本的權(quán)重。結(jié)果是,部分樣本擁有很高的權(quán)重,而部分樣本可能擁有很低的權(quán)重。權(quán)重值反映了訓(xùn)練樣本被誤分類的頻率。本文方法通過(guò)維護(hù)權(quán)重的變化率,構(gòu)造了一種有效的基元分類器集合生成策略。其中,權(quán)重變化率主要依賴于當(dāng)前基元分類器集合的分類錯(cuò)誤率。實(shí)現(xiàn)流程為:

首先,從整個(gè)訓(xùn)練數(shù)據(jù)集中隨機(jī)選擇訓(xùn)練樣本子集Se,用于訓(xùn)練二元神經(jīng)網(wǎng)絡(luò),構(gòu)造基元分類器集合。每一個(gè)基元分類器集合的輸出用于量化輸入特征向量與輸出類別之間的關(guān)系,可以采用類別出現(xiàn)的概率來(lái)表示,如式(1)所示。其中,每一個(gè)基元分類器集合的權(quán)重的計(jì)算方法為:

    jsj4-gs4.gif

其中,εt表示基元分類器集合的分類錯(cuò)誤率。對(duì)于特征分類而言,在訓(xùn)練樣本上的分類正確率的期望值應(yīng)當(dāng)大于零。如果該值不大于零,則丟棄對(duì)應(yīng)的基元分類器集合。每一個(gè)基元分類器集合的錯(cuò)誤率可以表示為:

jsj4-gs5.gif

jsj4-gs6-7.gif

    在更新了訓(xùn)練樣本的權(quán)重之后,將權(quán)重歸一化到N。對(duì)于每一類圖像,權(quán)重更新過(guò)程執(zhí)行T次,構(gòu)建T個(gè)增強(qiáng)的基元分類器集合,組建神經(jīng)網(wǎng)絡(luò)池。

    綜上所述,神經(jīng)網(wǎng)絡(luò)池的訓(xùn)練過(guò)程偽代碼如下:

    輸入:訓(xùn)練樣本集{x1,y1,w1}、{x2,y2,w2}、…、{xN,yN,wN},類別數(shù)E,基元分類器集合數(shù)量T,基元分類器數(shù)量K,閾值θ1、θ2,以及隨機(jī)選取的樣本子集中的樣本數(shù)量M。

    輸出:神經(jīng)網(wǎng)絡(luò)池{SBNNi}。

    過(guò)程:

jsj4-gc1.gif

1.3 樸素貝葉斯分類器

    目前常采用投票的方式來(lái)融合多個(gè)分類器的預(yù)測(cè)結(jié)果,而本文提出一種新的融合思路,采用概率分布來(lái)融合神經(jīng)網(wǎng)絡(luò)池中各個(gè)基元分類器集合的預(yù)測(cè)結(jié)果,減少個(gè)別基元分類器奇異的問(wèn)題。具體地,本文采用樸素貝葉斯模型來(lái)組合多個(gè)基元分類器,提供了一個(gè)最終預(yù)測(cè)器與基元分類器之間的橋梁。樸素貝葉斯分類器作為最終的預(yù)測(cè)器,依據(jù)預(yù)測(cè)誤差最小準(zhǔn)則,在神經(jīng)網(wǎng)絡(luò)池中進(jìn)行學(xué)習(xí)和預(yù)測(cè)。

    考慮到基元分類器集合是二元分類器,其輸出的決策值是二值形式。因此,本文采用傳統(tǒng)的樸素貝葉斯分類器來(lái)分類這些二值數(shù)據(jù),具體是采用多維伯努利(Bernoulli)分布的形式。對(duì)于一個(gè)D維的輸入特征向量d,其對(duì)應(yīng)的類別c可以表示為:

jsj4-gs8.gif

2 仿真實(shí)驗(yàn)與分析

2.1 實(shí)驗(yàn)說(shuō)明

    本文采用神經(jīng)網(wǎng)絡(luò)池進(jìn)行物體分類實(shí)驗(yàn),選擇國(guó)際上公開的VOC-2007數(shù)據(jù)集對(duì)算法性能進(jìn)行評(píng)測(cè)。該數(shù)據(jù)集共包含20個(gè)物體類別。其中,訓(xùn)練集中圖像樣本5 011幅,測(cè)試集中圖像樣本4 952幅。

2.2 神經(jīng)網(wǎng)絡(luò)池訓(xùn)練過(guò)程的參數(shù)說(shuō)明

    在訓(xùn)練基元分類器時(shí),涉及一些對(duì)訓(xùn)練結(jié)果影響較大的參數(shù)。一是基元分類器集合的錯(cuò)誤率上限θ2。在訓(xùn)練過(guò)程中,可以通過(guò)估算每一個(gè)基元分類器的分類類別,計(jì)算分類錯(cuò)誤率指標(biāo),如果基元分類器的分類錯(cuò)誤率大于設(shè)定的錯(cuò)誤率上限θ2,則丟棄該基元分類器,重新構(gòu)建一個(gè)新的基元分類器。錯(cuò)誤率上限越大,丟棄的基元分類器越少,訓(xùn)練速度越快,但最終的錯(cuò)誤率就可能提高,本文取θ2為0.01。

    另外,學(xué)習(xí)速率對(duì)訓(xùn)練速度和分類錯(cuò)誤率的影響也比較大。學(xué)習(xí)速率太小會(huì)導(dǎo)致過(guò)擬合,且導(dǎo)致訓(xùn)練效率降低。然而,學(xué)習(xí)速率過(guò)大盡管會(huì)加快訓(xùn)練速度,但也有可能導(dǎo)致分類錯(cuò)誤率提高。本文設(shè)定的學(xué)習(xí)速率參數(shù)為0.4。

    最大迭代次數(shù)閾值用于作為基元分類器訓(xùn)練的一個(gè)終止條件,當(dāng)?shù)螖?shù)大于該閾值時(shí),停止基元分類器的訓(xùn)練過(guò)程。在本文中,最大迭代次數(shù)設(shè)置為1 000。

    隨機(jī)選取一定數(shù)量的隱含神經(jīng)元可能導(dǎo)致過(guò)擬合或者欠擬合問(wèn)題。這里,采用不同數(shù)量的隱含層神經(jīng)元來(lái)訓(xùn)練各種基元分類器。實(shí)驗(yàn)中,當(dāng)隱含層數(shù)量達(dá)到9時(shí)識(shí)別結(jié)果最好。因此,本文的徑向基神經(jīng)網(wǎng)絡(luò)的隱含層數(shù)量設(shè)為9。

    在訓(xùn)練神經(jīng)網(wǎng)絡(luò)池時(shí)涉及的參數(shù)取值為:E=20、T=100、N=5 011、M=2 000、K=20、θ1=0.5。

2.3 特征提取方法對(duì)比與選擇

    常用的圖像特征有Haar、HOG、LBP和SIFT,下面分別采用這4種圖像特征,結(jié)合本文的神經(jīng)網(wǎng)絡(luò)池進(jìn)行物體分類實(shí)驗(yàn)。以分類正確率為評(píng)價(jià)指標(biāo)來(lái)選取最優(yōu)的圖像特征。分類正確率定義為分類正確的圖像數(shù)量與圖像總數(shù)的比值。

    圖2顯示了不同特征對(duì)應(yīng)的分類正確率。很明顯,SIFT特征的分類正確率明顯高于其他3種特征。故本文選擇SIFT特征和神經(jīng)網(wǎng)絡(luò)池分類器結(jié)合的方法進(jìn)行物體分類。

jsj4-t2.gif

2.4 不同物體分類方法的實(shí)驗(yàn)結(jié)果與分析

    本文選擇文獻(xiàn)[8]、[9]和[10]所述的物體分類方法進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)所用訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集都是相同的,計(jì)算機(jī)處理平臺(tái)也是相同的,具體為:CPU四核 3.6 GHz、內(nèi)存16 GB。實(shí)驗(yàn)結(jié)果如圖3所示。

jsj4-t3.gif

    由圖3可見,采用本文所述的SIFT特征和神經(jīng)網(wǎng)絡(luò)池分類器相結(jié)合的方法取得了最高的分類正確率指標(biāo),比排名第2的文獻(xiàn)[10]方法高2.3%。

    表1給出了4種方法的物體分類時(shí)間指標(biāo),該時(shí)間是指從輸入一幅圖像到輸出分類結(jié)果所需要的平均時(shí)間,不包括訓(xùn)練過(guò)程所耗費(fèi)的時(shí)間。由表1可見,本文方法的分類時(shí)間最短,說(shuō)明本文方法的運(yùn)算效率最高。綜合評(píng)價(jià),本文方法的分類性能優(yōu)于所對(duì)比的3種方法。

jsj4-b1.gif

3 結(jié)束語(yǔ)

    本文提出了一種結(jié)合SIFT特征和神經(jīng)網(wǎng)絡(luò)池的物體分類方法。該方法選擇經(jīng)典的SIFT特征描述特征,通過(guò)構(gòu)建神經(jīng)網(wǎng)絡(luò)池分類器實(shí)現(xiàn)特征分類。其關(guān)鍵是構(gòu)建神經(jīng)網(wǎng)絡(luò)分類器,設(shè)計(jì)思想是采用隨機(jī)采樣方式選擇樣本子集,采用徑向基神經(jīng)網(wǎng)絡(luò)為每一個(gè)樣本子集構(gòu)建基元分類器,通過(guò)重復(fù)迭代方式得到許多基元分類器集合,再結(jié)合增強(qiáng)技術(shù)組建神經(jīng)網(wǎng)絡(luò)池,最后采用樸素貝葉斯分類器進(jìn)行融合預(yù)測(cè)。實(shí)驗(yàn)表明,本文方法分類正確率高且分類耗時(shí)少。

參考文獻(xiàn)

[1] 黃凱奇,任偉強(qiáng),譚鐵牛.圖像物體分類與檢測(cè)算法綜述[J].計(jì)算機(jī)學(xué)報(bào),2014,37(6):1225-1240.

[2] CHANG Z,BAN X,WANG Y.Fatigue driving detection based on Haar feature and extreme learning machine[J].Journal of China Universities of Posts & Telecommunications,2016,23(4):91-100.

[3] 陸星家.基于HOG和Haar特征的行人追蹤算法研究[J].計(jì)算機(jī)科學(xué),2013,40(s1):199-203.

[4] SATPATHY A,JIANG X,ENG H L.LBP-based edgetexture features for object recognition[J].IEEE Transactions on Image Processing,2014,23(5):1953-1964.

[5] WANG Y,BAN X,CHEN J,et al.License plate recognition based on SIFT feature[J].Optik-International Journal for Light and Electron Optics,2015,126(21):2895-2901.

[6] 許劍,張洪偉.Adaboost算法分類器設(shè)計(jì)及其應(yīng)用[J].四川理工學(xué)院學(xué)報(bào):自然科學(xué)版,2014,27(1):28-31.

[7] WANG Y,YANG M,WEI G,et al.Improved PLS regression based on SVM classification for rapid analysis of coal properties by near-infrared reflectance spectroscopy[J].Sensors & Actuators B Chemical,2014,193(3):723-729.

[8] PHAM T D.The Kolmogorov-Sinai entropy in the setting of fuzzy sets for image texture analysis and classification[J].Pattern Recognition,2016,38(53):229-237.

[9] SUDHAKARAN S,JAMES A P.Sparse distributed localized gradient fused features of objects[J].Pattern Recognition,2014,46(4):1538-1546.

[10] CINBIS R G,VERBEEK J,SCHMID C.Approximate Fisher Kernels of non-iid image models for image categorization[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,38(6):1084-1098.



作者信息:

白艷宇1,申超群2,楊新鋒3

(1.中原工學(xué)院信息商務(wù)學(xué)院 信息技術(shù)系,河南 鄭州451191;

2.河南機(jī)電職業(yè)學(xué)院,河南 鄭州451191;3.南陽(yáng)理工學(xué)院 計(jì)算機(jī)與信息工程學(xué)院,河南 南陽(yáng)473004)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
91久久精品国产91性色| 亚洲麻豆av| 欧美高清hd18日本| 久久九九99| 欧美在线免费看| 午夜精品福利视频| 亚洲欧美不卡| 亚洲夜晚福利在线观看| 一本久道久久综合中文字幕| 日韩图片一区| 亚洲精品日韩欧美| 亚洲精品在线电影| 亚洲久色影视| 妖精成人www高清在线观看| 日韩亚洲精品视频| 在线亚洲一区观看| 在线一区免费观看| 中文精品99久久国产香蕉| 亚洲免费精彩视频| 日韩视频―中文字幕| 日韩亚洲精品视频| 正在播放亚洲一区| 亚洲一区激情| 午夜激情亚洲| 欧美一区二区三区视频在线| 欧美一区2区三区4区公司二百| 欧美一级视频精品观看| 欧美中文在线视频| 久久婷婷人人澡人人喊人人爽| 久久人人爽国产| 巨胸喷奶水www久久久免费动漫| 美国三级日本三级久久99| 欧美成人xxx| 欧美日韩国产限制| 欧美无乱码久久久免费午夜一区| 国产精品美女久久久| 国产视频一区在线| 在线成人av网站| 亚洲精品久久久久久一区二区 | 欧美日韩精品欧美日韩精品| 免费在线日韩av| 免费一区二区三区| 欧美日韩色综合| 国产精品有限公司| 在线观看视频一区| 99av国产精品欲麻豆| 亚洲综合色自拍一区| 亚洲东热激情| 亚洲小说区图片区| 久久久久久穴| 欧美日产在线观看| 国产欧美韩日| 亚洲黄一区二区三区| 亚洲一区二区三区三| 亚洲福利国产| 亚洲一线二线三线久久久| 久久久精品国产免大香伊| 欧美啪啪一区| 国产欧美一区二区三区久久人妖| 在线精品国产欧美| 亚洲一二三四久久| 亚洲国产精品激情在线观看| 亚洲专区一区二区三区| 久久天堂成人| 国产精品国产| 亚洲国产精品久久久久婷婷老年 | 99国产精品久久久| 亚洲午夜久久久| 欧美亚洲一区二区在线观看| 亚洲美女精品一区| 欧美综合国产| 欧美日韩国产综合一区二区| 国产一区二区三区的电影 | 午夜精品久久久久久久蜜桃app | 久久综合九色| 国产精品视频第一区| 亚洲国产婷婷香蕉久久久久久99 | 亚洲福利久久| 一区二区三区精品在线| 亚洲欧美日韩中文播放| 欧美大片一区二区| 国产日韩欧美一区在线| 99亚洲视频| 亚洲激情av| 欧美在线视频导航| 欧美日韩卡一卡二| 亚洲电影有码| 欧美亚洲综合另类| 亚洲男同1069视频| 欧美日韩一区二区三| 亚洲国产高清在线| 久久精品国产一区二区三区| 亚洲欧美中文另类| 国产精品啊啊啊| 亚洲精品一区中文| 亚洲美女色禁图| 美女视频黄 久久| 国产亚洲欧美日韩在线一区| 亚洲在线不卡| 亚洲欧美日韩综合国产aⅴ| 欧美日韩亚洲一区在线观看| 91久久精品日日躁夜夜躁欧美| 久久成人免费日本黄色| 欧美在线关看| 国产精品亚洲成人| 亚洲特色特黄| 亚洲尤物视频在线| 欧美小视频在线观看| 亚洲理伦在线| 一区二区三区日韩欧美精品| 欧美另类一区| 亚洲精品乱码| 日韩一二在线观看| 欧美区国产区| 亚洲九九精品| 一本大道久久精品懂色aⅴ| 欧美激情乱人伦| 亚洲片国产一区一级在线观看| 最新成人av在线| 免费观看成人网| 亚洲国产小视频| 99pao成人国产永久免费视频| 欧美精品www在线观看| 亚洲福利视频专区| 亚洲精品乱码久久久久| 欧美极品色图| 日韩午夜精品| 亚洲在线观看免费视频| 国产精品美女久久久久av超清 | 午夜久久久久久| 欧美日韩在线观看一区二区| 亚洲激情黄色| 一区二区三区视频在线| 欧美天天影院| 亚洲综合三区| 久久精品亚洲国产奇米99| 国产一区二区三区免费观看| 亚洲第一精品夜夜躁人人爽| 老司机67194精品线观看| 亚洲激情欧美激情| 亚洲小视频在线| 国产精品美女诱惑| 欧美亚洲免费| 乱中年女人伦av一区二区| 亚洲成人在线| 一区二区不卡在线视频 午夜欧美不卡'| 欧美日韩亚洲高清| 午夜在线精品偷拍| 欧美91视频| 99这里有精品| 久久国产精品网站| 亚洲国语精品自产拍在线观看| 这里只有精品在线播放| 国产精品午夜国产小视频| 久久国产精品久久久久久| 欧美激情亚洲另类| 一区二区三区国产在线| 久久精品国产免费看久久精品| 亚洲国产91精品在线观看| 亚洲一区二区在线视频| 国产综合婷婷| 一本色道久久综合亚洲精品不| 国产精品视频yy9299一区| 亚洲国产99| 欧美日韩中文另类| 欧美中文在线观看| 欧美日韩一区不卡| 欧美在线亚洲一区| 欧美母乳在线| 欧美中文字幕精品| 欧美日韩一卡| 亚洲第一主播视频| 欧美丝袜第一区| 亚洲电影免费在线| 国产精品九九| 91久久精品www人人做人人爽| 欧美性做爰毛片| 亚洲国产成人久久综合| 国产精品看片资源| 亚洲精品久久久久中文字幕欢迎你 | 99亚洲伊人久久精品影院红桃| 亚洲综合视频在线| 在线观看一区| 午夜视频一区在线观看| 亚洲国产视频一区| 久久动漫亚洲| 99视频有精品| 美女精品一区| 午夜视频在线观看一区二区| 欧美日韩精品免费| 亚洲国产精品第一区二区三区| 欧美性猛交99久久久久99按摩 | 亚洲第一精品福利| 国产精品高潮呻吟视频| 亚洲人成在线观看网站高清| 国产精品影院在线观看| 一区二区三区视频在线观看| 好吊成人免视频| 欧美伊人久久久久久久久影院| 亚洲精品一区二区三区蜜桃久|