《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 人體行為序列化識(shí)別算法研究
人體行為序列化識(shí)別算法研究
2018年電子技術(shù)應(yīng)用第4期
胡青松1,2,張 亮1,2
1.中國(guó)礦業(yè)大學(xué) 物聯(lián)網(wǎng)(感知礦山)研究中心,江蘇 徐州221008; 2.中國(guó)礦業(yè)大學(xué) 信息與控制工程學(xué)院,江蘇 徐州221008
摘要: 針對(duì)傳統(tǒng)方法在人體行為識(shí)別方面拓展性不強(qiáng)等問題,提出一種序列化的研究思想,提取骨骼圖的特征矢量,用SVM訓(xùn)練和識(shí)別靜態(tài)動(dòng)作,形成序列即可表示動(dòng)態(tài)動(dòng)作,因此只要豐富靜態(tài)動(dòng)作庫(kù),就可以實(shí)現(xiàn)多種動(dòng)態(tài)動(dòng)作的識(shí)別,具有很好的拓展性。為了減少靜態(tài)動(dòng)作識(shí)別錯(cuò)誤產(chǎn)生的影響,提出一種基于前后信息的糾錯(cuò)算法。實(shí)驗(yàn)表明,該算法具有較高的識(shí)別準(zhǔn)確率,并且具有很好的魯棒性和實(shí)時(shí)性。
中圖分類號(hào): TP393
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.173038
中文引用格式: 胡青松,張亮. 人體行為序列化識(shí)別算法研究[J].電子技術(shù)應(yīng)用,2018,44(4):122-125,129.
英文引用格式: Hu Qingsong,Zhang Liang. Research on human behavior serialization recognition based on skeleton graph[J]. Application of Electronic Technique,2018,44(4):122-125,129.
Research on human behavior serialization recognition based on skeleton graph
Hu Qingsong1,2,Zhang Liang1,2
1.Internet of Things Perception Mine Research Center,China University of Mining and Technology,Xuzhou 221008,China; 2.School of Information and Control Engineering,China University of Mining and Technology,Xuzhou 221008,China
Abstract: In view of the fact that the traditional method is not expanding well in human behavior recognition, this paper proposes a serialization research idea. A sequence which can represent the dynamic action is generated by using SVM to train and recognize static action whose feature vectors of skeleton map extracts from Kinect. Therefore, as long as the static action library is rich, a variety of dynamic actions can be identified, and it has good scalability. In order to reduce the influence of the error recognition of static motion, this paper proposes an error correction algorithm based on front and back information. Experiments show that the algorithm has higher recognition accuracy, and has better robustness and real-time.
Key words : action recognition;skeleton map;feature vectors;SVM
0 引言

    隨著科學(xué)技術(shù)的發(fā)展,計(jì)算機(jī)的運(yùn)算能力大大提升,針對(duì)大數(shù)據(jù)的處理漸漸得以實(shí)現(xiàn)。在此基礎(chǔ)上發(fā)展而來(lái)的人體行為姿態(tài)識(shí)別[1]為人機(jī)交互、視頻監(jiān)控和智能家居等方面的應(yīng)用提供了基礎(chǔ)。近些年,研究人員已經(jīng)在人體行為識(shí)別方面做了大量的研究工作,取得了許多重要的成果,但是對(duì)于復(fù)雜人體行為的識(shí)別準(zhǔn)確率較低,仍然有待于提高。

    基于視覺的人體行為識(shí)別方法[2]可以分為兩類,一類基于模板匹配[3],一類基于機(jī)器學(xué)習(xí)[4]?;谀0迤ヅ涞姆椒ㄍㄟ^計(jì)算當(dāng)前動(dòng)作與模板庫(kù)里的模板之間的相似度,把當(dāng)前模板判定為最相似動(dòng)作的過程。IBANEZ R和SORIA A等人通過提取人體肢體行為軌跡,分別用動(dòng)態(tài)時(shí)間規(guī)整(DTW)和隱馬爾科夫(HMM)算法,基于模板匹配進(jìn)行人體行為識(shí)別[5]?;跈C(jī)器學(xué)習(xí)的方法通過提取樣本特征對(duì)樣本訓(xùn)練,得到一個(gè)分類器,此分類器具有預(yù)測(cè)未知樣本的能力。TRIGUEIROS P和RIBEIRO F等人就對(duì)比了幾種機(jī)器學(xué)習(xí)算法在手勢(shì)識(shí)別上的應(yīng)用[6]。但是,這些算法都是為某一具體行為動(dòng)作所設(shè)計(jì),當(dāng)需要檢測(cè)額外的行為動(dòng)作時(shí),又需要重新設(shè)計(jì)方案,拓展性較差。

    本文使用從Kinect[7]采集的骨骼圖數(shù)據(jù)(由MSRC-12 Gesture Dataset數(shù)據(jù)庫(kù)[8]提供),Kinect提取的骨骼圖像能夠克服光線強(qiáng)弱等外界因素帶來(lái)的干擾,具有較強(qiáng)的魯棒性;提取骨骼特征,并采用機(jī)器學(xué)習(xí)的算法對(duì)靜態(tài)動(dòng)作分類,最終形成序列;從序列中找出需要識(shí)別的動(dòng)作序列的過程即可表示動(dòng)態(tài)動(dòng)作識(shí)別過程,此過程具有很好的實(shí)時(shí)性和拓展性。

1 基于骨骼圖的特征提取

    選取既能夠充分表示人體某一動(dòng)作,又不包含過多的冗余信息的人體特征特征提取對(duì)行為識(shí)別的研究很有價(jià)值。根據(jù)人體機(jī)械學(xué)理論,本文通過提取4個(gè)關(guān)節(jié)點(diǎn)向量、5個(gè)關(guān)節(jié)點(diǎn)角度和4個(gè)關(guān)節(jié)點(diǎn)距離系數(shù)表示人體行為姿態(tài)。

1.1 關(guān)節(jié)點(diǎn)向量提取

    如圖1所示,4個(gè)關(guān)節(jié)點(diǎn)向量分別是左上臂(VSL-EL)、右上臂(VSR-ER)、左大腿(VHL-KL)和右大腿(VHR-KR)?,F(xiàn)以左上臂為例,計(jì)算左上臂向量。已知左肩膀(ShoulderLeft)關(guān)節(jié)點(diǎn)坐標(biāo)為SL(Sx,Sy,Sz),左手肘(ElbowLeft)關(guān)節(jié)點(diǎn)坐標(biāo)為EL(Ex,Ey,Ez),則左上臂關(guān)節(jié)點(diǎn)向量計(jì)算方法如式(1)所示。其他關(guān)節(jié)點(diǎn)向量以此類推。

    jsj1-gs1.gif

jsj1-t1.gif

1.2 關(guān)節(jié)點(diǎn)角度提取

    在原有向量的基礎(chǔ)上提取4個(gè)關(guān)節(jié)點(diǎn)角度。聯(lián)合關(guān)節(jié)點(diǎn)向量,可以描述人體左小臂、右小臂、左小腿和右小腿的活動(dòng)狀態(tài)。圖1中θEL、θER、θKL和θKR分別表示左肘關(guān)節(jié)點(diǎn)角度、右肘關(guān)節(jié)點(diǎn)角度、左膝關(guān)節(jié)點(diǎn)角度和右膝關(guān)節(jié)點(diǎn)角度。θHC表示臀部中心到頭部的向量與豎直方向向量之間的夾角,可以表示人體姿態(tài)的彎腰程度,描述整體軀干的活動(dòng)狀態(tài)。夾角可以通過式(2)計(jì)算獲得。

    jsj1-gs2.gif

其中V1、V2分別表示兩個(gè)關(guān)節(jié)點(diǎn)向量,θ表示這兩個(gè)關(guān)節(jié)點(diǎn)向量的夾角。

1.3 關(guān)節(jié)點(diǎn)距離系數(shù)提取

    為了能夠讓選取特征對(duì)上肢手部活動(dòng)更加敏感,本文加入4個(gè)關(guān)節(jié)點(diǎn)距離系數(shù)。圖1中,a為臀部中心到頭部的關(guān)節(jié)向量,b為頭部到右手的關(guān)節(jié)向量,c為頭部到左手的關(guān)節(jié)向量,d為臀部中心到右手的關(guān)節(jié)向量,e為臀部中心到左手的關(guān)節(jié)向量。通過式(3)可以獲得頭部到左右手的相對(duì)距離系數(shù)d1、d2和臀部中心到左右手的相對(duì)距離系數(shù)d3、d4。

    jsj1-gs3.gif

    至此,基于骨骼圖的特征可以表示為式(4)所示的特征矩陣,共計(jì)4×3+5+4=21維。

     jsj1-gs4.gif

2 基于SVM的識(shí)別算法流程

2.1 靜態(tài)動(dòng)作的SVM識(shí)別

    支持向量機(jī)[9](Support Vector Machines,SVM)是一種用于分類的算法,它能夠在多維空間找出完美劃分事物的超平面。本文使用SVM進(jìn)行動(dòng)作分類,以二分類支持向量機(jī)為例,已知訓(xùn)練樣本集T:

jsj1-gs5-12.gif

    使用多個(gè)二分類器形成多分類器,用豐富的樣本訓(xùn)練并識(shí)別人體靜態(tài)姿勢(shì)。

2.2 動(dòng)態(tài)動(dòng)作的序列化識(shí)別

    設(shè)定某一采樣頻率,所提取到每一幀骨骼圖都以靜態(tài)的方式呈現(xiàn)。對(duì)每一幀骨骼圖進(jìn)行靜態(tài)動(dòng)作識(shí)別,可以得到一串長(zhǎng)序列。在長(zhǎng)序列中尋找待識(shí)別序列即為動(dòng)態(tài)動(dòng)作識(shí)別。如圖2所示,一組抬起雙手舉高(Start system)的動(dòng)作可以分解為G1、G2、G3 3個(gè)靜態(tài)動(dòng)作,因此只要在長(zhǎng)序列中檢測(cè)到連續(xù)的G1、G2、G3 3個(gè)靜態(tài)動(dòng)作即可判定出現(xiàn)“抬起雙手舉高”的動(dòng)態(tài)動(dòng)作。

jsj1-t2.gif

2.3 分類的糾錯(cuò)過程

    為了減小靜態(tài)姿勢(shì)識(shí)別錯(cuò)誤對(duì)動(dòng)態(tài)動(dòng)作識(shí)別準(zhǔn)確率的影響,本文提出一種基于前后信息的姿態(tài)糾正算法。一般情況下,相鄰兩幀或者多幀的數(shù)據(jù)描述的都是同一動(dòng)作。算法流程圖如圖3所示,其中predict是分類器預(yù)測(cè)的結(jié)果,sequence是最終形成的長(zhǎng)序列。首先判斷當(dāng)前預(yù)測(cè)結(jié)果是否與長(zhǎng)序列隊(duì)尾數(shù)據(jù)相同,如果相同,說(shuō)明當(dāng)前動(dòng)作與上一幀動(dòng)作相同,把預(yù)測(cè)結(jié)果加入長(zhǎng)序列隊(duì)尾;如果不相同,需要驗(yàn)證當(dāng)前預(yù)測(cè)結(jié)果是否出錯(cuò)。此算法判斷當(dāng)前動(dòng)作之后的n(本文選取15)幀預(yù)測(cè)結(jié)果中出現(xiàn)最多的數(shù)據(jù)是否等于當(dāng)前動(dòng)作預(yù)測(cè)結(jié)果,并且其所占比是否大于某一閾值(本文選取0.5),如果是,將當(dāng)前動(dòng)作的預(yù)測(cè)結(jié)果加入長(zhǎng)序列隊(duì)尾;如果否,說(shuō)明當(dāng)前動(dòng)作預(yù)測(cè)結(jié)果出錯(cuò),長(zhǎng)序列隊(duì)尾數(shù)據(jù)保持不變。

jsj1-t3.gif

3 實(shí)驗(yàn)驗(yàn)證

3.1 訓(xùn)練靜態(tài)動(dòng)作

    MSRC-12 Gesture Dataset是微軟提供的數(shù)據(jù)庫(kù),共包括12組動(dòng)作。本文選擇其中3組動(dòng)作,分別為Start system、Duck和Push right,如圖2、圖4和圖5所示。

jsj1-t4.gif

jsj1-t5.gif

    顯然,大多數(shù)志愿者保持某一靜態(tài)動(dòng)作的時(shí)間并不一致。為了合理利用資源和方便處理,把姿勢(shì)劃分為進(jìn)行態(tài)和保持態(tài)兩種狀態(tài):

    (1)進(jìn)行態(tài)是一組動(dòng)作的中間狀態(tài),即兩種靜態(tài)姿態(tài)的過度,可包含運(yùn)動(dòng)過程中較大范圍的運(yùn)動(dòng)姿態(tài),圖2(b)的G2和圖5(b)中的G5即是進(jìn)行態(tài)。因?yàn)檫M(jìn)行態(tài)不能對(duì)決策結(jié)果起決定性作用,所以進(jìn)行態(tài)并不需要非常高的識(shí)別精確度。

    (2)保持態(tài)是一組動(dòng)作中保持時(shí)間較長(zhǎng)的狀態(tài),能夠?qū)ψ藙?shì)的識(shí)別起決定性作用,因此需要很高的識(shí)別準(zhǔn)確率。圖2(a)中的G1、圖2(c)中的G3、圖4(b)中的G4以及圖5(c)中的G6都屬于保持態(tài)。實(shí)驗(yàn)中,從10人中選取600幀G1姿勢(shì),5人中選取550幀G2、G3、G4、G5和G6姿勢(shì),共3 350幀數(shù)據(jù),用于訓(xùn)練分類器,SVM識(shí)別結(jié)果見表1。

jsj1-b1.gif

3.2 靜態(tài)動(dòng)作結(jié)果分析

    采用十折交叉驗(yàn)證法檢驗(yàn)分類器的性能,最終得到的平均識(shí)別準(zhǔn)確度為93.12%。表1為單個(gè)姿態(tài)的識(shí)別準(zhǔn)確度。從表1可以看出,位于保持態(tài)的姿態(tài)識(shí)別準(zhǔn)確率普遍在90%以上,達(dá)到較高的準(zhǔn)確率。進(jìn)行態(tài)姿態(tài)識(shí)別準(zhǔn)確率比保持態(tài)稍低,但是從前文可知,這對(duì)最終的判定結(jié)果影響不大。

3.3 序列糾錯(cuò)

    采用2.3節(jié)所述的方法進(jìn)行姿態(tài)序列糾錯(cuò)。不失一般性,從實(shí)驗(yàn)的3 350幀數(shù)據(jù)中隨機(jī)選取150幀數(shù)據(jù)(原序列)為例,見圖6(a)。在原序列第30幀左右,姿勢(shì)2(G2)向姿勢(shì)3(G3)過度階段出現(xiàn)了較多錯(cuò)分類現(xiàn)象。圖6(b)是采用2.3節(jié)方法糾錯(cuò)后序列,可以看出,整個(gè)序列變得光滑得多,上述的分類錯(cuò)誤得到了抑制,大大方便了后續(xù)動(dòng)作識(shí)別。

jsj1-t6.gif

3.4 態(tài)動(dòng)作識(shí)別驗(yàn)證

    為便利于分析,將經(jīng)過糾錯(cuò)處理的數(shù)據(jù)中連續(xù)的n個(gè)“1”用一個(gè)“1”表示,其他姿態(tài)以此類推。以Start system為例,當(dāng)檢測(cè)到連續(xù)的1,2,3或者1,3則可以判定出現(xiàn)一組Start system動(dòng)作,當(dāng)檢測(cè)到連續(xù)的1,2,3,2,1、1,2,3,1、1,3,2,1、1,3,1則判定完成Start system動(dòng)作并回到站姿(G1)。用MSRC-12 Gesture Dataset數(shù)據(jù)測(cè)試,測(cè)試結(jié)果見表2。為了對(duì)比算法的優(yōu)劣,表2中同時(shí)列出了文獻(xiàn)[10]的隨機(jī)森林算法的識(shí)別情況。

jsj1-b2.gif

    由表2明顯可以看出,與文獻(xiàn)[10]的算法相比,本文提出的算法的識(shí)別準(zhǔn)確率更高。通過實(shí)驗(yàn)得知,Start system、Duck和Push right 3種動(dòng)作具體的識(shí)別準(zhǔn)確率分別是71.82%、80%和76.36%。

4 總結(jié)

    本文算法可以實(shí)現(xiàn)實(shí)時(shí)提取骨骼數(shù)據(jù),計(jì)算骨骼特征,分類識(shí)別并形成序列,具有很好的實(shí)時(shí)性。序列化的動(dòng)態(tài)動(dòng)作識(shí)別方法可以滿足各種動(dòng)作的任意組合,具有很好的拓展性。實(shí)驗(yàn)表明,本文算法具有較高的識(shí)別準(zhǔn)確率。但是,對(duì)采集到的每一幀骨骼圖進(jìn)行分類無(wú)疑會(huì)增加算法復(fù)度。因此,如何降低冗余的分類識(shí)別,是下一步研究需要解決的問題。

參考文獻(xiàn)

[1] 李瑞峰,王亮亮,王珂.人體動(dòng)作行為識(shí)別研究綜述[J].模式識(shí)別與人工智能,2014,27(1):35-48.

[2] 胡瓊,秦磊,黃慶明.基于視覺的人體動(dòng)作識(shí)別綜述[J].計(jì)算機(jī)學(xué)報(bào),2013,36(12):2512-2524.

[3] NIEBLES J C,WANG H,LI F F.Unsupervised learning of human action categories using spatial-temporal words[J].International Journal of Computer Vision,2008,79(3):299-318.

[4] JAGER M,KNOLL C,HAMPRECHT F A.Weakly supervised learning of a classifier for unusual event detection[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,2008,17(9):1700-1708.

[5] IBABEZ R,SORIA A,TEYSEYRE A,et al.Easy gesture recognition for Kinect[J].Advances in Engineering Software,2014,76:171-180.

[6] TRIGUEIROS P,RIBEIRO F,REIS L P.A comparison of machine learning algorithms applied to hand gesture recognition[J].Information Systems & Technologies,2012,52(11):41-46.

[7] ZHANG Z.Microsoft Kinect sensor and its effect[M].IEEE Computer Society Press,2012:4-10.

[8] 刁俊方.基于Kinect的人體動(dòng)作識(shí)別技術(shù)研究[D].重慶:重慶大學(xué),2015.

[9] SOTIRIS V A,TSE P W,PECHT M G.Anomaly detection through a Bayesian support vector machine[J].IEEE Transactions on Reliability,2010,59(2):277-286.

[10] FOTHERGILL S,MENTIS H,KOHLI P,et al.Instructing people for training gestural interactive systems[C].Sigchi Conference on Human Factors in Computing Systems,ACM,2012:1737-1746.



作者信息:

胡青松1,2,張  亮1,2

(1.中國(guó)礦業(yè)大學(xué) 物聯(lián)網(wǎng)(感知礦山)研究中心,江蘇 徐州221008;

2.中國(guó)礦業(yè)大學(xué) 信息與控制工程學(xué)院,江蘇 徐州221008)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
欧美三区在线视频| 国产自产精品| 免费观看国产成人| 欧美在线free| 性色av香蕉一区二区| 亚洲男人天堂2024| 亚洲综合三区| 亚洲欧美日韩精品久久久| 亚洲视频日本| 亚洲一区二区三区影院| 亚洲婷婷在线| 亚洲自拍另类| 亚洲欧美在线一区二区| 午夜久久美女| 欧美专区在线| 久久久欧美精品sm网站| 久久久伊人欧美| 免费视频亚洲| 欧美人与性动交a欧美精品| 欧美另类高清视频在线| 欧美啪啪成人vr| 欧美日韩在线观看一区二区三区| 欧美日韩精品一区二区天天拍小说| 欧美激情第五页| 欧美日韩国产一级| 欧美三级在线视频| 国产精品久久久久国产a级| 国产精品一区视频网站| 国产亚洲第一区| 狠狠色综合网站久久久久久久| 樱桃视频在线观看一区| 最新亚洲激情| 亚洲在线不卡| 久久精品人人做人人爽电影蜜月| 亚洲日韩第九十九页| 一区二区三区高清视频在线观看| 亚洲一区三区在线观看| 久久国内精品视频| 久久香蕉精品| 欧美日韩高清区| 国产精品欧美久久| 国内揄拍国内精品久久| 亚洲激情电影在线| 中国女人久久久| 香蕉国产精品偷在线观看不卡| 久久精品一区二区三区不卡| 日韩视频在线免费| 亚洲欧美综合一区| 久久影视精品| 欧美日韩精品是欧美日韩精品| 国产精品一区毛片| 亚洲第一区在线| 在线午夜精品自拍| 久久精品国产69国产精品亚洲 | 亚洲乱码国产乱码精品精可以看 | 亚洲人午夜精品免费| 亚洲天堂偷拍| 亚洲国产99| 亚洲欧美日韩国产中文在线| 久久综合影音| 国产精品成人一区二区网站软件 | 狠狠色狠狠色综合日日五| 亚洲精品视频免费在线观看| 亚洲欧美日韩精品久久久| 亚洲国产视频直播| 亚洲欧美国产毛片在线| 免费不卡视频| 国产伦精品一区二区三区在线观看| 亚洲国产成人高清精品| 亚洲欧美精品suv| 一区二区免费在线观看| 久久三级视频| 国产精品视频免费在线观看| 亚洲激情在线观看视频免费| 小黄鸭精品密入口导航| 一区二区av| 麻豆av福利av久久av| 国产精品美女久久久免费| 亚洲国产成人tv| 欧美在线观看视频一区二区| 亚洲深夜福利视频| 欧美成人精品影院| 国产夜色精品一区二区av| 一区二区三区欧美在线| 亚洲精品一区二区三区婷婷月| 久久精品国产精品亚洲| 国产精品美女久久久久久2018| 最新亚洲一区| 亚洲人在线视频| 久久国产精品亚洲77777| 欧美新色视频| 日韩视频免费观看| 亚洲精品日韩在线| 另类酷文…触手系列精品集v1小说| 国产精品女人毛片| 中文日韩电影网站| 亚洲色无码播放| 欧美精品午夜视频| 亚洲高清视频在线观看| 久久精品国产综合精品| 久久精品国产久精国产爱| 国产精品永久免费视频| 亚洲一区3d动漫同人无遮挡| 一区二区免费看| 欧美日韩极品在线观看一区| 亚洲国产视频一区| 亚洲国产天堂久久国产91| 久久尤物电影视频在线观看| 国产在线高清精品| 午夜在线a亚洲v天堂网2018| 亚欧成人在线| 国产精品网红福利| 亚洲小视频在线| 香蕉av福利精品导航| 国产精品乱码一区二三区小蝌蚪 | 欧美一区二区三区四区视频| 欧美亚洲一区二区在线| 国产精品丝袜白浆摸在线| 亚洲一区二区三区777| 亚洲欧美国产精品桃花| 国产精品一级| 亚洲欧美制服中文字幕| 久久国产视频网| 红桃av永久久久| 亚洲国产成人在线视频| 美女国产精品| 亚洲黄色av一区| 夜夜嗨av一区二区三区网页| 欧美日韩激情网| 一区二区日韩伦理片| 亚洲欧美精品伊人久久| 国产精品一区二区你懂的| 午夜激情久久久| 久久亚洲精品欧美| 亚洲高清色综合| 亚洲午夜精品久久久久久app| 欧美日韩综合另类| 亚洲专区在线视频| 久久久久久久久蜜桃| 一区二区三区在线免费视频 | 国产精品男女猛烈高潮激情| 亚洲欧美精品在线观看| 久久久精彩视频| 在线日韩视频| 一区二区三区四区在线| 国产精品区二区三区日本| 欧美亚洲综合久久| 免费h精品视频在线播放| 亚洲精品日韩在线观看| 亚洲自拍偷拍麻豆| 国内精品视频在线观看| 亚洲伦理久久| 国产精品毛片高清在线完整版| 欧美一级久久| 欧美不卡视频一区| 夜夜嗨av一区二区三区网站四季av| 亚洲综合色婷婷| 韩国成人精品a∨在线观看| 日韩午夜一区| 国产精自产拍久久久久久| 亚洲国产高潮在线观看| 欧美日韩精品是欧美日韩精品| 亚洲一区二区在线免费观看| 久久久久久自在自线| 亚洲伦伦在线| 欧美亚洲尤物久久| 亚洲风情在线资源站| 亚洲综合成人婷婷小说| 狠狠色丁香婷综合久久| 亚洲视频狠狠| 一区二区三区在线观看视频| 亚洲一级二级| 国内外成人免费激情在线视频 | 国产精品高精视频免费| 久久成人免费视频| 欧美日韩国产在线看| 性高湖久久久久久久久| 欧美国产日韩一区二区| 午夜欧美不卡精品aaaaa| 欧美精品一区在线观看| 午夜激情综合网| 欧美日韩精品久久| 久久精品五月| 国产精品一区免费观看| 亚洲最新在线| 伊人狠狠色j香婷婷综合| 亚洲欧美激情诱惑| 亚洲日本视频| 久久午夜精品一区二区| 亚洲一区二区免费| 欧美精品在线观看一区二区| 久久成人综合网| 国产精品美女久久福利网站| 99在线热播精品免费| 红桃av永久久久| 欧美在线地址| 国产精品99久久久久久久久久久久| 免费看成人av| 久久精品国产清自在天天线 | 亚洲国产欧美一区二区三区久久 |