《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 基于Kinect 2.0深度圖像的快速體積測(cè)量
基于Kinect 2.0深度圖像的快速體積測(cè)量
2017年微型機(jī)與應(yīng)用第7期
李玲玲1,王正勇1,卿粼波1,何海波2
1.四川大學(xué) 電子信息學(xué)院,四川 成都610065;2.成都西圖科技有限公司, 四川 成都610000
摘要: 為了滿足現(xiàn)實(shí)生活中對(duì)物體體積實(shí)時(shí)測(cè)量的需求,提出了一套基于Kinect 2.0深度圖像處理的快速體積測(cè)量方案。首先,使用Kinect 2.0 深度傳感器獲得深度圖像及對(duì)應(yīng)的點(diǎn)云數(shù)據(jù)矩陣,并對(duì)深度圖像進(jìn)行增強(qiáng)、二值化、目標(biāo)提取等預(yù)處理,定位出目標(biāo)物體。然后,通過(guò)像素點(diǎn)的統(tǒng)計(jì)和點(diǎn)云數(shù)據(jù)的處理得到目標(biāo)物體的面積、高度。最后由面積和高度完成目標(biāo)物體的體積計(jì)算。經(jīng)驗(yàn)證這種方法的體積測(cè)量誤差控制在3%以內(nèi),完全滿足實(shí)時(shí)性的誤差要求,又由于深度圖像較彩色圖像不易受光線、背景的干擾,使得該方法具有很強(qiáng)的魯棒性。
Abstract:
Key words :

  李玲玲1,王正勇1,卿粼波1,何海波2

 ?。?.四川大學(xué) 電子信息學(xué)院,四川 成都610065;2.成都西圖科技有限公司, 四川  成都610000)

       摘要:為了滿足現(xiàn)實(shí)生活中對(duì)物體體積實(shí)時(shí)測(cè)量的需求,提出了一套基于Kinect 2.0深度圖像處理的快速體積測(cè)量方案。首先,使用Kinect 2.0 深度傳感器獲得深度圖像及對(duì)應(yīng)的點(diǎn)云數(shù)據(jù)矩陣,并對(duì)深度圖像進(jìn)行增強(qiáng)、二值化、目標(biāo)提取等預(yù)處理,定位出目標(biāo)物體。然后,通過(guò)像素點(diǎn)的統(tǒng)計(jì)和點(diǎn)云數(shù)據(jù)的處理得到目標(biāo)物體的面積、高度。最后由面積和高度完成目標(biāo)物體的體積計(jì)算。經(jīng)驗(yàn)證這種方法的體積測(cè)量誤差控制在3%以內(nèi),完全滿足實(shí)時(shí)性的誤差要求,又由于深度圖像較彩色圖像不易受光線、背景的干擾,使得該方法具有很強(qiáng)的魯棒性。

  關(guān)鍵詞:Kinect 2.0深度圖像;點(diǎn)云數(shù)據(jù)矩陣;目標(biāo)提取;體積計(jì)算

  中圖分類號(hào):TP274文獻(xiàn)標(biāo)識(shí)碼:ADOI: 10.19358/j.issn.1674-7720.2017.07.011

  引用格式:李玲玲,王正勇,卿粼波,等.基于Kinect 2.0深度圖像的快速體積測(cè)量[J].微型機(jī)與應(yīng)用,2017,36(7):35-38,42.

0引言

  體積測(cè)量在現(xiàn)實(shí)生活中應(yīng)用廣泛,例如在航空運(yùn)輸行業(yè)中,貨物入艙前需對(duì)運(yùn)輸貨物體積有快速明確的估計(jì),以滿足飛機(jī)腹艙空間的充分利用,提高運(yùn)輸效率。目前機(jī)場(chǎng)主要是通過(guò)目測(cè)確定需運(yùn)入飛機(jī)腹艙的貨物體積,其精確度不夠高,因此研發(fā)一套自動(dòng)化體積測(cè)量系統(tǒng)尤為必要?,F(xiàn)體積測(cè)量系統(tǒng)主要是基于激光傳感器[13],但實(shí)際操作中為了獲得被測(cè)物體某個(gè)面上的三維坐標(biāo)信息,激光傳感器需要電機(jī)等配套設(shè)備的驅(qū)動(dòng)才能獲取由線陣數(shù)據(jù)組成的整個(gè)物體表面的信息[1],又由于對(duì)激光傳感器的掃描分辨率和靈敏度的要求,使得整個(gè)系統(tǒng)操作復(fù)雜,速度慢且成本高[1]。不同于傳統(tǒng)的激光傳感器得到的線陣數(shù)據(jù),Kinect 2.0深度傳感器得到的不僅是面陣數(shù)據(jù),而且可獲取物體深度信息,為此,本文主要研究基于Kinect 2.0深度圖像預(yù)處理方法實(shí)現(xiàn)入艙前貨物體積的快速實(shí)時(shí)測(cè)量。該方案優(yōu)點(diǎn)主要體現(xiàn)在實(shí)現(xiàn)速度快,系統(tǒng)組成和操作簡(jiǎn)單,只需一臺(tái)Kinect和一臺(tái)電腦,成本低,更具有經(jīng)濟(jì)使用價(jià)值。

1實(shí)現(xiàn)方案

001.jpg

  圖1體積測(cè)量方案流程圖1為體積測(cè)量方案流程。本文首先用Kinect 2.0采集深度圖像及其對(duì)應(yīng)的點(diǎn)云數(shù)據(jù)矩陣,然后采用漫水填充的方法增強(qiáng)圖像初步去噪突出目標(biāo)物體,并經(jīng)過(guò)圖像二值化、Canny邊緣檢測(cè)提取物體輪廓,圖像填充提取目標(biāo)物體。最后,根據(jù)Kinect 2.0視場(chǎng)與像素個(gè)數(shù)的比值關(guān)系得到面積,由目標(biāo)物體在整個(gè)圖像中的具體位置將其配準(zhǔn)到點(diǎn)云數(shù)據(jù)矩陣中計(jì)算物體高度,進(jìn)而求出物體體積。

002.jpg

2深度圖像和點(diǎn)云數(shù)據(jù)矩陣獲取

  2.1深度圖像獲取

  深度圖像又叫做距離圖像,類似于彩色圖像矩陣中的顏色值、灰度圖像矩陣中的灰度值,深度圖像信息即深度值存儲(chǔ)在深度圖像矩陣中。深度圖像較灰度圖像的優(yōu)勢(shì)是,深度值只與距離相關(guān),與光照強(qiáng)度和方向無(wú)關(guān)[4]。

  本方案采用Kinect 2.0攝像頭獲取深度圖像。Kinect 2.0是微軟公司于2014年7月推出的高性價(jià)比攝像頭。相比于傳統(tǒng)的激光傳感器,Kinect 2.0是一款功能強(qiáng)大、性價(jià)比高、方便使用的三維數(shù)據(jù)采集設(shè)備,圖2Kinect深度圖像其分辨率為512×424;水平視場(chǎng)可增大至70°,垂直視場(chǎng)增大至60°;其深度圖像拍攝范圍為0.8~4.0 m,圖2為獲取的一張深度圖像。

  2.2點(diǎn)云數(shù)據(jù)矩陣獲取

003.jpg

  點(diǎn)云是指以各種方式獲得的點(diǎn)數(shù)據(jù),是測(cè)量目標(biāo)表面上各點(diǎn)信息的集合。坐標(biāo)數(shù)據(jù)是點(diǎn)云數(shù)據(jù)必須包括的信息,另外法向量、顏色值或其他數(shù)據(jù)信息也可能被包括在點(diǎn)云數(shù)據(jù)中[5]。本方案中Kinect 2.0獲取的點(diǎn)云數(shù)據(jù)是與其深度圖像的每個(gè)像素點(diǎn)對(duì)應(yīng)的距離信息矩陣,其大小為512行、424列,其值表示的是Kinect 2.0深度攝像頭到被拍攝物體表面的垂直距離,單位為mm。經(jīng)實(shí)驗(yàn)驗(yàn)證Kinect 2.0在其所能達(dá)到的距離范圍0.8~4 m內(nèi)的距離誤差均在2 cm以內(nèi),Kinect 2.0測(cè)得距離與實(shí)際距離的比較如表1所示,由此獲得的Kinect 2.0測(cè)試距離和實(shí)際距離的精度曲線如圖3所示。

008.jpg

3深度圖像預(yù)處理

  由于Kinect采集的深度圖像并不完美,含有與距離平方成正比的噪聲及無(wú)效像素構(gòu)成的空洞[6]。本文中的深度圖像還有周圍物體的干擾,因此對(duì)采集到的原始深度圖像進(jìn)行預(yù)處理對(duì)后續(xù)進(jìn)一步研究尤為重要。本方案經(jīng)過(guò)對(duì)深度圖像的漫水填充[7]處理、基于Otsu[8]算法的圖像二值化、Canny算子[9]邊緣檢測(cè)、圖像填充等預(yù)處理方法檢測(cè)定位提取出目標(biāo)物體。

  3.1基于漫水填充的圖像增強(qiáng)

  圖像增強(qiáng)可弱化或消除一些不必要信息,經(jīng)過(guò)增強(qiáng)處理的圖像比原始圖像更適合特定場(chǎng)景的需求[10]。本文首先對(duì)帶目標(biāo)物體的深度圖像通過(guò)漫水填充,強(qiáng)化突出目標(biāo)區(qū)域。實(shí)驗(yàn)證明該方法效果比較理想,基本上消除了周圍噪聲并突出了目標(biāo)物體,為后續(xù)圖像處理做準(zhǔn)備。漫水填充法是一種常用的區(qū)域填充法,它的實(shí)質(zhì)是種子填充法,經(jīng)常被用來(lái)標(biāo)記或分離圖像的感興趣區(qū)域。

  圖4漫水填充處理后的圖像漫水填充法的具體操作即在具有同一顏色或亮度值的像素區(qū)域內(nèi)選取種子點(diǎn),通過(guò)判斷種子與種子點(diǎn)的鄰域像素顏色或亮度值的差別是否滿足預(yù)先設(shè)定的閾值,來(lái)決定是否對(duì)鄰域的像素用新的顏色或亮度值代替,直到遍歷完區(qū)域內(nèi)所有像素或達(dá)到輪廓線的邊界[11]。由此可知,初始種子點(diǎn)、替代顏色和目標(biāo)顏色判定閾值是漫水填充的3個(gè)重要參數(shù)。本文并沒有填充目標(biāo)區(qū)域,而是通過(guò)填充目標(biāo)區(qū)域以外的區(qū)域?yàn)榘咨聪袼刂禐椋?55,255,255)來(lái)突出黑色的目標(biāo)區(qū)域,這樣就簡(jiǎn)化了參數(shù)的選擇。漫水填充可通過(guò)opencv中的cvFlood Fill函數(shù)來(lái)實(shí)現(xiàn),選取種子點(diǎn)為(20,20),將下標(biāo)記和上標(biāo)記都選取為30,對(duì)種子的8鄰域逐點(diǎn)進(jìn)行判斷,經(jīng)實(shí)驗(yàn)驗(yàn)證這種參數(shù)的選取值可取得很好的效果,如圖4所示。

004.jpg

  3.2基于Otsu的圖像二值化

  圖像增強(qiáng)雖然突出了目標(biāo)物體但周圍仍有噪聲,故需對(duì)圖像進(jìn)行進(jìn)一步的處理。接下來(lái)對(duì)漫水填充后的圖像進(jìn)行二值化操作以適應(yīng)下一步圖像處理的要求。針對(duì)目標(biāo)物體與背景有較大差別的圖像,為了得到理想的二值化效果,閾值分割是備受青睞的方法。因此,區(qū)分目標(biāo)物體和背景的閾值對(duì)二值化效果是否理想起到關(guān)鍵的作用。設(shè)原始灰度圖像為f(x,y),經(jīng)二值化處理的圖像為g(x,y),可用式(1)描述二值化過(guò)程。

  g(x,y)=1,f(x,y)t

  x,f(x,y)<t(1)

  全局閾值法和局部閾值法是二值化的主流方法,本文采用基于Otsu算法的全局閾值法,該方法針對(duì)直方圖呈明顯雙峰分布的圖像實(shí)現(xiàn)效果優(yōu)越,適合本文中的圖像。Otsu算法可自動(dòng)獲取圖像二值化所需要的閾值。其具體實(shí)現(xiàn)是以一個(gè)初始閾值t分割圖像,這樣就把原圖像分割成C1和C2兩部分,C1和C2分別為像素灰度值大于等于t和小于t的集合,之后分別求得這兩部分的類間方差σ2B和類內(nèi)方差σ2A,最終找出分割圖像的最佳閾值t,也就是滿足兩個(gè)方差比σ2B/σ2A最大的閾值。分別將C1類和C2類的像素點(diǎn)總數(shù)設(shè)為W1和W2,其像素點(diǎn)灰度均值為M1和M2,方差分別為σ21和σ22。則有:

  σ2B=W1W2(M1-M2)2(2)

  σ2A=W1σ21+W2σ22(3)

  將灰度值大于等于t的像素灰度值規(guī)定為255,小于t的像素灰度值規(guī)定為0。通過(guò)圖像二值化將24 bit的深度圖像轉(zhuǎn)化為8 bit深度圖像,以便后續(xù)對(duì)目標(biāo)圖像的提取。

  3.3基于Canny算子邊緣檢測(cè)的目標(biāo)提取

  目標(biāo)提取即把感興趣的部分從單幅圖像或序列圖像中提取出來(lái)。為了從背景中提取出目標(biāo)物體,采用Canny算子對(duì)二值化圖像進(jìn)行邊緣檢測(cè)。相比于其他邊緣檢測(cè)算子,依據(jù)圖像邊緣檢測(cè)最優(yōu)準(zhǔn)則設(shè)計(jì)的Canny邊緣檢測(cè)算法具有良好的邊緣檢測(cè)性能,且具備信噪比大和檢測(cè)精度高的優(yōu)點(diǎn),因此文中使用Canny算子進(jìn)行邊緣檢測(cè),效果如圖5所示。

005.jpg

  然后對(duì)提出的邊緣進(jìn)行內(nèi)輪廓填充,將輪廓內(nèi)的像素值填充為1,效果如圖6所示,圖中黑色的區(qū)域?yàn)楸尘?,白色區(qū)域即提取出的目標(biāo)物體。

006.jpg

  4體積測(cè)量

  利用統(tǒng)計(jì)匹配像素點(diǎn)及視場(chǎng)比值不變性的方法計(jì)算物體的體積, Kinect 2.0的視場(chǎng)圖如圖7所示。其中h是Kinect 2.0到物體表面的距離,N是圖像中目標(biāo)物體區(qū)域內(nèi)像素個(gè)數(shù)測(cè)量值,S是物體實(shí)際面積大??;M是Kinect 2.0整個(gè)視場(chǎng)范圍內(nèi)像素的個(gè)數(shù),S1是Kinect 2.0整個(gè)視場(chǎng)的面積;α和β分別是Kinect 2.0的水平視場(chǎng)和垂直視場(chǎng)。

 

007.jpg

  4.1面積計(jì)算

  由于Kinect 2.0采集的深度圖像中保存的是深度信息,要進(jìn)行體積測(cè)量還需得到面積相關(guān)的信息。當(dāng)Kinect 2.0與所測(cè)物體的距離固定時(shí),可以根據(jù)Kinect 2.0在該距離的視場(chǎng)范圍和該視場(chǎng)范圍內(nèi)像素個(gè)數(shù)的比例關(guān)系來(lái)求取面積。即圖像中目標(biāo)物體區(qū)域內(nèi)像素個(gè)數(shù)測(cè)量值N與實(shí)際物體的面積大小S的比值和在該距離下Kinect 2.0整個(gè)視場(chǎng)范圍內(nèi)像素的個(gè)數(shù)M與整個(gè)視場(chǎng)面積S1的比值是相等的,如式(4)所示:

  JT{`4]KDJ}}%)1GOF7DCNIR.png

  其中N是根據(jù)圖像統(tǒng)計(jì)出的目標(biāo)物體所在區(qū)域的像素個(gè)數(shù),即二值圖像中像素值等于1的像素個(gè)數(shù),S1可根據(jù)圖7中Kinect 2.0的視場(chǎng)范圍由幾何關(guān)系求出,如式(5)所示:

  [T`6A6MBXZ4`OENE9P2WIYN.png

  又由于視場(chǎng)S1中總的像素個(gè)數(shù)M=512×424,利用這個(gè)原理,對(duì)于搭建好的圖像采集系統(tǒng),由式(4),在S1、M、N已知的情況下即可以求出目標(biāo)物體區(qū)域的面積S:

  X`902FC`VL09@N}G7PEA$BX.png

  4.2高度計(jì)算

  統(tǒng)計(jì)目標(biāo)物體區(qū)域即圖6中的白色區(qū)域在整幅圖像中的具體位置,即白色區(qū)域的起始行m1和終止行m2以及起始列n1和終止列n2,然后求出白色區(qū)域的中間行m和中間列n,并將其配準(zhǔn)對(duì)應(yīng)到點(diǎn)云矩陣A1和A,即在A1和A中提取出白色區(qū)域?qū)?yīng)的距離信息。由于得到的Kinect 2.0攝像頭到背景表面和到目標(biāo)物體表面的兩個(gè)點(diǎn)云矩陣A1和A邊緣有噪聲,因此選取A1和A中20×20的中間區(qū)域的小矩陣,即行m-10至m+9和列n-10至n+9的區(qū)域分別求平均值得到h1和h。通過(guò)背景距離減去前景距離計(jì)算被測(cè)物的高度信息h2,計(jì)算公式為:

  h2=h1-h(7)

  4.3體積計(jì)算及實(shí)驗(yàn)測(cè)試

  由體積計(jì)算公式V=Sh2,即可計(jì)算出被測(cè)物的體積。

  分別對(duì)不同的物體和0.8~4 m不同的距離(Kinect 2.0到被測(cè)物的距離)進(jìn)行了實(shí)驗(yàn),盡管被測(cè)對(duì)象的體積很小,但誤差均有良好的可控性,結(jié)果顯示控制在3%以內(nèi),這充分說(shuō)明了該方案的潛力和可行性。具體測(cè)量結(jié)果及誤差分析如表2所示。

009.jpg

  5結(jié)論

  本文基于VS2013環(huán)境和Kinect SDK 2.0提出一套體積測(cè)量方案,實(shí)驗(yàn)證明本文提出的測(cè)量方案測(cè)量結(jié)果準(zhǔn)確可靠,3%以內(nèi)的體積測(cè)量誤差可滿足實(shí)時(shí)的需求。

 ?。?)本文應(yīng)用Kinect 2.0深度圖像的處理來(lái)求體積,充分利用了深度圖像較彩色圖像不易受光照強(qiáng)度和方向影響的優(yōu)勢(shì),增強(qiáng)了本文提出算法的魯棒性。

 ?。?)本文設(shè)計(jì)的體積測(cè)量方案成本低,經(jīng)濟(jì)實(shí)惠,不需要配套的硬件驅(qū)動(dòng),所需設(shè)備僅為一臺(tái)電腦和一臺(tái)Kinect 2.0,性價(jià)比高,操作簡(jiǎn)單便捷,并且可實(shí)現(xiàn)快速準(zhǔn)確實(shí)時(shí)的體積測(cè)量,經(jīng)濟(jì)價(jià)值可觀。

 ?。?)本文將Kinect 2.0的應(yīng)用由尺寸測(cè)量進(jìn)一步深入到體積測(cè)量領(lǐng)域,增強(qiáng)了Kinect 2.0的實(shí)用性,拓展了Kinect 2.0的應(yīng)用領(lǐng)域,對(duì)計(jì)算視覺技術(shù)在體積測(cè)量領(lǐng)域的應(yīng)用具有積極意義。

  參考文獻(xiàn)

  [1] 路達(dá), 滕奇志, 卿粼波,等. 基于激光測(cè)距的中小型貨物三維體積掃描[J]. 微型機(jī)與應(yīng)用, 2015,34(23):83-86.

 ?。?] 周峰. 基于三維激光掃描技術(shù)的倉(cāng)儲(chǔ)散糧堆體積測(cè)量系統(tǒng)研究[D].長(zhǎng)春:吉林大學(xué),2015.

 ?。?] 雷文. 基于激光掃描的物料堆三維測(cè)量系統(tǒng)研究[D].長(zhǎng)沙:湖南大學(xué),2014.

 ?。?] Yue Haosong, Chen Weihai, Wu Xingming, et al. Fast 3D modeling in complex environments using a single Kinect sensor[J]. Optics and Lasers in Engineering, 2014, 53(2): 104-111.

  [5] 韋羽棉. 基于 Kinect 深度圖像的三維重建研究[D].重慶:重慶大學(xué), 2014.

  [6] 陳理. Kinect 深度圖像增強(qiáng)算法研究[D]. 長(zhǎng)沙:湖南大學(xué), 2013.

 ?。?] BRADSKI G, KAEBLER A.Learning OpenCV[M].California:0’Reilly Media,Inc,2008.

 ?。?]  OTSU N. A threshold selection method from graylevel histogram [J]. IEEE Transactions on Systems, Man, and Cybernetics, 1979, 9(1): 62-66.

 ?。?]  CANNY J. A computational approach to edge detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986, 8(6):679-698.

  [10] Li Bai, Li Ya, Cao Hongxin, Fet al. Image enhancement via lateral inhibition: an analysis under illumination changes[J]. OptikInternational Journal for Light and Electron Optics, 2016, 127(12): 5078-5083.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
亚洲国产精品成人| 性视频1819p久久| 韩国一区电影| 国产精品一区三区| 国产精品国码视频| 欧美日韩国产影片| 欧美日本免费一区二区三区| 欧美国产一区二区| 欧美成人一区二区在线| 另类专区欧美制服同性| 麻豆成人小视频| 久久综合精品国产一区二区三区| 久久久国产一区二区| 久久精品国产亚洲一区二区| 久久国产精品一区二区| 久久精品一区二区三区四区| 久久精品在线观看| 久久裸体视频| 噜噜噜躁狠狠躁狠狠精品视频 | 99成人精品| 日韩系列在线| 亚洲一品av免费观看| 亚洲综合好骚| 欧美专区日韩专区| 亚洲国产欧美在线人成| 亚洲免费福利视频| 亚洲视频一区| 欧美一区二区三区啪啪| 欧美一区二区国产| 久久人人97超碰国产公开结果 | 一区二区日韩伦理片| 一道本一区二区| 一区二区三区成人精品| 亚洲欧美大片| 久久av二区| 亚洲精品日韩在线| 亚洲一区激情| 久久国产精品久久久久久| 美国十次成人| 欧美日韩国产在线观看| 国产精品人人爽人人做我的可爱| 国产亚洲综合在线| 亚洲激情在线播放| 中文精品视频| 久久精品免费播放| 一本色道88久久加勒比精品| 小黄鸭精品密入口导航| 久久天天躁狠狠躁夜夜av| 欧美理论电影在线观看| 国产精品入口福利| 国产午夜精品理论片a级大结局| 一区二区在线观看视频| 日韩一级不卡| 午夜精品福利在线观看| 亚洲日本在线观看| 亚洲欧美中文字幕| 免费看亚洲片| 国产精品美女www爽爽爽视频| 韩国精品一区二区三区| 亚洲精品综合在线| 欧美一区视频在线| 在线综合+亚洲+欧美中文字幕| 欧美在线视频免费播放| 欧美精品麻豆| 国产亚洲欧美另类一区二区三区| 亚洲国产欧美在线人成| 亚洲综合视频在线| 亚洲精品免费一二三区| 西西裸体人体做爰大胆久久久| 免费在线看一区| 国产精品每日更新在线播放网址| 在线日本高清免费不卡| 亚洲综合精品四区| 一本久久a久久免费精品不卡| 久久精品一区蜜桃臀影院| 欧美日韩一区成人| 在线日韩中文| 午夜精品福利电影| 国产精品99久久久久久久久 | 欧美成人一区二区在线 | 亚洲综合精品自拍| 日韩视频在线一区二区| 久久高清福利视频| 欧美午夜片欧美片在线观看| 亚洲国产精品视频一区| 欧美淫片网站| 午夜精品一区二区在线观看| 欧美福利视频网站| 狠久久av成人天堂| 亚洲尤物视频网| 在线亚洲成人| 欧美不卡激情三级在线观看| 国产视频精品网| 亚洲一级在线| 在线性视频日韩欧美| 欧美高清视频在线观看| 黄色国产精品| 午夜综合激情| 午夜精品久久久久久久99黑人| 欧美精品乱码久久久久久按摩| 尹人成人综合网| 欧美在线观看一区| 欧美在线你懂的| 国产精品人人爽人人做我的可爱 | 亚洲视频免费在线观看| 欧美va天堂在线| 国产在线不卡视频| 亚洲欧美日韩精品久久久久| 亚洲一区美女视频在线观看免费| 欧美日韩1区| 亚洲激情视频| 最新成人在线| 欧美电影电视剧在线观看| 1000部国产精品成人观看| 亚洲国产精品久久久久秋霞影院 | 国产精品激情| 亚洲一卡二卡三卡四卡五卡| 亚洲一区二区三区四区在线观看| 欧美精品国产一区| 91久久夜色精品国产网站| 亚洲日本中文字幕区| 欧美阿v一级看视频| 亚洲韩国精品一区| 亚洲精品一区二区三区婷婷月| 欧美第一黄色网| 亚洲精品欧美日韩| 亚洲视频成人| 国产精品vip| 亚洲综合激情| 久久久97精品| 在线观看视频一区| 日韩亚洲不卡在线| 欧美日韩中文字幕在线| 正在播放亚洲一区| 欧美一区二区三区免费观看视频 | 精品粉嫩aⅴ一区二区三区四区| 亚洲国产国产亚洲一二三| 欧美第一黄色网| 亚洲精选91| 亚洲欧美日本另类| 国产欧美一区二区在线观看| 欧美专区亚洲专区| 女人天堂亚洲aⅴ在线观看| 亚洲高清在线观看一区| 在线亚洲一区观看| 国产精品日韩欧美一区| 欧美一区免费| 欧美电影电视剧在线观看| 日韩视频三区| 欧美亚洲在线| 一区二区视频免费完整版观看| 亚洲乱码视频| 国产精品二区在线| 欧美中文在线视频| 欧美激情一区二区三区成人| 亚洲午夜av电影| 久久全国免费视频| 亚洲精品欧美一区二区三区| 亚洲欧美日韩网| 精品成人在线| 中日韩高清电影网| 国产午夜精品美女视频明星a级| 亚洲电影有码| 欧美视频免费在线| 欧美一区二区黄| 欧美高清在线精品一区| 亚洲一区二区在线看| 老牛嫩草一区二区三区日本| 日韩视频一区二区| 久久久精品国产99久久精品芒果| 亚洲欧洲另类| 欧美一区二区高清| 亚洲国产视频一区二区| 欧美亚洲三区| 亚洲激情偷拍| 欧美一区在线看| 91久久精品国产| 欧美一区二区三区在| 亚洲激情网站免费观看| 欧美一级大片在线观看| 亚洲激情成人| 久久精品91| 99爱精品视频| 另类激情亚洲| 亚洲午夜视频在线观看| 欧美成人激情视频免费观看| 亚洲一区二区三区在线播放| 欧美va亚洲va国产综合| 亚洲女同精品视频| 欧美人牲a欧美精品| 欧美一区网站| 欧美午夜a级限制福利片| 久久精品视频网| 国产精品无码专区在线观看| 日韩天堂在线观看| 一区二区三区自拍| 欧美一区高清| 一本高清dvd不卡在线观看| 美女诱惑一区| 亚洲欧美综合另类中字|