《電子技術(shù)應用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設計應用 > 基于生成對抗網(wǎng)絡的人臉熱紅外圖像生成
基于生成對抗網(wǎng)絡的人臉熱紅外圖像生成
王雅欣,史瀟瀟
(1.中國科學技術(shù)大學 軟件學院,安徽 合肥 230015; 2.中國科學技術(shù)大學 計算機科學與技術(shù)學院,安徽 合肥 230027)
摘要: 可見光圖像易受光照變化影響,而熱紅外圖像對成像的光照條件具有魯棒性,因此,熱紅外圖像可以彌補可見光圖像光照敏感性這一不足。然而,紅外熱像儀價格昂貴,采集熱紅外圖像的成本遠高于可見光圖像。針對此問題,提出了一種基于生成對抗網(wǎng)絡的熱紅外人臉圖像生成方法,采用條件生成對抗網(wǎng)絡結(jié)合L1損失從可見光圖像中生成紅外熱像。在USTC-NIVE數(shù)據(jù)庫上的實驗結(jié)果驗證了所提出的紅外熱像生成方法的有效性。同時,將生成的紅外熱像作為擴充樣本,有助于提高紅外表情識別的精度。
中圖分類號:TP18
文獻標識碼:A
DOI: 10.19358/j.issn.2096-5133.2018.08.010
中文引用格式:王雅欣,史瀟瀟.基于生成對抗網(wǎng)絡的人臉熱紅外圖像生成[J].信息技術(shù)與網(wǎng)絡安全,2018,37(8):40-44.
Facial thermal infrared image generated on GAN
Wang Yaxin,Shi Xiaoxiao
(1. School of Software, University of Science and Technology of China, Hefei 230015, China; 2.School of Computer Science and Technology, University of Science and Technology of China, Hefei 230027, China)
Abstract: Visible light images are sensitive to illumination change, while thermal infrared images are robust to light conditions. Therefore, thermal infrared images can make up for visible light images’ weakness. However,infrared thermal camera is very expensive, which makes thermal infrared images not as available as visible light images. Thus, in this paper, we propose a method for generating thermal infrared images from visible light images by combining conditional generative adversarial networks with L1 loss. The results on USTC-NVIE database prove the feasibility and effectivity of this method. At the same time, using the generated images as expansion of samples, the performance on recognition task is improved.
Key words : generative adversarial networks; image generation; expression recognition

0  引言

 

熱紅外圖像是紅外傳感器根據(jù)熱輻射采集的圖像,具有良好的目標探測能力。與可見光圖像相比,熱紅外圖像因不受光照影響具有更好的魯棒性,近年來在表情識別研究中開始受到關(guān)注[1-3]。然而,熱紅外數(shù)據(jù)的采集需要昂貴的設備,與可見光圖像相比獲取成本高昂。因而,本文提出基于生成對抗網(wǎng)絡從可見光人臉圖像生成熱紅外人臉圖像的方法。

傳統(tǒng)的生成模型對機器學習來說具有不同的限制。比如,對真實樣本進行最大似然估計的生成模型,嚴重依賴于所選取樣本的分布情況;采用近似法學習的生成模型難以求得最優(yōu)解,只能逼近目標函數(shù)的下界;馬爾科夫鏈方法雖然既可以用于生成模型的訓練又可用于新樣本的生成,但是計算復雜度較高。隨著深度學習的發(fā)展,神經(jīng)網(wǎng)絡模型在各個領(lǐng)域取得突破性進展[4-6]。GOODFELLOW I等人根據(jù)博弈論提出了生成對抗網(wǎng)絡(Generative Adversarial Networks,GAN)[7],創(chuàng)造性地結(jié)合了生成模型和判別模型進行數(shù)據(jù)生成。但GAN的生成方式太過自由,在圖片像素較多的情況下容易失控。針對這一問題,MIRZA M[8]在GAN的基礎上提出條件生成對抗網(wǎng)絡(Conditional Generative Adversarial Networks,cGAN)。而ISOLA P[9]受cGAN和文獻[10]啟發(fā),將GAN的目標函數(shù)與傳統(tǒng)損失函數(shù)相結(jié)合提出Pix2Pix方法,該方法在多種任務中有著出色的表現(xiàn)。

本文提出基于生成對抗網(wǎng)絡生成熱紅外人臉圖像的方法,與Pix2Pix[9]一樣在cGAN目標函數(shù)的基礎上加上傳統(tǒng)損失函數(shù)作為懲罰項,即任務目標,懲罰項為可見圖片與生成樣本間的相似程度。實驗在USTC-NVIE[11]庫上進行,在以可見光圖像為條件進行熱紅外圖像生成的基礎上,利用SVM模型進行表情識別,驗證生成的熱紅外圖片能否被模型識別以及作為擴充樣本是否可以提升模型的訓練效果。

 

1  方法介紹

 

1.1 網(wǎng)絡結(jié)構(gòu)

 

本文的網(wǎng)絡框架如圖1所示,由生成器(Generator,G)和判別器(Discriminator,D)組成。生成器使用隨機噪聲z在可見光圖片y的約束下生成樣本圖片G(z,y)傳遞給判別器。生成的樣本圖片與可見光圖片的L1距離被作為懲罰項反饋給生成模型,以此保證最終的生成圖片與可見光圖片的相似程度。判別器接收到的輸入既有生成的樣本圖片G(z,y)也有真實的熱紅外圖片,它的任務就是判斷接收到的圖片在該可見光圖片y約束的情況下有多大概率是真實的。本文生成器模型采用U-Net神經(jīng)網(wǎng)絡結(jié)構(gòu),如圖1中生成器G中框圖所示。判別器模型則采用神經(jīng)網(wǎng)絡,其結(jié)構(gòu)如圖1中判別器D框圖所示。

 

 

QQ截圖20180921155452.png



1.1.1 生成器

 

本文采用U-Net結(jié)構(gòu)作為生成器的網(wǎng)絡結(jié)構(gòu)。在ISOLA P提出U-Net結(jié)構(gòu)前,圖像到圖像的轉(zhuǎn)化任務中編碼解碼結(jié)構(gòu)的使用最為廣泛,其結(jié)構(gòu)如圖2所示。編碼解碼結(jié)構(gòu)在編碼時,使用卷積層和激活函數(shù)減少信息量。解碼時則執(zhí)行與編碼過程相反的操作。但在數(shù)據(jù)流傳遞的過程中,會出現(xiàn)輸出與輸入之間信息遺失的情況。因此ISOLA P提出了U-Net生成器結(jié)構(gòu)[9] ,其結(jié)構(gòu)如圖1中生成器結(jié)構(gòu)所示。U-Net的結(jié)構(gòu)和編碼解碼類似,但該結(jié)構(gòu)在編解碼過程的鏡像層間加了跳步連接(通過復制編碼層的特征圖譜傳遞給對應的解碼層實現(xiàn)),以此解決生成器輸出輸入之間信息傳遞的問題。

 

1.1.2 判別器

 

ISOLA P[9]為了追求細節(jié)的生成效果,采用馬爾科夫鏈模型作為判別器。然而熱紅外人臉圖像并不追求分毫畢現(xiàn)的效果,因此本文采用神經(jīng)網(wǎng)絡作為判別器結(jié)構(gòu),其結(jié)構(gòu)如圖1中的判別器所示。輸入經(jīng)過這個卷積神經(jīng)網(wǎng)絡輸出判定該輸入是真實圖像的概率。

 

1.2 目標函數(shù)

 

本文的目的是通過生成對抗網(wǎng)絡以可見光人臉圖像為素材生成熱紅外人臉圖像??紤]到同一張圖的可見光圖像與熱紅外圖像的五官分布一致,而且文獻[10]表明,將cGAN的目標函數(shù)和傳統(tǒng)的目標結(jié)合可以提高生成圖像的質(zhì)量,因此本文在生成時還考慮生成圖像與可見光圖像之間的相似程度,即有條件約束的生成對抗網(wǎng)絡,其目標函數(shù)為:

minGmaxDV(D,G)=V′(D,G)+λLL1                                  (1)

式(1)中V′(D,G)就是cGAN的目標函數(shù),即不考慮生成圖像與可見光圖像相似程度的目標函數(shù):

 

微信截圖_20180921160310.png

本文將可見光圖片y和生成器輸出G(z,y)之間的L1距離作為兩張圖片相似程度的懲罰項:

微信截圖_20180921160441.png

式(2)和式(3)中z是隨機噪聲,x是目標圖像,y是可見光圖像,G(z,y)指生成器的輸出,D(·)指判別器輸出的概率。判別器的目標是最大化式(1),即maxDV(D,G),而生成器的目標是最小化式(2)的第二項與λLL1之和,其中,λ是超參數(shù)。

 

1.3 訓練和優(yōu)化

 

為了訓練生成對抗網(wǎng)絡,需要反復迭代多次,每次迭代需要交換固定判別器和生成器中的一個模型參數(shù),更新另一個模型的參數(shù)。

判別器的訓練過程如下:

(1)從隨機噪聲z中采樣; 

(2)對訓練樣本進行采樣,采樣的可見光圖片作為條件y,對應的熱紅外圖片作為真實數(shù)據(jù)樣本x;

(3)更新判別器模型的參數(shù);

(4)所有樣本都采樣過一遍后,固定判別器模型參數(shù),開始新一輪的生成器參數(shù)更新。

生成器的訓練過程如下: 

(1)從隨機噪聲z中采樣;

(2)對訓練樣本的可見光圖片進行采樣作為條件變量y;

(3)計算y與輸出G(z, y)之間的L1距離;

(4)更新生成器模型的參數(shù);

(5)所有樣本都采樣過一遍后,固定生成器模型參數(shù),開始新一輪的判別器參數(shù)更新。

本文使用隨機梯度下降法進行參數(shù)優(yōu)化,進行足夠多次交替訓練的迭代之后,停止訓練。

 

2  實驗條件及結(jié)果分析

 

2.1 實驗條件

 

本文在USTC-NVIE[8]數(shù)據(jù)庫上進行實驗,該數(shù)據(jù)庫在左、中、右三種光源下,共收集了126名志愿者6種基本面部表情(高興、悲傷、驚喜、恐懼、憤怒和厭惡)的可見光和熱紅外圖像。

在進行實驗之前,需要對圖片進行預處理。使用haar級聯(lián)特征對可見光圖像進行人臉定位和截??;對熱紅外圖像則使用大津法(OSTU)和垂直投影曲線進行人臉定位和截取。最終,截取了1 051對有表情的可見光人臉圖像和熱紅外人臉圖像對以及980對無表情的可見光和熱紅外圖像對,并調(diào)整所有圖像的大小為256×256。本文將成對的可見光人臉圖像和熱紅外圖像稱為一個樣本。

 

2.1.1 對照實驗設置

 

本文設置了3組對照模型進行效果對比,加上本文提出的模型,共4組模型,都采用神經(jīng)網(wǎng)絡作為判別器,但生成器結(jié)構(gòu)和目標函數(shù)各不相同。為了方便表述,后文稱公式(2)為目標函數(shù)Ⅰ,稱公式(1)為目標函數(shù)Ⅱ;以編碼解碼為生成器結(jié)構(gòu)的生成框架為網(wǎng)絡結(jié)構(gòu)I,以U-Net為生成器結(jié)構(gòu)的生成框架為網(wǎng)絡結(jié)構(gòu)II。則本文的4組實驗模型分別是網(wǎng)絡結(jié)構(gòu)I目標函數(shù)I、網(wǎng)絡結(jié)構(gòu)I目標函數(shù)II、網(wǎng)絡結(jié)構(gòu)II目標函數(shù)I以及本文提出的方法網(wǎng)絡結(jié)構(gòu) II目標函數(shù)II。

本文使用的判別器神經(jīng)網(wǎng)絡如圖1中的判別器框架所示,所有卷積核大小都為4×4,除最后一層的步長為1,使用Sigmoid激活函數(shù)輸出概率,其他卷積層的步長都為2,都使用LeakyReLU作為激活函數(shù)并且都需要進行批量正則化(Batch Normalization, BN)。

對于兩種生成器網(wǎng)絡結(jié)構(gòu),除了跳步連接的差別外,所有卷積層的卷積核大小都為4×4,步長都為2,都使用ReLU函數(shù)作為激活函數(shù),并且都需要進行批量正則化。從輸入開始各編碼層的輸出通道數(shù)為32→64→128→256→512→512→512→512,編碼之后一直到輸出的各解碼層的輸出通道數(shù)為512→512→512→ 512→ 256→128→64→32→3。

設置的4組模型除進行生成實驗外還進行表情識別實驗。

 

2.1.2 生成實驗條件

 

生成實驗中,數(shù)據(jù)集被分為訓練集、驗證集和測試集。其中,訓練集有1 222個樣本,包含了全部的980對無表情圖片和242對有表情圖片。驗證集和測試集樣本則都是有表情的圖片,分別有384個樣本和425個樣本。

為了評估測試集的目標圖片和生成圖片的差異,本文使用高斯Parzen窗[12]作為衡量標準。

 

2.1.3 識別實驗條件

 

為了驗證生成圖像能否被模型識別,本文使用SVM作為識別模型,以生成實驗的訓練集和驗證集中的熱紅外圖像為訓練集,總共有1 606幅熱紅外圖像。訓練SVM模型分別識別測試集的生成圖像和原本熱紅外圖像(目標圖像)的表情標簽。

最后,為了驗證生成圖片作為擴充樣本的效果,仍使用SVM模型,除了生成實驗的訓練集和驗證集外,再加入213幅生成的圖像,總共1 819幅熱紅外圖像作為訓練集。剩下的212幅生成圖像的目標圖像作為測試集。

 

2.2 實驗結(jié)果和分析

 

2.2.1 生成實驗結(jié)果

 

 

圖3為一個樣本的可見圖像、生成的紅外圖像及其目標圖像的示例。對比4種模型的生成圖片與目標圖片可以發(fā)現(xiàn),本文提出的模型(網(wǎng)絡結(jié)構(gòu)II目標函數(shù)II)的生成圖片與目標圖片更相似。表1是生成圖片與目標圖片基于Parzen窗的對數(shù)似然估計,結(jié)果表明本文提出的方法的生成圖片(圖3(e))與目標圖片更相似。結(jié)合表1的結(jié)果以及圖3的成像效果考慮,生成效果還是比較令人滿意的。

 

微信截圖_20180922151724.png


2.2.2 識別實驗結(jié)果

 

表2是使用SVM模型識別生成圖片的實驗結(jié)果,實驗結(jié)果表明生成的圖片可以被識別模型識別,并且與目標圖片被識別的效果相似。本文提出的方法(網(wǎng)絡結(jié)構(gòu)II目標函數(shù)II)的準確率是所有生成圖片中最高的。

微信截圖_20180922150447.png 

表3分別是沒有進行樣本擴充與使用生成圖片作為擴充樣本訓練的模型對真實熱紅外圖像的識別結(jié)果。實驗結(jié)果表明生成的圖片作為擴充樣本對模型識別效果的提升起了積極的作用。與沒有擴充樣本的模型相比,四組擴充訓練集樣本的模型,識別準確率分別提升了1.28%、2.7%、1.97%以及3.24%。訓練集只進行了12.36%的擴充,提升效果令人滿意。由此可見使用生成對抗網(wǎng)絡生成圖片可以作為擴增樣本提升模型訓練效果。四組擴充識別實驗中,本文提出的方法(網(wǎng)絡結(jié)構(gòu)II目標函數(shù)II)生成的圖片作為擴增樣本訓練效果最好。

微信截圖_20180922150548.png

綜合生成實驗以及識別實驗可以發(fā)現(xiàn)本文提出的方法比其他模型的結(jié)果更好。如果分別觀察各組實驗的網(wǎng)絡結(jié)構(gòu)和目標函數(shù),可以發(fā)現(xiàn)不論是生成實驗還是識別實驗,目標函數(shù)相同的情況下,使用U-Net的(網(wǎng)絡結(jié)構(gòu)II)模型,實驗結(jié)果都比使用編碼解碼器(網(wǎng)絡結(jié)構(gòu)I)的結(jié)果要好。而網(wǎng)絡結(jié)構(gòu)相同的情況下,使用目標函數(shù)II的結(jié)果都比使用目標函數(shù)I的結(jié)果要好。綜上所述,本文所提方法表現(xiàn)出的優(yōu)越性是來自模型結(jié)構(gòu)以及目標函數(shù)的雙重作用。

 

3  結(jié)論

 

為了解決近年來備受研究關(guān)注的熱紅外圖像采集困難的問題,本文提出采用條件生成對抗網(wǎng)絡結(jié)合L1損失從可見光圖像中生成熱紅外圖像的方法。USTC-NVIE庫上的實驗結(jié)果表明,生成對抗網(wǎng)絡框架可用來從可見光圖像生成熱紅外圖像,并且生成的圖片作為擴充樣本可提升模型訓練的效果。

 

參考文獻

[1] BETTADAPURA V. Face expression recognition and analysis: the state of the art[J]. arXiv preprint arXiv:1203.6722. 2012.

[2] YOSHITOMI Y, KIM S I, Kawano T, et al. Effect of sensor fusion for recognition of emotional states using voice, face image and thermal image of face[C]//Proceedings in 9th IEEE International Workshop on Robot and Human Interactive Communication, 2000. IEEE, 2000: 178-183.

[3] JARLIER S, GRANDJEAN D, DELPLANQUE S, et al. Thermal analysis of facial muscles contractions[J]. IEEE Transactions on Affective Computing, 2011, 2 (1): 2-9.

[4] DAHL G E, YU D, DENG L, et al. Context-dependent pre-trained deep neural networks for large vocabulary speech recognition[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2012, 20 (1): 30-42.

[5] RUSSAKOVSKY O, DENG J, SU H, et al. Imagenet large scale visual recognition challenge[J].International Journal of Computer Vision, 2015, 115 (3): 211-252.

[6] HINTON G, DENG L, YU D, et al. Deep neural networks for acoustic modeling in speech recognition:the shared views of four research groups[J]. IEEE Signal Processing Magazine, 2012,29 (6): 82-97.

[7] GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]//Advances in Neural Information Processing Systems, 2014: 2672-2680.

[8] MIRZA M,OSINDERO S. Conditional generative adversarial nets[J]. arXiv preprint arXiv:1411.1784. 2014.

[9] ISOLA P, ZHU J Y, ZHOU T, et al. Image-to-image translation with conditional adversarial networks[J].arXiv preprint arXiv:1611.07004. 2016. 

[10] PATHAK D,KRAHENBUHL P, DONAHUE J, et al. Context encoders: feature learning by in painting[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 2536-2544. 

[11] WANG S, LIU Z,LV S, et al. A natural visible and infrared facial expression database for expression recognition and emotion inference[J]. IEEE Transactions on Multimedia, 2010, 12(7): 682-691. 

[12] BREULEUX O, BENGIO Y, VINCENT P. Quickly generating representative samples from an rbm derived process[J]. Neural Computation, 2011, 23 (8): 2058-2073.

 

 

(收稿日期:2018-04-14)

 

 

作者簡介:

王雅欣(1991-),女,碩士研究生,主要研究方向:情感計算。

史瀟瀟(1991-),女,碩士,主要研究方向:情感計算。

 

 

 

 

 

 



此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
欧美视频中文字幕在线| 国产精品午夜在线| 一本色道久久综合亚洲精品小说| 亚洲欧美日韩天堂| 日韩一级大片| 亚洲国产精品一区二区久| 国产一区二区三区在线观看免费 | 欧美大片在线看| 久久久午夜视频| 欧美一区二区在线观看| 亚洲欧美日韩国产综合在线| 亚洲一区在线免费观看| 一区二区三区四区五区视频 | 欧美在线观看视频在线| 午夜视频一区| 国产精品久久国产精麻豆99网站| 欧美超级免费视 在线| 久久综合中文| 免费欧美日韩国产三级电影| 美女露胸一区二区三区| 欧美成人免费全部| 欧美女主播在线| 欧美日韩亚洲一区三区| 国产精品进线69影院| 国产精品伦理| 国产精品伦理| 国产亚洲在线| 一区二区在线看| 亚洲精品1区| 日韩视频一区二区三区在线播放| aa成人免费视频| 中文一区二区| 午夜视频一区二区| 亚洲第一色中文字幕| 亚洲经典自拍| 一本色道久久综合亚洲91 | 中国女人久久久| 亚洲永久免费av| 欧美一区二区三区免费看| 久久久www| 欧美精品18| 国产精品久久久久久久久久免费看 | 日韩亚洲精品视频| 亚洲一区二区三区精品视频| 欧美一区中文字幕| 免费成人激情视频| 亚洲午夜视频在线观看| 亚洲视频在线视频| 欧美一区二区三区在线观看视频 | 亚洲激情电影在线| 亚洲黄页一区| 国产精品99久久久久久久久久久久| 亚洲一区二区三区免费在线观看| 欧美一级视频精品观看| 久久三级视频| 欧美日韩国产在线看| 国产伦精品一区二区三区照片91 | 久久久久国产精品厨房| 欧美女主播在线| 国产目拍亚洲精品99久久精品| 在线观看视频一区二区欧美日韩| 一区二区三区精密机械公司| 亚洲欧美国产日韩中文字幕| 亚洲人体偷拍| 亚洲欧美日本国产有色| 久久亚洲不卡| 国产精品国产三级国产普通话三级| 国产一区亚洲一区| 日韩一级不卡| 久久精品一级爱片| 亚洲一区免费网站| 免费日韩av电影| 国产麻豆91精品| 亚洲人成人一区二区在线观看 | 性欧美暴力猛交69hd| 欧美激情在线免费观看| 国产一区久久| 中文av一区特黄| 91久久国产综合久久| 午夜精品久久久久久久99黑人| 老巨人导航500精品| 国产精品人人做人人爽 | 一本一本久久a久久精品综合麻豆| 亚洲福利视频在线| 欧美一区二区高清| 欧美日韩国产综合视频在线| 一区二区三区在线不卡| 亚洲综合999| 一区二区三欧美| 免费视频最近日韩| 国产午夜精品久久久| 一区二区三区日韩欧美精品| 亚洲经典在线| 久久夜色精品国产亚洲aⅴ | 亚洲国产精品久久人人爱蜜臀 | 亚洲综合精品| 欧美日韩国产综合久久| 在线播放日韩| 欧美在线播放| 欧美一区二区在线免费观看 | 国产精品人人做人人爽人人添| 亚洲欧洲视频| 最新成人av网站| 久久久一区二区三区| 国产精品日韩在线观看| 9l视频自拍蝌蚪9l视频成人| 亚洲另类视频| 欧美激情在线狂野欧美精品| 亚洲大片精品永久免费| 久久精品国产一区二区电影| 欧美制服第一页| 国产欧美一区二区视频| 中国成人在线视频| 亚洲图片激情小说| 欧美日韩中国免费专区在线看| 最新精品在线| 日韩手机在线导航| 欧美极品在线播放| 亚洲精品一区二区在线观看| 日韩午夜电影| 欧美剧在线观看| 亚洲日本va午夜在线电影| 99精品国产在热久久| 欧美激情精品久久久久久| 91久久精品一区二区别| 亚洲精品欧美极品| 欧美精品久久久久久久免费观看 | 国产精品卡一卡二卡三| 亚洲一区二区三区精品在线观看 | 一区二区三区精品国产| 欧美日韩视频在线| 一区二区电影免费观看| 一区二区三区精品视频在线观看| 欧美日韩国内| 在线综合欧美| 午夜精品视频在线观看| 国产农村妇女精品一区二区| 香蕉乱码成人久久天堂爱免费| 久久精品国产久精国产爱| 国内精品视频在线播放| 亚洲欧洲日本mm| 欧美日韩免费视频| 宅男噜噜噜66一区二区66| 午夜亚洲福利在线老司机| 国产欧美日韩亚洲| 亚洲高清资源| 欧美成人午夜| 在线视频亚洲欧美| 久久www免费人成看片高清| 国内成人精品视频| 亚洲人成小说网站色在线| 欧美日韩成人综合在线一区二区| 亚洲图片你懂的| 久久久之久亚州精品露出| 亚洲欧洲精品一区二区三区波多野1战4 | 久久婷婷久久一区二区三区| 在线欧美小视频| 一本一道久久综合狠狠老精东影业| 国产精品jizz在线观看美国| 西西人体一区二区| 欧美国产另类| 亚洲一区国产一区| 久久一日本道色综合久久| 亚洲精品欧美日韩专区| 亚洲欧美成人综合| 激情亚洲一区二区三区四区| 日韩一级在线观看| 国产精品日韩欧美大师| 亚洲国产导航| 国产精品mv在线观看| 亚洲福利av| 国产精品盗摄久久久| 亚洲成色777777女色窝| 欧美日韩伦理在线| 欧美亚洲综合在线| 欧美日韩大片| 欧美一区二区黄| 欧美另类综合| 午夜天堂精品久久久久| 欧美理论大片| 久久av一区二区| 欧美日韩一级黄| 亚洲高清资源| 欧美精品久久久久久久| 亚洲另类在线一区| 久久成人羞羞网站| 一区二区三区欧美在线| 国产嫩草影院久久久久 | 久久亚洲色图| 在线亚洲一区| 免费的成人av| 亚洲欧洲av一区二区| 欧美精品在线一区二区| 欧美一区二区私人影院日本 | 狠狠色丁香婷综合久久| 中日韩在线视频| 激情婷婷亚洲| 欧美在线关看| 99国内精品久久| 狂野欧美激情性xxxx|