《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)設(shè)計(jì)及硬件實(shí)現(xiàn)
深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)設(shè)計(jì)及硬件實(shí)現(xiàn)
2018年電子技術(shù)應(yīng)用第5期
王 昆,周 驊
貴州大學(xué) 大數(shù)據(jù)與信息工程學(xué)院,貴州 貴陽(yáng)550025
摘要: 針對(duì)目前深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)(CNN)在CPU平臺(tái)下訓(xùn)練速度慢、耗時(shí)長(zhǎng)的問題,采用現(xiàn)場(chǎng)可編程門陣列(FPGA)硬件平臺(tái)設(shè)計(jì)并實(shí)現(xiàn)了一種深度卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)。該系統(tǒng)采用修正線性單元(ReLU)作為特征輸出的激活函數(shù)并使用Softmax函數(shù)作為輸出分類器。利用流水線技術(shù)并針對(duì)每一層的特征運(yùn)算進(jìn)行了并行處理,從而能夠在1個(gè)系統(tǒng)時(shí)鐘周期內(nèi)完成整個(gè)CNN中的295次卷積運(yùn)算。系統(tǒng)最后采用MNIST數(shù)據(jù)集作為實(shí)驗(yàn)樣本,實(shí)驗(yàn)結(jié)果表明,在50 MHz的工作頻率下,F(xiàn)PGA的訓(xùn)練用時(shí)相較于通用CPU的訓(xùn)練用時(shí)提升了8.7倍,經(jīng)過2 000次迭代后系統(tǒng)識(shí)別的準(zhǔn)確率為92.42%。
中圖分類號(hào): TP391
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.174161
中文引用格式: 王昆,周驊. 深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)設(shè)計(jì)及硬件實(shí)現(xiàn)[J].電子技術(shù)應(yīng)用,2018,44(5):56-59.
英文引用格式: Wang Kun,Zhou Hua. System design and hardware realization of convolution neural network system in deep learning[J]. Application of Electronic Technique,2018,44(5):56-59.
System design and hardware realization of convolution neural network system in deep learning
Wang Kun,Zhou Hua
College of Big Data and Information Engineering,Guizhou University,Guiyang 550025,China
Abstract: In this paper, a deep convolution neural network system is designed and implemented by FPGA hardware platform for the problem that the convolution neural network(CNN) in deep learning is slow and time consuming under the CPU platform. The system uses the rectified linear unit(ReLU) as the characteristic output activation function and uses the Softmax function as the output classifier. Assembly line and the parallelism are used for the feature operation of each layer, so that 295 convolution operations in the entire CNN can be completed in one system clock cycle. The system finally uses the MNIST data set as the experimental, and experimental results show that the training time of FPGA work on 50 MHz is 8.7 times higher than that of general-purpose CPU, and the accuracy rate of system identification after 2 000 iterations is 92.42%.
Key words : deep learning;CNN;FPGA;parallel processing

0 引言

    隨著深度學(xué)習(xí)的廣泛應(yīng)用與發(fā)展[1-2]卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)被使用的場(chǎng)景越來越多,特別是在圖像識(shí)別場(chǎng)景中獲得了突破性的發(fā)展。CNN擁有多層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其自身?yè)碛休^強(qiáng)的容錯(cuò)、學(xué)習(xí)和并行處理能力[3],是一種擁有多層感知器,局部連接和權(quán)值共享的網(wǎng)絡(luò)結(jié)構(gòu)[4],從而降低了網(wǎng)絡(luò)模型的復(fù)雜性和網(wǎng)絡(luò)連接權(quán)值的個(gè)數(shù),因此近幾年來CNN在視頻分析[5-6]、人臉識(shí)別[7-8]等領(lǐng)域得到了廣泛的應(yīng)用。

    雖然CNN的應(yīng)用廣泛,但其模型參數(shù)的訓(xùn)練往往需要大量的用時(shí),特別是當(dāng)數(shù)據(jù)量很大的時(shí)候。在現(xiàn)階段實(shí)現(xiàn)深度卷積神經(jīng)網(wǎng)絡(luò)主要是使用消費(fèi)級(jí)的通用處理器CPU來實(shí)現(xiàn)的[9],但是在CNN的模型結(jié)構(gòu)中,其每一層內(nèi)的卷積運(yùn)算都只與當(dāng)前層的特征運(yùn)算核相關(guān),與其他層是獨(dú)立且不相關(guān)的,所以CNN是一種典型的并行運(yùn)算結(jié)構(gòu)。而現(xiàn)場(chǎng)可編程門陣列(Field-Programmable Gate Array,FPGA)作為一種高度密集型計(jì)算加速器件,可通過硬件描述語(yǔ)言完成算法實(shí)現(xiàn),從而利用FPGA的硬件結(jié)構(gòu)特性實(shí)現(xiàn)并行運(yùn)算的加速。

    本文首先對(duì)深度學(xué)習(xí)中的CNN進(jìn)行了介紹,然后設(shè)計(jì)一種基于FPGA的CNN系統(tǒng),通過流水線和并行處理減少了訓(xùn)練參數(shù)所需用時(shí),提升了系統(tǒng)的計(jì)算性能。為了驗(yàn)證設(shè)計(jì)的功能性,最后采用MINST數(shù)據(jù)集作為系統(tǒng)驗(yàn)證。

1 CNN

1.1 CNN模型

    CNN是基于神經(jīng)認(rèn)知機(jī)模型(Neocognitron Model)的一種深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),是當(dāng)前應(yīng)用最為廣泛的模型結(jié)構(gòu)。CNN在確定模型參數(shù)時(shí)首先利用前向傳播來獲取和輸出目標(biāo)的誤差,然后再通過高效的反向傳播訓(xùn)練算法來實(shí)現(xiàn)參數(shù)的確定。一般經(jīng)典的CNN模型是由輸入層、卷積層、池化層、全連接層和分類層組合而構(gòu)成的,在CNN中卷積層和不同的卷積核進(jìn)行局部連接,從而產(chǎn)生輸入數(shù)據(jù)的多個(gè)特征輸出,將輸出經(jīng)過池化層降維后通過全連接層和分類層獲取與輸出目標(biāo)的誤差,再利用反向傳播算法反復(fù)地更新CNN中相鄰層神經(jīng)元之間的連接權(quán)值,縮小與輸出目標(biāo)的誤差,最終完成整個(gè)模型參數(shù)的訓(xùn)練。圖1是一種典型的CNN網(wǎng)絡(luò)結(jié)構(gòu),數(shù)據(jù)使用不同權(quán)重的卷積核Kernel經(jīng)過卷積運(yùn)算,將運(yùn)算的結(jié)果經(jīng)過激活函數(shù)ReLU后加上偏置Bias得到多個(gè)特征輸出,然后經(jīng)過池化進(jìn)行層降維處理后再與全連接層進(jìn)行全連接,最后經(jīng)過分類器Softmax函數(shù)進(jìn)行輸出分類。

qrs4-t1.gif

    得到分類結(jié)果后,經(jīng)過與輸出目標(biāo)進(jìn)行比較得出誤差,最后使用反向傳播算法得出每一層的殘差,利用殘差計(jì)算出新的權(quán)值并更新原有的權(quán)值。以上整個(gè)過程可由式(1)和式(2)表示:

qrs4-gs1-2.gif

1.2 本文CNN模型

    本文所設(shè)計(jì)的CNN網(wǎng)絡(luò)模型結(jié)構(gòu)如圖2所示,該結(jié)構(gòu)有1個(gè)輸入層、4個(gè)卷積層、2個(gè)池化層、1個(gè)全連接層、1個(gè)采用Softmax函數(shù)的分類層和1個(gè)輸出層,共8層。

qrs4-t2.gif

    第1層和第8層為輸入層和輸出層。輸入層完成測(cè)試圖像數(shù)據(jù)的輸入獲取,因?yàn)椴捎肕NIST數(shù)據(jù)集,所以輸入數(shù)據(jù)為784個(gè)。輸出層與前一層連接的權(quán)重個(gè)數(shù)為20×10=200,輸出結(jié)果為10種。

    第2、3、5、7層均為為卷積層。輸出特征圖的個(gè)數(shù)分別為5、5、10、20,每層卷積核大小分別為5×5,5×5,5×5,3×3,卷積核移動(dòng)步長(zhǎng)均為1,系統(tǒng)設(shè)計(jì)采用ReLU作為激活函數(shù),每一層的參數(shù)為:

    第2層:權(quán)重為5×5×5=125個(gè),偏置為5個(gè);

    第3層:權(quán)重為5×5×5×5=625個(gè),偏置為5個(gè);

    第5層:權(quán)重為5×5×5×10=1 250個(gè),偏置為10個(gè);

    第7層:權(quán)重為3×3×10×20=1 800個(gè),偏置為20個(gè);因此整個(gè)卷積層總共有3 840個(gè)參數(shù)。

    第4、6層為池化層。在池化層也采用卷積運(yùn)算,卷積核大小為2×2,使用平均池化方法。

2 CNN系統(tǒng)硬件設(shè)計(jì)

    整個(gè)系統(tǒng)硬件根據(jù)CNN網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行設(shè)計(jì),利用FPGA硬件電路并行特性將每一層設(shè)計(jì)為單獨(dú)的一個(gè)模塊,最后的分類層利用本文所設(shè)計(jì)的Softmax分類器來完成輸入數(shù)據(jù)的分類結(jié)果,再經(jīng)過反向傳播算法計(jì)算出所需要更新的權(quán)值。整體系統(tǒng)設(shè)計(jì)結(jié)構(gòu)如圖3所示。

qrs4-t3.gif

    系統(tǒng)首先由控制器初始化每一層卷積核Kernel的權(quán)重?cái)?shù)值索引地址,根據(jù)索引地址從RAM模塊當(dāng)中加載權(quán)重?cái)?shù)值和偏置值。在前向傳播時(shí)將輸入數(shù)據(jù)通過輸入信號(hào)進(jìn)入數(shù)據(jù)緩沖區(qū),然后根據(jù)每層的輸出特征圖的個(gè)數(shù)與卷積核完成卷積運(yùn)算,將運(yùn)算的結(jié)果經(jīng)過激活函數(shù)ReLU和偏置完成當(dāng)前層的最終輸出特征圖并輸入下一層當(dāng)中。當(dāng)經(jīng)過池化層時(shí)進(jìn)行下采樣運(yùn)算,從而降低特征圖的維數(shù)。最后Softmax分類器根據(jù)輸入的數(shù)據(jù)通過查找ROM中與之對(duì)應(yīng)的數(shù)值在經(jīng)過概率轉(zhuǎn)換后完成最終的輸出結(jié)果。在反向傳播時(shí),根據(jù)ROM當(dāng)中的標(biāo)簽與輸出結(jié)果進(jìn)行比較得出每一層的殘差保存至RAM當(dāng)中,計(jì)算完成后根據(jù)所設(shè)定的學(xué)習(xí)率來完成所有卷積層中卷積核的權(quán)值和偏置值的更新,并將更新后的權(quán)值由控制器保存到相應(yīng)的存儲(chǔ)位置,直至所有訓(xùn)練數(shù)據(jù)輸入完成。

2.1 卷積層硬件設(shè)計(jì)

    在圖3的卷積層中,首先將輸入數(shù)據(jù)進(jìn)行緩存處理。因?yàn)橐M(jìn)行卷積運(yùn)算,所以必須將輸入的數(shù)據(jù)根據(jù)每個(gè)卷積層的卷積核Kernel的大小來進(jìn)行與之相對(duì)應(yīng)的大小調(diào)整。在系統(tǒng)設(shè)計(jì)中通過使用移位寄存器(Shift Register)來實(shí)現(xiàn)對(duì)數(shù)據(jù)的處理,移位寄存器能夠?qū)?shù)據(jù)在進(jìn)行緩存的同時(shí)進(jìn)行移位處理,該器件能夠根據(jù)所設(shè)定的深度來對(duì)數(shù)據(jù)進(jìn)行轉(zhuǎn)換處理,當(dāng)需要數(shù)據(jù)進(jìn)行輸出的時(shí)候只需增加抽頭輸出信號(hào)即可將數(shù)據(jù)進(jìn)行輸出,利用移位寄存器就能夠在1個(gè)時(shí)鐘周期完成1次卷積運(yùn)算。在計(jì)算出當(dāng)前輸入數(shù)據(jù)的特征輸出圖后還需經(jīng)過激活函數(shù),系統(tǒng)設(shè)計(jì)使用硬件容易實(shí)現(xiàn)的ReLU函數(shù)作為激活函數(shù),該函數(shù)在輸入值大于0時(shí)輸出原輸入值,小于零時(shí)輸出0,因此使用比較器即可實(shí)現(xiàn)。其卷積運(yùn)算具體實(shí)現(xiàn)過程如圖4所示。

qrs4-t4.gif

    圖4是卷積核大小為3×3時(shí)的運(yùn)算過程,Shift_in是數(shù)據(jù)輸入,wi為該卷積核權(quán)重值,mi為輸出數(shù)據(jù)緩存寄存器。

2.2 卷積層計(jì)算硬件優(yōu)化

    由于FPGA硬件電路的并行特性,其當(dāng)中每個(gè)模塊的計(jì)算是相互獨(dú)立互不相關(guān)的,并且CNN網(wǎng)絡(luò)結(jié)構(gòu)中每層的計(jì)算也是相互獨(dú)立的,充分體現(xiàn)了整個(gè)結(jié)構(gòu)的并行性,特別是卷積運(yùn)算。因此系統(tǒng)設(shè)計(jì)中采用了并行設(shè)計(jì)的方法,設(shè)計(jì)根據(jù)卷積層上一層的輸出特征圖的個(gè)數(shù)和當(dāng)前卷積層需要輸出特征圖的個(gè)數(shù)分別為每個(gè)特征圖設(shè)計(jì)了相應(yīng)的卷積核組,利用流水線技術(shù)和并行運(yùn)算同時(shí)對(duì)每個(gè)卷積核組完成與之對(duì)應(yīng)的特征抽取,因?yàn)橄到y(tǒng)設(shè)計(jì)中對(duì)池化層的下采樣也采用了卷積運(yùn)算來完成,所以對(duì)于本系統(tǒng)則能夠在1個(gè)時(shí)鐘周期內(nèi)完成295次卷積運(yùn)算,相較于通用CPU運(yùn)算,本系統(tǒng)設(shè)計(jì)運(yùn)算效率得到了顯著提升。系統(tǒng)卷積運(yùn)算優(yōu)化設(shè)計(jì)具體結(jié)構(gòu)如圖5所示。

qrs4-t5.gif

    圖5中xi為特征圖輸入,wij分別是每個(gè)卷積核組內(nèi)不同卷積核的權(quán)值,ki為不同的卷積核組,ci為計(jì)算結(jié)果輸出。

2.3 Softmax分類器

    在經(jīng)過多層的卷積層和池化層的運(yùn)算后最終得到當(dāng)前輸入數(shù)據(jù)的特征值,將特征值與最后的輸出層進(jìn)行全連接得出最終的分類結(jié)果。系統(tǒng)設(shè)計(jì)中的分類器使用Softmax函數(shù)來完成最后結(jié)果的輸出,但Softmax函數(shù)是將所有輸入數(shù)據(jù)通過e指數(shù)運(yùn)算進(jìn)而得出輸出概率分布,且概率分布的數(shù)值范圍是0~1之間的浮點(diǎn)數(shù),而FPGA并不適合進(jìn)行浮點(diǎn)數(shù)運(yùn)算,并且完成e指數(shù)運(yùn)算所消耗時(shí)間較長(zhǎng)。因此系統(tǒng)設(shè)計(jì)中采用查表法來完成e指數(shù)運(yùn)算,通過事先將計(jì)算后的指數(shù)運(yùn)算結(jié)果存儲(chǔ)至ROM當(dāng)中,然后根據(jù)輸入的特征值作為地址來查找所對(duì)應(yīng)的指數(shù)結(jié)果。經(jīng)過軟件平臺(tái)測(cè)試,特征值經(jīng)過放大后的取值范圍是-70~80,范圍較大,為了減少ROM的存儲(chǔ)消耗,系統(tǒng)設(shè)計(jì)中將處理后的特征值計(jì)算的數(shù)值結(jié)果縮小至-30~40之間并進(jìn)行取整處理,雖然該做法在一定程度上增強(qiáng)或減弱了對(duì)應(yīng)特征值的比重,但降低了查表所需存儲(chǔ)數(shù)值ROM的存儲(chǔ)空間,減少了資源的消耗。Softmax分類器的設(shè)計(jì)電路結(jié)構(gòu)圖如圖6所示。

qrs4-t6.gif

    設(shè)計(jì)中首先將特征值輸入經(jīng)過查表得出對(duì)應(yīng)指數(shù)運(yùn)算的結(jié)果,同時(shí)將結(jié)果進(jìn)行累加運(yùn)算,最后相除從而計(jì)算出分類的結(jié)果。

3 系統(tǒng)仿真與分析

    系統(tǒng)設(shè)計(jì)中的硬件使用Altera公司的Cyclone IV EP4CE115芯片作為試驗(yàn)平臺(tái),該芯片內(nèi)部擁有114 480個(gè)邏輯單元,6.3 MB的嵌入式存儲(chǔ)器,266個(gè)嵌入式18×18乘法器,片內(nèi)資源豐富,能夠滿足CNN系統(tǒng)硬件設(shè)計(jì)中所需要的資源,CPU測(cè)試平臺(tái)使用Core i7四核處理器,主頻為3.4 GHz。

    仿真過程中,整個(gè)CNN的學(xué)習(xí)率設(shè)置為0.04,每次輸入批次為30張,迭代次數(shù)為2 000次,實(shí)驗(yàn)樣本訓(xùn)練數(shù)據(jù)為MNIST數(shù)據(jù)集28×28像素的灰度圖片60 000張,圖像數(shù)值范圍為0~255,測(cè)試數(shù)據(jù)為10 000張,使用均方誤差函數(shù)作為損失函數(shù)來評(píng)價(jià)CNN整體系統(tǒng)的性能,最終實(shí)驗(yàn)運(yùn)行結(jié)果如圖7所示。

qrs4-t7.gif

    可以看出在硬件平臺(tái)運(yùn)行和軟件平臺(tái)運(yùn)行均能夠?qū)崿F(xiàn)對(duì)結(jié)果的正確分類,在訓(xùn)練的最開始由于權(quán)重值是隨機(jī)初始化的,因此誤差較大,隨著不斷地迭代更新權(quán)值,誤差逐漸降低,最后其對(duì)圖像識(shí)別準(zhǔn)確率分別為92.42%和96.21%,識(shí)別的準(zhǔn)確率基本一致。硬件平臺(tái)的準(zhǔn)確度不如軟件平臺(tái)高,是由于在分類器中對(duì)Softmax函數(shù)的輸入取值做了一定的限定,并在整個(gè)訓(xùn)練過程中進(jìn)行了數(shù)據(jù)的放大處理和取整,損失了一定的精度。硬件平臺(tái)的訓(xùn)練時(shí)間和軟件平臺(tái)訓(xùn)練所需的時(shí)間消耗如表1所示。

qrs4-b1.gif

    硬件平臺(tái)整個(gè)訓(xùn)練所用時(shí)間相較于軟件平臺(tái)運(yùn)算的時(shí)間提升了8.7倍,系統(tǒng)設(shè)計(jì)主要的硬件資源消耗如表2所示。

qrs4-b2.gif

    系統(tǒng)設(shè)計(jì)因?yàn)橹惺褂昧舜罅康囊莆患拇嫫骱途彺婕拇嫫鱽泶鎯?chǔ)特征值的輸入值,使得寄存器的使用較多,但可以看出實(shí)驗(yàn)所用使用的FPGA能夠滿足本文所設(shè)計(jì)的CNN網(wǎng)絡(luò)結(jié)構(gòu)。

4 結(jié)論

    本文設(shè)計(jì)了一種深度學(xué)習(xí)中的CNN硬件系統(tǒng),通過FPGA實(shí)現(xiàn)了整個(gè)CNN網(wǎng)絡(luò)結(jié)構(gòu),充分利用了FPGA的硬件電路并行特性和流水線技術(shù),對(duì)整個(gè)卷積層進(jìn)行了并行運(yùn)算優(yōu)化,使得整個(gè)系統(tǒng)能夠在1個(gè)時(shí)鐘周期內(nèi)同時(shí)處理所有卷積層中295次卷積運(yùn)算,從而使得整個(gè)網(wǎng)絡(luò)訓(xùn)練用時(shí)相較于通用CPU平臺(tái)提升了8.7倍,減少了網(wǎng)絡(luò)訓(xùn)練的所需用時(shí),并且設(shè)計(jì)了一種通過查表法實(shí)現(xiàn)的Softmax分類器來完成對(duì)輸出結(jié)果的分類。實(shí)驗(yàn)結(jié)果表明,該系統(tǒng)設(shè)計(jì)能夠?qū)NIST測(cè)試數(shù)據(jù)集完成識(shí)別分類且識(shí)別準(zhǔn)確率經(jīng)過2 000次迭代后為92.42%,結(jié)果基本與相同訓(xùn)練次數(shù)下的CPU平臺(tái)一致。

參考文獻(xiàn)

[1] LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015,521(7553):436-444.

[2] SZEGEDY C,Liu Wei,Jia Yangqing,et al.Going deeper with convolutions[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2015:1-9.

[3] 余子健,馬德,嚴(yán)曉浪,等.基于FPGA的卷積神經(jīng)網(wǎng)絡(luò)加速器[J].計(jì)算機(jī)工程,2017,43(1):109-114,119.

[4] 方睿,劉加賀,薛志輝,等.卷積神經(jīng)網(wǎng)絡(luò)的FPGA并行加速方案設(shè)計(jì)[J].計(jì)算機(jī)工程與應(yīng)用,2015,51(8):32-36.

[5] Zhu Yuke,MOTTAGHI R,KOLVE E,et al.Target-driven visual navigation in indoor scenes using deep reinforcement learning[C].IEEE International Conference on Robotics & Automation,ICRA,2017:3357-3367.

[6] ALAHI A,WILSON J,Li Feifei,et al.Unsupervised camera localization in crowded spaces[C].IEEE International Conference on Robotics & Automation,ICRA,2017:2666-2673.

[7] 蔣雨欣,李松斌,劉鵬,等.基于多特征深度學(xué)習(xí)的人臉性別識(shí)別[J].計(jì)算機(jī)工程與應(yīng)用,2016,1(43):226-231.

[8] 李倩玉,蔣建國(guó),齊美彬.基于改進(jìn)深層網(wǎng)絡(luò)的人臉識(shí)別算法[J].電子學(xué)報(bào),2017(3):619-625.

[9] SZEGEDY C,VANHOUCKE V,IOFFE S,et al.Rethinking the inception architecture for computer vision[J].Computer Science,2015:2818-2826.



作者信息:

王  昆,周  驊

(貴州大學(xué) 大數(shù)據(jù)與信息工程學(xué)院,貴州 貴陽(yáng)550025)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
伊人久久婷婷| 欧美亚洲在线播放| 一区二区欧美国产| 最新高清无码专区| 亚洲电影中文字幕| 国产综合精品一区| 国产婷婷色一区二区三区在线| 欧美日韩一区二区在线观看视频| 久久综合网络一区二区| 久久精品国产亚洲aⅴ| 亚洲欧美一区二区视频| 亚洲一区二区少妇| 亚洲一区二区久久| 亚洲图片欧美午夜| 在线综合欧美| 中文网丁香综合网| 这里只有精品视频| 亚洲四色影视在线观看| 亚洲一区久久| 性高湖久久久久久久久| 亚洲欧美激情在线视频| 欧美亚洲在线| 久久久久久婷| 久久婷婷久久一区二区三区| 久久亚洲不卡| 免费国产一区二区| 欧美激情综合五月色丁香| 欧美日韩成人在线视频| 欧美日韩精品一区视频| 欧美午夜剧场| 国产精品视频xxx| 国产日韩精品在线观看| 国产亚洲午夜高清国产拍精品| 国产综合亚洲精品一区二| 精品99一区二区三区| 在线看不卡av| 亚洲精品九九| 亚洲一区二区三区色| 性欧美xxxx视频在线观看| 亚洲大胆人体视频| 亚洲日韩欧美视频一区| 一本色道久久88精品综合| 亚洲免费在线视频一区 二区| 久久av一区二区| 麻豆精品一区二区综合av | 欧美日韩高清在线| 国产精品久久久久久久久搜平片 | 亚洲视频在线观看一区| 亚洲欧美日韩另类精品一区二区三区 | 亚洲网站视频| 亚洲成人自拍视频| 国产精品99久久99久久久二8| 欧美在线关看| 欧美成人黑人xx视频免费观看| 欧美日韩国产一区二区三区| 国产精品入口尤物| 伊人一区二区三区久久精品| 亚洲欧洲综合| 午夜视频在线观看一区| 日韩视频一区二区三区在线播放 | 欧美激情一区二区三区蜜桃视频 | 亚洲精品国产系列| 午夜精品国产更新| 99这里只有精品| 久久av一区二区三区| 欧美精品日韩www.p站| 国产精品视频自拍| 亚洲欧洲日夜超级视频| 午夜亚洲福利| 日韩一区二区久久| 久久夜色精品国产亚洲aⅴ | 亚洲国产欧美久久| 亚洲免费在线视频| 欧美高清在线视频| 国产在线精品一区二区夜色| 亚洲另类在线一区| 欧美在线亚洲综合一区| 亚洲手机成人高清视频| 久久婷婷国产综合精品青草| 欧美午夜国产| 亚洲国产成人tv| 先锋a资源在线看亚洲| 一道本一区二区| 久久亚洲精品视频| 国产精品日韩| 夜夜嗨av色一区二区不卡| 亚洲春色另类小说| 欧美一区二区三区成人 | 欧美性猛交99久久久久99按摩| 在线看片第一页欧美| 午夜精品成人在线| 亚洲一区二区三区精品在线| 久久综合九色九九| 国产欧美日韩在线视频| 亚洲视频一区二区| 在线视频欧美日韩精品| 欧美成人免费视频| 狠狠爱成人网| 欧美一区二区在线观看| 午夜亚洲性色福利视频| 欧美日韩综合| 亚洲乱码国产乱码精品精可以看| 亚洲欧洲日产国产网站| 久久综合色播五月| 黄色一区二区在线观看| 欧美亚洲免费电影| 午夜精品一区二区三区四区| 欧美先锋影音| 一区二区三区高清| 亚洲视频在线观看三级| 欧美日韩国产精品成人| 91久久线看在观草草青青| 亚洲国产精品专区久久| 美女尤物久久精品| 激情欧美日韩一区| 久久精品国产免费看久久精品| 久久国产手机看片| 国产在线播精品第三| 欧美在线视频一区二区三区| 久久av老司机精品网站导航| 国产日韩亚洲欧美综合| 欧美一区二区视频97| 久久国产精品黑丝| 国产视频精品xxxx| 久久精品视频99| 另类综合日韩欧美亚洲| 亚洲高清视频一区二区| 国产精品久久久久免费a∨| 一区二区三区欧美激情| 欧美+亚洲+精品+三区| 亚洲国产91精品在线观看| 亚洲日本黄色| 欧美激情第9页| 亚洲人成绝费网站色www| 日韩五码在线| 欧美天堂亚洲电影院在线观看 | 欧美自拍丝袜亚洲| 另类尿喷潮videofree| 在线观看一区二区视频| 亚洲电影免费| 母乳一区在线观看| 亚洲人午夜精品| 亚洲影视中文字幕| 国产精品私人影院| 欧美一级理论片| 毛片基地黄久久久久久天堂| 亚洲国内自拍| 亚洲私人影院在线观看| 99热这里只有成人精品国产| 一区二区三区蜜桃网| 亚洲在线黄色| 国产欧美精品一区| 亚洲经典自拍| 欧美日韩国产一区精品一区| 亚洲一级黄色| 久久久久久久网| 亚洲国产日韩欧美在线图片| 亚洲午夜在线| 国内精品免费在线观看| 亚洲精选在线| 国产精品有限公司| 亚洲国产美女| 国产精品国产精品国产专区不蜜| 亚洲免费视频网站| 免费亚洲电影在线观看| 999在线观看精品免费不卡网站| 欧美一级夜夜爽| 影音先锋中文字幕一区| 亚洲一区精品电影| 尤物精品国产第一福利三区| 在线视频精品一| 国产一区二区三区最好精华液| 亚洲精品久久嫩草网站秘色| 国产精品大片免费观看| 久久精品免视看| 国产精品mv在线观看| 欧美一级大片在线免费观看| 欧美—级在线免费片| 亚洲欧美一区二区三区极速播放 | 日韩一级不卡| 国产欧美va欧美va香蕉在| 亚洲精选在线| 国产一区二区福利| 夜夜爽99久久国产综合精品女不卡 | 亚洲精品字幕| 久久激情视频| 一本一本久久| 欧美www视频| 欧美性猛片xxxx免费看久爱 | 一区二区三区在线看| 亚洲一区欧美| 在线精品亚洲一区二区| 欧美伊人久久久久久久久影院| 亚洲激情欧美| 久久精品首页| 亚洲网站视频福利| 欧美理论电影在线观看| 久久精品欧美日韩精品| 国产精品一区二区在线| 在线亚洲+欧美+日本专区|