《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > 基于深度學(xué)習(xí)的圖像風(fēng)格化算法研究綜述
基于深度學(xué)習(xí)的圖像風(fēng)格化算法研究綜述
2019年電子技術(shù)應(yīng)用第7期
黃海新,梁志旭,張 東
沈陽理工大學(xué) 自動化與電氣工程學(xué)院,遼寧 沈陽110159
摘要: 隨著“人工智能”時代的到來,“深度學(xué)習(xí)”一詞也逐漸走進(jìn)大眾的視野,一些基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的圖像處理方法也隨之產(chǎn)生,圖像風(fēng)格化作為其中一個重要的分支也獲得了廣泛的關(guān)注。目前,研究學(xué)者提出了很多基于深度學(xué)習(xí)的圖像風(fēng)格化算法,而且都能較好地完成風(fēng)格化任務(wù)。全面概述了深度學(xué)習(xí)在圖像風(fēng)格化領(lǐng)域的進(jìn)展,對比了不同算法之間的優(yōu)劣,最后探討了當(dāng)前基于深度學(xué)習(xí)的圖像風(fēng)格化研究的局限性及未來的研究方向。
中圖分類號: TP391.41
文獻(xiàn)標(biāo)識碼: A
DOI:10.16157/j.issn.0258-7998.190060
中文引用格式: 黃海新,梁志旭,張東. 基于深度學(xué)習(xí)的圖像風(fēng)格化算法研究綜述[J].電子技術(shù)應(yīng)用,2019,45(7):27-31.
英文引用格式: Huang Haixin,Liang Zhixu,Zhang Dong. A survey of image stylization algorithms based on deep learning[J]. Application of Electronic Technique,2019,45(7):27-31.
A survey of image stylization algorithms based on deep learning
Huang Haixin,Liang Zhixu,Zhang Dong
College of Automation and Electrical Engineering,Shenyang Ligong University,Shenyang 110159,China
Abstract: With the advent of the “artificial intelligence” era, the term “deep learning” has gradually entered the public′s field of vision. Some image processing methods based on deep learning neural networks have also emerged. Image stylization as an important branch has also gained widespread attention. At present, researchers have proposed a lot of image stylization algorithms based on deep learning, and they can accomplish stylized tasks well. This paper comprehensively summarizes the progress of deep learning in the field of image stylization, compares the advantages and disadvantages of different algorithms, and finally discusses the limitations of current image stylization research based on deep learning and future research directions.
Key words : image stylization;deep learning;neural networks;image processing

0 引言

    圖像風(fēng)格化是指通過一些算法,將一張具有藝術(shù)風(fēng)格圖像的風(fēng)格映射到其他自然圖像上,使原自然圖像保留原始語義內(nèi)容的同時具備該藝術(shù)圖像的藝術(shù)風(fēng)格。圖像風(fēng)格化這一概念的提出是源于人們被某些藝術(shù)繪畫大師的藝術(shù)作品所吸引,渴望自己也能夠擁有同樣藝術(shù)風(fēng)格的圖像,而重新繪制特殊風(fēng)格的圖像則需要大量相關(guān)技術(shù)人員的投入和資源損耗,于是一些研究人員開始研究相應(yīng)算法來完成圖像風(fēng)格化任務(wù)。

    自20世紀(jì)90年代中期以來,人們相繼提出大量風(fēng)格化算法,其中非真實(shí)感渲染[1]方法取得了較好的效果,但這種方法局限于僅能針對單一風(fēng)格進(jìn)行繪制,如果需要拓展到其他風(fēng)格的轉(zhuǎn)換,則需要重新修改算法和參數(shù)。研究人員后來進(jìn)一步將風(fēng)格化問題轉(zhuǎn)化為風(fēng)格圖像的紋理合成問題,將目標(biāo)風(fēng)格圖像的紋理特征信息映射到待風(fēng)格化圖像中完成風(fēng)格化任務(wù)。WANG B等[2]從風(fēng)格圖像數(shù)據(jù)集中提取紋理信息,將紋理信息與被分割的原始圖像結(jié)合成新的風(fēng)格化圖像。HERTZMANN A等[3]通過學(xué)習(xí)來自未經(jīng)轉(zhuǎn)換的圖片和風(fēng)格化圖像的示例對的類似變換來進(jìn)行風(fēng)格化任務(wù)。FRIGO O等[4]提出一種無監(jiān)督的風(fēng)格化方法,具體是對小圖像塊的分割和重構(gòu)完成風(fēng)格轉(zhuǎn)移。以上這些算法都是圖像風(fēng)格化的傳統(tǒng)算法,傳統(tǒng)算法還有很多,但其最大的局限性就是僅僅使用了圖像低層次的特征,無法完美捕捉到圖像的結(jié)構(gòu)分布,這就導(dǎo)致風(fēng)格化效果不理想。

1 基于深度學(xué)習(xí)的圖像風(fēng)格化算法

    深度學(xué)習(xí)對于計算機(jī)視覺方面良好的效果使得風(fēng)格化研究人員不得不將目光轉(zhuǎn)移到它身上。隨著卷積神經(jīng)網(wǎng)絡(luò)[5]的提出,圖像的高層次特征得以有效利用,傳統(tǒng)風(fēng)格化算法的局限性得以消除,這吸引了大量的風(fēng)格化研究人員。

    GATYS L A等開創(chuàng)性地利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行風(fēng)格化任務(wù)。他們在文獻(xiàn)[6]中首先利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像紋理合成的任務(wù),從目標(biāo)風(fēng)格圖像中提取紋理。他們用Gram矩陣來表示紋理信息,Gram矩陣是預(yù)訓(xùn)練分類網(wǎng)絡(luò)VGG的各過濾器激活值之間的相關(guān)系數(shù),這種基于Gram矩陣的紋理表示方式有效地模擬了紋理的各種變化。他們初始化一張噪聲圖像,將噪聲圖像和待提取紋理的目標(biāo)圖像都送入VGG網(wǎng)絡(luò)中,通過最小化噪聲圖像和目標(biāo)圖像之間各層的Gram矩陣之間的差值作為損失函數(shù)對噪聲圖像的像素值進(jìn)行優(yōu)化,通過反復(fù)的優(yōu)化迭代得到目標(biāo)圖像的紋理,這是圖像的紋理也就是風(fēng)格的提取過程。

    在后來的工作中,GATYS L A等人在紋理合成的基礎(chǔ)上通過引入目標(biāo)內(nèi)容圖像,修改了損失函數(shù)使算法同時針對風(fēng)格和內(nèi)容進(jìn)行優(yōu)化,滿足了保持目標(biāo)語義內(nèi)容不變同時的風(fēng)格化任務(wù),可以做到如圖1所示的風(fēng)格化效果。此方法雖然能夠較好地完成圖像風(fēng)格化的任務(wù),但是其缺點(diǎn)也是很明顯的,由于優(yōu)化需要較長的等待時間,因此在實(shí)時性這一方面此方法有很大的局限性。另外,由于卷積神經(jīng)網(wǎng)絡(luò)不可避免地會丟失一些低級特征信息,因此GATYS L A等人的算法在風(fēng)格化后的細(xì)節(jié)方面表現(xiàn)不佳且難以實(shí)現(xiàn)真實(shí)照片作為風(fēng)格的轉(zhuǎn)換任務(wù)。

zs1-t1.gif

    針對GATYS L A等[7]的研究中關(guān)于實(shí)時性的問題,ULYANOV D等[8]和JOHNSON J等[9]都提出了相應(yīng)的解決辦法。這兩種方法的原理相似,都是采用離線訓(xùn)練的方式預(yù)先訓(xùn)練一個風(fēng)格轉(zhuǎn)換網(wǎng)絡(luò),只不過采用不同的網(wǎng)絡(luò)結(jié)構(gòu),兩個網(wǎng)絡(luò)結(jié)構(gòu)分別如圖2和圖3所示。這樣,當(dāng)需要進(jìn)行圖像風(fēng)格化任務(wù)時,只需要將圖像送入轉(zhuǎn)換網(wǎng)絡(luò)中,即可立即獲得風(fēng)格化后的圖像。但是,由于這兩種算法的核心思想是基于文獻(xiàn)[7]的算法,因此這兩種算法依舊面臨著GATYS L A等風(fēng)格化后的局部細(xì)節(jié)方面表現(xiàn)不佳的問題。而且最大的局限性是預(yù)訓(xùn)練的轉(zhuǎn)換網(wǎng)絡(luò)只能對一種風(fēng)格進(jìn)行訓(xùn)練,如果想實(shí)現(xiàn)多個風(fēng)格的轉(zhuǎn)換,需要為每種特定風(fēng)格都訓(xùn)練一個轉(zhuǎn)換網(wǎng)絡(luò)。

zs1-t2.gif

zs1-t3.gif

    除了Gram矩陣可用于表示紋理特征外,馬爾科夫隨機(jī)場(MRF)也是對圖像紋理特征建模的另一種方法。考慮到Gram矩陣的一些局限性,一些研究人員采用MRF的方法處理風(fēng)格化問題?;贛RF的紋理建模表示方法假定在一個紋理圖像中,每個像素僅與其相鄰的像素有關(guān),即每個像素完全由其空間鄰域表征。

    LI C和WAND M[10]認(rèn)為GATYS L A等基于Gram矩陣的紋理表示方法僅考慮像素特征的相關(guān)性,沒有考慮空間結(jié)構(gòu),這導(dǎo)致了算法在真實(shí)圖像作為目標(biāo)風(fēng)格時不能很好地完成風(fēng)格化任務(wù)。所以,他們提出了結(jié)合MRF和神經(jīng)網(wǎng)絡(luò)的方法。具體原理與GATYS L A等的原理相似,不同點(diǎn)在于沒有利用特征圖之間的關(guān)系構(gòu)成Gram矩陣,而是將特征圖生成了很多的局部圖像塊(local patch),利用MRF去尋找圖像塊與圖像塊之間關(guān)系的匹配,這樣能更好地保留像素局部的信息,可以完成真實(shí)照片作為目標(biāo)風(fēng)格圖像的風(fēng)格化任務(wù),如圖4所示。這種方法的缺點(diǎn)在于當(dāng)內(nèi)容圖像和風(fēng)格圖像在結(jié)構(gòu)上存在很大差異時,由于圖像塊之間難以匹配,可能導(dǎo)致風(fēng)格化任務(wù)失敗。

zs1-t4.gif

    考慮到文獻(xiàn)[10]實(shí)時性的問題,LI C和WAND M又提出了一種離線訓(xùn)練的方式完成風(fēng)格化任務(wù)[11]。其核心思想依舊基于MRF,通過對抗性訓(xùn)練一個前饋網(wǎng)絡(luò)來解決效率問題。同樣,這種基于MRF的方法有利于保留紋理像素的局部細(xì)節(jié)信息,所以對于復(fù)雜的紋理圖像,這種方法的風(fēng)格化效果要比JOHNSON J等和ULYANOY D等要好。但是,由于算法對圖像語義內(nèi)容和高層次特征上考慮的缺乏,因此對于非紋理圖像(如臉部)作為目標(biāo)風(fēng)格圖像時往往得不到很好的結(jié)果。

    以上算法的很大限制就是往往只針對單一風(fēng)格進(jìn)行風(fēng)格化任務(wù),若希望得到不同的風(fēng)格化結(jié)果則需要多次運(yùn)行算法或訓(xùn)練多個風(fēng)格轉(zhuǎn)換網(wǎng)絡(luò)。于是研究人員開始對如何一次完成多種風(fēng)格的轉(zhuǎn)換任務(wù)這一問題進(jìn)行研究。DUMOULIN V等[12]提出了一種基于條件實(shí)例規(guī)范化的方法去訓(xùn)練一個多風(fēng)格條件轉(zhuǎn)換網(wǎng)絡(luò),具體做法是通過歸一化不同轉(zhuǎn)換參數(shù)的特征統(tǒng)計將內(nèi)容圖像轉(zhuǎn)換為不同的風(fēng)格,來實(shí)現(xiàn)通過調(diào)整不同的轉(zhuǎn)換參數(shù)來模擬不同的風(fēng)格的目的。LI Y等[13]將初始化的噪聲圖像送入不同的子風(fēng)格網(wǎng)絡(luò)中得到相應(yīng)的風(fēng)格特征編碼,然后結(jié)合內(nèi)容特征編碼和風(fēng)格特征編碼送入轉(zhuǎn)換網(wǎng)絡(luò)的上采樣部分完成風(fēng)格轉(zhuǎn)換,不同的風(fēng)格可以通過選擇單元進(jìn)行選擇。ZHANG H和DANA K[14]將多種風(fēng)格送入預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)中得到多尺度風(fēng)格特征,然后將此風(fēng)格特征與來自編碼器中的不同層的多尺度內(nèi)容特征組合,通過其所提出的激勵層,實(shí)現(xiàn)多風(fēng)格化。

    除了多風(fēng)格轉(zhuǎn)換,一些研究人員還對任意風(fēng)格的轉(zhuǎn)換進(jìn)行了研究。HUANG X和BELONGIE S[15]提出了基于文獻(xiàn)[12]思想的另一種方法,他們將條件實(shí)例規(guī)范化修改為自適應(yīng)實(shí)例歸一化,與DUMOULIN V等[12]不同的是他們采用的風(fēng)格轉(zhuǎn)換網(wǎng)絡(luò)的下采樣部分包含了VGG網(wǎng)絡(luò)前幾層在內(nèi)且參數(shù)固定,這樣得到的特征激活值經(jīng)過自適應(yīng)實(shí)例歸一化處理后上采樣重構(gòu)后即可得到風(fēng)格化后的圖像。此方法能夠完成實(shí)時的任意風(fēng)格化處理,上采樣部分的網(wǎng)絡(luò)參數(shù)需要大量的風(fēng)格圖像和內(nèi)容圖像進(jìn)行訓(xùn)練。后來,LI Y等[16]又對HUANG X和BELONGIE S[15]的方法進(jìn)行了改進(jìn),他們采用相同的網(wǎng)絡(luò)結(jié)構(gòu),只是用白化著色變換代替了自適應(yīng)實(shí)例歸一化,這是因為白化變換可以去除風(fēng)格相關(guān)信息并保留內(nèi)容結(jié)構(gòu),這使得內(nèi)容圖像的特征信息能夠較好地傳遞,然后通過著色變換將風(fēng)格特征與內(nèi)容結(jié)合后,經(jīng)過上采樣重構(gòu)圖像后得到的就是風(fēng)格化后的圖像。

2 圖像風(fēng)格化的拓展

    隨著圖像風(fēng)格化技術(shù)的成熟,一些研究人員發(fā)現(xiàn)圖像風(fēng)格化算法具備更廣泛的研究價值,可以拓展到其他相關(guān)應(yīng)用,以下僅簡要介紹圖像風(fēng)格化的幾個拓展方向。

2.1 視頻風(fēng)格化

    視頻可以理解為一張張圖像經(jīng)過連續(xù)化處理得到的,那么圖像的風(fēng)格化任務(wù)就可以拓展到視頻風(fēng)格化的領(lǐng)域來。需要注意的是,視頻風(fēng)格化算法需要考慮相鄰視頻幀之間的平滑過渡。第一個視頻風(fēng)格化算法由RUDER M等提出[17-18],他們使用光流法計算光流信息,并引入了時間一致性損失,他們的算法實(shí)現(xiàn)了平滑的視頻風(fēng)格化結(jié)果。后來HUANG H等基于RUDER M等的思想提出一個離線訓(xùn)練的視頻風(fēng)格化模型[19],具體做法是將兩個連續(xù)的幀畫面送入風(fēng)格轉(zhuǎn)換網(wǎng)絡(luò)中得到輸出,對輸出的結(jié)果直接計算時間一致性損失來約束兩幀之間的連續(xù)性。

2.2 人臉風(fēng)格化

    盡管之前的算法都能夠?qū)崿F(xiàn)風(fēng)格化任務(wù),但是由于沒有單獨(dú)考慮頭部特征導(dǎo)致難以實(shí)現(xiàn)單獨(dú)針對頭部的風(fēng)格化效果。SELIM A等[20]在風(fēng)格化過程中增加了增益圖對空間配置進(jìn)行約束,這使得面部的結(jié)構(gòu)特征在風(fēng)格化過程中得以保留。ZHAO M T等[21]從由繪畫大師預(yù)先繪畫的肖像中提取筆觸信息,將筆觸信息傳遞給內(nèi)容圖像實(shí)現(xiàn)人臉風(fēng)格化方法。WANG N N等[22]采用MRF的方法實(shí)現(xiàn)人臉風(fēng)格化,他們的方法可以從訓(xùn)練數(shù)據(jù)集中為目標(biāo)圖像匹配到最合適的特征信息完成風(fēng)格化任務(wù)。

2.3 語義風(fēng)格化

    語義風(fēng)格化是假設(shè)有兩張圖像,兩張圖像有著相似的語義內(nèi)容但不同的風(fēng)格,希望將一張圖像的風(fēng)格過渡到另一張圖像上。CHAMPANDARD A J[23]提出基于圖像塊匹配的算法[24]完成語義風(fēng)格化任務(wù)。CHEN Y L和HSU C T[25]提出了一種不同的思路,他們約束空間對應(yīng)關(guān)系及風(fēng)格特征統(tǒng)計完成語義風(fēng)格化。

3 存在問題及今后研究方向

    由于風(fēng)格這一概念的模糊性,人們對于風(fēng)格化圖片效果的評估往往都是基于主觀意識,風(fēng)格化的好與壞完全由個人主觀評判。由于人與人之間主觀意識上的差異,導(dǎo)致對風(fēng)格化結(jié)果的評判也各不相同。不同于分類任務(wù)[26],圖像風(fēng)格化沒有一個預(yù)期的標(biāo)準(zhǔn)來對風(fēng)格化結(jié)果進(jìn)行評判,這是目前各種風(fēng)格化算法普遍面臨的問題,如何找到一個標(biāo)準(zhǔn)的評估方法,將會是風(fēng)格化領(lǐng)域內(nèi)各研究人員今后的一個重要研究方向。

    雖然基于圖像優(yōu)化的在線風(fēng)格化算法(如GATYS L A等[7]和LI C、WAND M等[10])可以較好地完成圖像風(fēng)格化的任務(wù),但是此類方法由于需要在線優(yōu)化,難以保證風(fēng)格化的速度。離線訓(xùn)練風(fēng)格轉(zhuǎn)換網(wǎng)絡(luò)的方式(如ULYANOV D等[8]和JOHNSON J等[9])可以避免此類速度問題,但訓(xùn)練一個單風(fēng)格轉(zhuǎn)換網(wǎng)絡(luò)不夠靈活,因為多數(shù)情況下用戶需要多種風(fēng)格化方式,而訓(xùn)練一個多風(fēng)格轉(zhuǎn)換網(wǎng)絡(luò)得到的效果卻又不如針對單一風(fēng)格轉(zhuǎn)換網(wǎng)絡(luò)的效果好,所以如何提出一種同時滿足轉(zhuǎn)換速度和轉(zhuǎn)換效果的方法也是今后研究的一個重要方向。

4 結(jié)論

    本文主要介紹了基于深度學(xué)習(xí)的圖像風(fēng)格化方法,并對相應(yīng)算法的優(yōu)缺點(diǎn)和今后的研究發(fā)展方向進(jìn)行了簡要的分析。通過研究發(fā)現(xiàn),盡管傳統(tǒng)方法能夠完成風(fēng)格化任務(wù),但是由于其局限性,不論是在合成速度方面還是圖像效果方面都不是很理想。隨著深度學(xué)習(xí)的介入,傳統(tǒng)處理圖像的方法得到了更好的發(fā)揮,圖像的特征信息也得到了充分利用,可以說神經(jīng)網(wǎng)絡(luò)使人們對圖像風(fēng)格化這一領(lǐng)域的研究向前邁了一大步。雖然目前圖像風(fēng)格化領(lǐng)域有了一些進(jìn)展,可以實(shí)現(xiàn)一些簡單的應(yīng)用,但距離風(fēng)格化技術(shù)的全面成熟仍需要不斷的發(fā)展改進(jìn)。總而言之,圖像風(fēng)格化作為一個具有廣泛商業(yè)用途,充滿吸引力和挑戰(zhàn)性的方向,有重要的研究意義等著研究人員去發(fā)展創(chuàng)新。

參考文獻(xiàn)

[1] GOOCH B,GOOCH A.Non-photorealistic rendering[M].Natick,MA,USA:A.K.Peters,Ltd.,2001.

[2] WANG B,WANG W P,YANG H P,et al.Efficient examplebased painting and synthesis of 2D directional texture[J].IEEE Transactions on Visualization and Computer Graphics,2004,10(3):266-277.

[3] HERTZMANN A,JACOBS C E,OLIVER N,et al.Image analogies[C].Proceedings of the 28th Annual Conference On Computer Graphics And Interactive Techniques.ACM,2001:327-340.

[4] FRIGO O,SABATER N,DELON J,et al.Split and match:Example-based adaptive patch sampling for unsupervised style transfer[C].IEEE Conference on Computer Vision and PatternRecognition,2016:2338-2351.

[5] 徐中輝,呂維帥.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像著色[J].電子技術(shù)應(yīng)用,2018,44(10):19-22.

[6] GATYS L A,ECKER A S,BETHGE M.Texture synthesis using convolutional neural networks[C].International Conference on Neural Information Processing Systems.MIT Press,2015.

[7] GATYS L A,ECKER A S,BETHGE M.A neural algorithm of artistic style[J].arXiv:1508,06576[cs.CV].

[8] ULYANOV D,LEBEDEV V,VEDALDI A,et al.Texture networks:feed-forward synthesis of textures and stylized images[C].International Conference on Machine Learning,2016:1349-1357.

[9] JOHNSON J,ALAHI A,Li Feifei.Perceptual losses for real-time style transfer and super-resolution[C].European Conference on Computer Vision,2016:694-711.

[10] LI C,WAND M.Combining markov random fields and convolutional neural networks for image synthesis[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016:2479-2486.

[11] LI C,WAND M.Precomputed real-time texture synthesis with markovian generative adversarial networks[C].European Conference on Computer Vision,2016:702-716.

[12] DUMOULIN V,SHLENS J,KUDLUR M.A learned representation for artistic style[C].International Conference on Learning Representations,2017.

[13] LI Y,CHEN F,YANG J,et al.Diversified texture synthesis with feed-forward networks[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:3920-3928.

[14] ZHANG H,DANA K.Multi-style generative network for real-time transfer[J].arXiv:1703.06953.

[15] HUANG X,BELONGIE S.Arbitrary style transfer in real-time with adaptive instance normalization[C].Proceedings of the IEEE International Conference on Computer Vision,2017:1501-1510.

[16] LI Y,F(xiàn)ANG C,YANG J,et al.Universal style transfer via feature transforms[C].Advances in Neural Information Processing Systems,2017:385-395.

[17] RUDER M,DOSOVITSKIY A,BROX T.Artistic style transfer for videos[C].German Conference on Pattern Recognition,2016:26-36.

[18] RUDER M,DOSOVITSKLY A,BROX T.Artistic style transfer for videos and spherical images[J].International Journal of Computer Vision,2018,126:1199.

[19] HUANG H,WANG H,LUO W,et al.Real-time neural style transfer for videos[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:783-791.

[20] SELIM A,ELGHARIB M,DOYLE L.Painting style transfer for head portraits using convolutional neural networks[J].ACM Transactions on Graphics,2016,35(4):129.

[21] ZHAO M T,ZHU S C.Portrait painting using active templates[C].ACM SIGG RAPH/Eurographics Symposium on Non-Photorealistic Animation and Rendering,2011:117-124.

[22] WANG N N,TAO D C,GAO X B,et al.Transductive face sketch-photo synthesis[J].IEEE Transactions on Neural Networks and Learning Systems,2013,24(9):1364-1376.

[23] CHAMPANDARD A J.Semantic style transfer and turning two-bit doodles into fine artworks[J].arXiv:1603:01768[cs.CV].

[24] LI C,WAND M.Combining markov random fields and convolutional neural networks for image synthesis[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016:2479-2486.

[25] CHEN Y L,HSU C T.Towards deep style transfer:A content-aware perspective[C].Proceedings of the British Machine Vision Conference,2016.

[26] 許少尉,陳思宇.基于深度學(xué)習(xí)的圖像分類方法[J].電子技術(shù)應(yīng)用,2018,44(6):116-119.

[27] 鄧盈盈,唐帆,董未名.圖像藝術(shù)風(fēng)格化的研究現(xiàn)狀[J].南京信息工程大學(xué)學(xué)報(自然科學(xué)版),2017(6):31-36.

[28] JING Y,YANG Y,F(xiàn)ENG Z,et al.Neural style transfer:a review[J].arXiv:1705.04D58[cs.CV].



作者信息:

黃海新,梁志旭,張  東

(沈陽理工大學(xué) 自動化與電氣工程學(xué)院,遼寧 沈陽110159)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
亚洲国产小视频| 99re8这里有精品热视频免费| 狂野欧美一区| 亚洲视频在线一区观看| 欧美专区亚洲专区| 一区二区三区久久精品| 亚洲国产精品传媒在线观看| 国产日韩欧美一区二区三区四区| 欧美日韩国产综合新一区| 久久一区视频| 欧美在线日韩| 亚洲综合激情| 99www免费人成精品| 亚洲高清不卡av| 亚洲综合欧美日韩| 一本高清dvd不卡在线观看| 亚洲丰满在线| 国产综合香蕉五月婷在线| 国产精品久久久久久久久动漫| 免费成人美女女| 久久久久国内| 性欧美超级视频| 亚洲伊人第一页| 亚洲一区二区三区午夜| 亚洲另类在线视频| 亚洲欧洲精品一区二区| 亚洲国产高清一区二区三区| 久久国产99| 小辣椒精品导航| 亚洲女女女同性video| 一区二区日韩| 中文国产一区| 一区二区三区精品久久久| 洋洋av久久久久久久一区| 亚洲精品免费看| 伊人久久婷婷| 在线观看成人小视频| 黄色成人av| 樱桃国产成人精品视频| 精品va天堂亚洲国产| 在线免费观看欧美| 亚洲国产精品成人综合色在线婷婷 | 亚洲激情视频在线观看| 亚洲第一精品夜夜躁人人躁| 亚洲第一天堂av| 亚洲黄色小视频| 亚洲免费观看| 正在播放欧美一区| 亚洲欧美在线免费| 久久国产精品99国产精| 亚洲国产精品美女| 99re6这里只有精品| 亚洲视频在线一区| 性做久久久久久免费观看欧美| 欧美一区二区三区日韩视频| 久久精品五月婷婷| 蜜臀99久久精品久久久久久软件| 欧美成人精品福利| 欧美女同视频| 欧美视频精品一区| 欧美午夜女人视频在线| 欧美日韩综合在线免费观看| 国产精品久久久久一区| 国产日韩成人精品| 在线精品视频一区二区| 亚洲老司机av| 亚洲专区一区二区三区| 欧美伊久线香蕉线新在线| 亚洲人成高清| 亚洲网址在线| 久久九九免费视频| 欧美激情第一页xxx| 国产精品大片wwwwww| 国产视频在线一区二区| 亚洲第一精品久久忘忧草社区| 亚洲国产精品久久| 99精品久久久| 欧美影视一区| 99re66热这里只有精品4| 香港成人在线视频| 久久久久久久综合狠狠综合| 免费毛片一区二区三区久久久| 欧美日韩精品二区第二页| 国产精品一区二区欧美| 一区二区三区在线高清| 一区二区高清视频在线观看| 久久国产66| 亚洲神马久久| 久久精品在线播放| 欧美裸体一区二区三区| 国产三区二区一区久久| 亚洲激情视频| 亚洲免费视频网站| 亚洲毛片在线免费观看| 欧美在线视频一区二区| 欧美国产日韩免费| 国产日韩欧美视频| 日韩亚洲一区在线播放| 欧美在线视频在线播放完整版免费观看 | 久久久精品动漫| 欧美视频在线免费| 激情视频一区| 一区二区激情小说| 亚洲国产精品一区二区第一页| 亚洲欧美春色| 欧美顶级大胆免费视频| 国产日韩在线看| 国产精品99久久不卡二区| 91久久精品国产91久久| 欧美在线free| 欧美午夜在线观看| 亚洲黄色毛片| 久久国产精品99精品国产| 亚洲欧美成人网| 欧美—级高清免费播放| 国产一区二区三区高清| 亚洲视频 欧洲视频| 亚洲精品一区二区在线观看| 久久免费国产精品| 国产精品视频久久久| 亚洲精品影视| 亚洲精品日韩在线| 久久亚洲色图| 国产一级一区二区| 亚洲一区尤物| 亚洲欧美另类国产| 欧美日韩亚洲国产一区| 亚洲国产精品久久| 亚洲高清资源| 久久九九精品99国产精品| 国产精品一区在线播放| 一二美女精品欧洲| 999亚洲国产精| 欧美激情第三页| 亚洲高清不卡一区| 亚洲国产欧美久久| 美女在线一区二区| 一区二区亚洲欧洲国产日韩| 久久精品国产v日韩v亚洲| 久久激情综合网| 国产女主播在线一区二区| 亚洲一区二区成人| 午夜国产精品视频| 欧美小视频在线观看| 一本色道久久88综合亚洲精品ⅰ | 国产日韩高清一区二区三区在线| 亚洲天堂av在线免费| 亚洲午夜高清视频| 一区二区三区精品在线| 欧美精品高清视频| 亚洲国产另类精品专区| 亚洲人成人99网站| 欧美福利在线观看| 亚洲国产综合视频在线观看| 亚洲九九爱视频| 欧美日本韩国一区| av不卡免费看| 亚洲一区激情| 国产伦精品一区二区三区照片91 | 亚洲一区欧美激情| 国产精品嫩草久久久久| 亚洲一区亚洲二区| 久久精品亚洲| 国产亚洲人成网站在线观看| 欧美一级视频免费在线观看| 久久av一区二区三区| 国产一区二区三区久久悠悠色av| 亚洲欧美日韩一区二区在线| 久久国产一二区| 一区三区视频| 亚洲美女视频在线免费观看| 欧美激情第4页| 一区二区三区蜜桃网| 性色av一区二区怡红| 国产亚洲激情| 亚洲国产一区二区视频| 欧美精品国产一区二区| 一区二区三区精品国产| 欧美在线精品免播放器视频| 一区免费视频| 在线视频欧美日韩| 国产精品一区二区三区四区五区| 久久精品青青大伊人av| 欧美激情一区二区三区在线 | 狠狠色狠狠色综合日日tαg| 亚洲美女中出| 国产精品高潮在线| 久久精品国产一区二区电影 | 在线电影院国产精品| 一区二区三区av| 国产精一区二区三区| 亚洲国产一区二区精品专区| 欧美日韩小视频| 午夜亚洲一区| 欧美区在线播放| 亚洲电影第三页| 国产精品日本一区二区| 亚洲免费观看在线视频| 国产在线日韩| 午夜视频在线观看一区|