鄧盈盈 唐帆 董未名
摘要 圖像藝術(shù)風(fēng)格化作為一個(gè)正在蓬勃發(fā)展的領(lǐng)域被越來(lái)越多的人熟知,也引起了眾多學(xué)者的研究興趣.本文總結(jié)了圖片風(fēng)格化的發(fā)展現(xiàn)狀,分析了不同風(fēng)格化方法的特點(diǎn),指出了目前風(fēng)格化方法的缺點(diǎn),總結(jié)了圖片風(fēng)格化的發(fā)展趨勢(shì),為進(jìn)一步研究圖片風(fēng)格化提供了方向.關(guān)鍵詞圖像風(fēng)格化;筆觸;生成模型
中圖分類號(hào) TP391.41;TP18
文獻(xiàn)標(biāo)志碼 A
1 圖像藝術(shù)風(fēng)格化概念
隨著圖片處理技術(shù)的發(fā)展,人們對(duì)圖片美化有了更多的想法和要求.例如,人們希望自己拍攝的圖像具有藝術(shù)大師畫(huà)作的風(fēng)格,如圖1所示的梵高的星空等的效果.目前,PhotoShop等專業(yè)的圖像處理軟件,也可以用于圖片的藝術(shù)風(fēng)格改造.但對(duì)于普通的用戶來(lái)說(shuō),PS并不是一個(gè)簡(jiǎn)單快捷的工具,而且采用人工創(chuàng)作必定會(huì)消耗大量的人力、時(shí)間、金錢(qián),因此研究人員提出了風(fēng)格化的概念.圖像風(fēng)格化又可以稱為風(fēng)格遷移,是指讓計(jì)算機(jī)自動(dòng)完成圖像風(fēng)格的轉(zhuǎn)移,將一張具有藝術(shù)特色的圖像的風(fēng)格遷移到一張自然圖像上,使原自然圖像保留原始內(nèi)容的同時(shí)具有獨(dú)特的藝術(shù)風(fēng)格,如卡通、漫畫(huà)、油畫(huà)、水彩、水墨等風(fēng)格.
對(duì)于圖像風(fēng)格化的研究,使照片編輯、平面設(shè)計(jì)和動(dòng)漫制作等領(lǐng)域有了重大突破,可以幫助非專業(yè)用戶自由創(chuàng)作出帶有藝術(shù)風(fēng)格的作品.
2 傳統(tǒng)圖像藝術(shù)風(fēng)格化方法
傳統(tǒng)圖像藝術(shù)風(fēng)格化的方法可以分為3類:基于筆觸的風(fēng)格化、基于紋理合成的風(fēng)格化和對(duì)物理過(guò)程建模的風(fēng)格化.
基于筆觸的方法在油畫(huà)風(fēng)格化中應(yīng)用較多.油畫(huà)中有一類風(fēng)格筆觸明顯,可清晰看見(jiàn)筆觸的寬度、長(zhǎng)度和走向.Hertzmann[1]使用多種樣條筆觸合成圖像,筆觸根據(jù)原圖像顏色進(jìn)行選擇,樣條筆觸方向與圖像的梯度方向?qū)R.Zeng等[2]提出利用圖像的語(yǔ)義信息選擇筆觸和決定筆觸位置方向的方法,根據(jù)區(qū)域和物體的標(biāo)識(shí)等信息從筆觸庫(kù)中選擇合適的筆觸,依據(jù)方向場(chǎng)進(jìn)行繪制.Luo等[3]使用條件隨機(jī)場(chǎng)優(yōu)化框架,結(jié)合從輸入圖像中提取的法向圖和獲得光照估計(jì)方向后由法向圖和反射率圖組成的訓(xùn)練集,合成新的具有浮雕風(fēng)格的法向圖.Lu等[4]提出了一種不同風(fēng)格筆觸的生成方法,處理筆觸的拖尾、交叉和重疊時(shí)顏色混合的問(wèn)題.
有些研究工作將圖像風(fēng)格化轉(zhuǎn)化為紋理合成問(wèn)題.Wang等[5]由人工從參考圖像樣例中提取典型的筆觸用于合成圖像,因此每次生成的圖像和用戶的采集相關(guān).算法思想是先將圖像進(jìn)行分割,計(jì)算每個(gè)分割塊的方向場(chǎng),然后使用紋理塊的層次結(jié)構(gòu)和圖像模板合成不同分割塊的方向紋理.Brooks[6]根據(jù)參考圖像中的顏色和紋理信息把輸入圖像變?yōu)榛ù安AэL(fēng)格的圖像.Bousseau等[7]提出雙向紋理平流方法來(lái)實(shí)現(xiàn)視頻的水彩畫(huà),對(duì)整個(gè)視頻在相反方向上提取紋理平流場(chǎng),并在像素級(jí)別上優(yōu)化兩者的組合.Frigo等[8]提出了一種基于patch分割重構(gòu)的非監(jiān)督圖像風(fēng)格化方法.首先,運(yùn)用四叉樹(shù)對(duì)原圖進(jìn)行分割,然后找到風(fēng)格圖片中與之匹配的patch;其次,運(yùn)用雙線性混合消除縫線,最后進(jìn)行整體的顏色遷移,最終得到風(fēng)格化后的圖片.
基于建模的方式也被應(yīng)用于圖像風(fēng)格化.Baxter等[9]利用毛筆書(shū)寫(xiě)時(shí)的變形數(shù)據(jù),對(duì)毛筆的繪制過(guò)程進(jìn)行建模.Wang等[10]對(duì)彩色墨水的擴(kuò)散進(jìn)行建模,將水和墨的擴(kuò)散分開(kāi)考慮,使用KM理論處理像素混合顏色,而且考慮了紙的特性和重力因素.Zhang等[11]使用馬爾科夫隨機(jī)場(chǎng)將圖像風(fēng)格傳遞過(guò)程規(guī)劃為一個(gè)整體優(yōu)化問(wèn)題,并使用置信傳播算法進(jìn)行求解.Wang等[12]通過(guò)聯(lián)合使用顏色傳遞、基于突出度的多層次繪制、手顫模擬以及濕畫(huà)法模擬等技術(shù)將圖像合成為水彩畫(huà)的效果,該方法仍然無(wú)法自由控制水彩的具體風(fēng)格.Kim等[13]提出了創(chuàng)建雙目立體數(shù)字畫(huà)作的方法.Chen等[14]構(gòu)建了可模擬畫(huà)刷、油彩和畫(huà)布之間交互的實(shí)時(shí)繪畫(huà)系統(tǒng),方便用戶自由創(chuàng)作數(shù)字藝術(shù)作品.
3 基于生成模型的圖像藝術(shù)風(fēng)格化
近些年來(lái),“人工智能”一詞越來(lái)越頻繁地出現(xiàn)在大眾面前.眾所周知,人工智能就是讓機(jī)器完成原來(lái)只有人類才能完成的任務(wù).人工智能的核心是算法,而深度學(xué)習(xí)是形成算法的重要過(guò)程.深度學(xué)習(xí)的目的是模擬大腦神經(jīng)感知外部世界,因此對(duì)于深度學(xué)習(xí)的研究重點(diǎn)一直放在人工神經(jīng)網(wǎng)絡(luò)方面.而神經(jīng)網(wǎng)絡(luò)的研究使得語(yǔ)音、圖像處理領(lǐng)域有了長(zhǎng)足發(fā)展.一些學(xué)者將神經(jīng)網(wǎng)絡(luò)運(yùn)用到圖像風(fēng)格化上來(lái),用卷積的方法提取圖像在神經(jīng)網(wǎng)絡(luò)各個(gè)層的內(nèi)容和風(fēng)格信息.目前基于生成模型的圖像藝術(shù)風(fēng)格化方法是主要的研究熱點(diǎn).Gatys等[15]利用卷積神經(jīng)網(wǎng)絡(luò)提取圖像不同層級(jí)的特征,使用低層次響應(yīng)描述圖像的風(fēng)格,使用高層次響應(yīng)描述圖像的內(nèi)容,使用梯度下降調(diào)整輸入響應(yīng),在特定層次獲得特定的響應(yīng),經(jīng)多次迭代之后,輸入響應(yīng)即為特定風(fēng)格和內(nèi)容的圖像,其效果如圖2所示.該方法的缺點(diǎn)是速度很慢.Johnson等[16]提出了基于感知損失函數(shù)的實(shí)時(shí)風(fēng)格轉(zhuǎn)換方法,通過(guò)使用感知損失替代像素?fù)p失,使用預(yù)訓(xùn)練的VGG模型簡(jiǎn)化損失計(jì)算,并增加一個(gè)轉(zhuǎn)換網(wǎng)絡(luò)(網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示),從而直接生成風(fēng)格化圖像,大大提高了訓(xùn)練速度,縮短圖片產(chǎn)生的時(shí)間.Li等[17]提出了馬爾科夫生成對(duì)抗網(wǎng)絡(luò)用于訓(xùn)練生成網(wǎng)絡(luò)(網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示),對(duì)抗生成網(wǎng)絡(luò)是最近比較火的網(wǎng)絡(luò)結(jié)構(gòu)之一.生成對(duì)抗網(wǎng)絡(luò)包含2個(gè)部分,對(duì)抗網(wǎng)絡(luò)盡可能判斷出輸入的圖片是生成網(wǎng)絡(luò)產(chǎn)生的還是一張真實(shí)的圖片,生成網(wǎng)絡(luò)使產(chǎn)生的結(jié)果盡可能逼真,令對(duì)抗網(wǎng)絡(luò)信以為真.2個(gè)網(wǎng)絡(luò)相互競(jìng)爭(zhēng),使兩者都達(dá)到最好的效果.對(duì)抗網(wǎng)絡(luò)用于辨別從合成圖像取樣神經(jīng)碎片是否為真,對(duì)于每一個(gè)神經(jīng)碎片它輸出分類為s(1表示為真),然后最小化紋理?yè)p失公式,通過(guò)損失反轉(zhuǎn)使紋理?yè)p失最小.再由生成網(wǎng)絡(luò)將原圖轉(zhuǎn)換成一張風(fēng)格化后的圖片,從而實(shí)現(xiàn)高效紋理合成圖像藝術(shù)風(fēng)格化.Frigo等[18]將復(fù)雜的圖像風(fēng)格概念分解為局部紋理遷移和全局顏色遷移,以此構(gòu)建了一個(gè)無(wú)監(jiān)督的圖像風(fēng)格化方法.Ulyanov等[19]提出了一種前饋卷積神經(jīng)網(wǎng)絡(luò),產(chǎn)生大量任意尺寸的相同紋理,將給定照片的藝術(shù)風(fēng)格遷移到任意圖片上,該方法引入一個(gè)用于風(fēng)格轉(zhuǎn)移的生成網(wǎng)絡(luò),大大減少迭代的次數(shù),提高了訓(xùn)練速度,縮短圖片生成的時(shí)間.Liao等[20]提出了一種在具有相似語(yǔ)義結(jié)構(gòu)和較大外觀差異的圖像之間進(jìn)行視覺(jué)屬性遷移的方法.該方法利用從深度卷積神經(jīng)網(wǎng)絡(luò)提取的特征在2張輸入圖像之間找到語(yǔ)義上有意義的稠密對(duì)應(yīng)關(guān)系來(lái)構(gòu)建新的“圖像類比”方法,進(jìn)而使用一種由粗到細(xì)的策略來(lái)建立最近鄰域并生成風(fēng)格化結(jié)果.Zhu等[21]提出了一種在非配對(duì)圖像集之間進(jìn)行轉(zhuǎn)換的方法.該方法通過(guò)引進(jìn)Cycle Consistency的概念,在原本的生成式對(duì)抗網(wǎng)絡(luò)增加一個(gè)generator,將產(chǎn)生的目標(biāo)圖像再轉(zhuǎn)回原本的源領(lǐng)域,并且限制轉(zhuǎn)換回來(lái)的圖像要與源圖像越接近越好,如此便可在目標(biāo)域產(chǎn)生對(duì)應(yīng)的圖像.然而,該方法仍然需要在2個(gè)域分享類似的語(yǔ)義內(nèi)容才能成功.Chen等[22]給圖像風(fēng)格提供了一個(gè)明顯的表示,使得網(wǎng)絡(luò)在訓(xùn)練好之后可以從內(nèi)容中完全分離出樣式.該方法不僅可以同時(shí)訓(xùn)練多個(gè)共享自編碼的風(fēng)格,還可以在不改變自編碼的情況下,增量學(xué)習(xí)一個(gè)新的風(fēng)格.Dumoulin等[23]在文獻(xiàn)[16]的基礎(chǔ)上提出了更靈活的風(fēng)格化模型,提出了條件實(shí)例正則化的方法來(lái)混合多種不同的畫(huà)風(fēng),從而學(xué)習(xí)到風(fēng)格的表示.這種風(fēng)格表示學(xué)習(xí)的方法更有助于發(fā)現(xiàn)新的風(fēng)格.
4 人像藝術(shù)風(fēng)格化
人像藝術(shù)風(fēng)格化是圖像風(fēng)格化中的一個(gè)重要研究問(wèn)題,盡管Gatys等[15]的算法已可以進(jìn)行通用圖像的風(fēng)格轉(zhuǎn)移,但它還不適用于頭像的風(fēng)格轉(zhuǎn)移.由于空間約束不強(qiáng),直接應(yīng)用Gatys等[15]的方法可能會(huì)使人物頭部變形.對(duì)于這種類型的風(fēng)格轉(zhuǎn)移它是不可接受的.由于人的視覺(jué)系統(tǒng)對(duì)臉部細(xì)微的不正常都很敏感,自動(dòng)的肖像繪畫(huà)是一項(xiàng)巨大的挑戰(zhàn).很多研究工作采用統(tǒng)計(jì)學(xué)習(xí)模型人臉風(fēng)格化的規(guī)則.Chen等[24]采用非均勻的馬爾可夫隨機(jī)場(chǎng)描述簡(jiǎn)筆線條和真實(shí)人臉圖像的統(tǒng)計(jì)關(guān)系,并使用非均勻無(wú)參采樣技術(shù)進(jìn)行求解.生成卡通畫(huà)分為2個(gè)步驟,先生成描述線條的矢量圖,然后使用已有的筆觸合成最后的圖像,缺點(diǎn)是不同人像上的筆觸單一,且頭發(fā)部分并未實(shí)現(xiàn)自動(dòng)化以及缺乏紋理信息.Chen等[25]提出了基于五官拼貼的人臉卡通生成方法,其結(jié)果非常依賴于人臉五官輪廓線條的精度,且筆觸渲染方法也很難推廣到其他風(fēng)格的人臉卡通畫(huà)框架.Tseng等[26]關(guān)注風(fēng)格化人臉的夸張效果并同時(shí)保證生成人臉和輸入人臉的相似性.Selim等[27]提出了頭像繪畫(huà)技術(shù),當(dāng)前的技術(shù)不能很好捕捉畫(huà)作的紋理,導(dǎo)致面部結(jié)構(gòu)變形.基于圖像類比限制了他們的領(lǐng)域的適用性.此技術(shù)使用一個(gè)卷積神經(jīng)網(wǎng)絡(luò)基于新穎的空間約束的方法.這種方法在轉(zhuǎn)移繪畫(huà)風(fēng)格的同時(shí)可以保持面部結(jié)構(gòu)的完整性,其風(fēng)格化結(jié)果如圖5所示.Zhao等[28]提出了一個(gè)基于樣本的從照片生成肖像繪畫(huà)的方法,采用的方法主要是從預(yù)先由藝術(shù)家繪制的肖像模板中傳遞筆觸.Wang等[29]同樣從樣本中遷移筆觸,但他們學(xué)習(xí)了未繪制的樣本圖像和筆觸屬性之間的關(guān)系.Zhang等[30]提出了一個(gè)數(shù)據(jù)驅(qū)動(dòng)的人像卡通化生成框架,給定一幅人臉圖像,可生成多種風(fēng)格的卡通頭像.卡通頭像生成分為2個(gè)階段:人臉解析和卡通化生成.人臉解析包括人臉檢測(cè)、人臉配準(zhǔn)、性別檢測(cè)、眼鏡檢測(cè)等.利用人臉檢測(cè)和人臉配準(zhǔn)技術(shù),定位人臉圖像中的器官,提取器官并對(duì)齊.對(duì)輸入圖像中的每個(gè)真實(shí)器官,從建立的數(shù)據(jù)庫(kù)中優(yōu)化選擇相應(yīng)的卡通器官,并通過(guò)學(xué)習(xí)藝術(shù)家拼貼卡通頭像的策略對(duì)其進(jìn)行優(yōu)化調(diào)整,從而組合生成卡通頭像.
近年來(lái)人臉?biāo)孛韬铣梢驳玫搅溯^多關(guān)注,比較常用的思想是利用馬爾可夫隨機(jī)場(chǎng)的平滑性將訓(xùn)練集中的圖像和素描對(duì)分成重疊的圖像塊進(jìn)行合成,這些基于圖像塊的方法在人臉?biāo)孛柚械玫綇V泛應(yīng)用得益于其局部人臉特征的表述能力[31].Wang等[32]采用馬爾可夫隨機(jī)場(chǎng)進(jìn)行建模,把真實(shí)人臉的小塊作為隱節(jié)點(diǎn),把可能的素描塊作為顯節(jié)點(diǎn).Li等[33]通過(guò)融合從特定訓(xùn)練集中獲取的引導(dǎo)圖像內(nèi)容進(jìn)行卡通畫(huà)人臉合成,但其使用的映射規(guī)則是否有效和能否取得高質(zhì)量的合成結(jié)果無(wú)法論證.Wang等[34]同樣采用馬爾可夫隨機(jī)場(chǎng)從訓(xùn)練集中選擇最合適的近鄰以合成目標(biāo)圖像塊.Zhang等[35]從圖像塊中學(xué)習(xí)特征詞典并在搜索過(guò)程中將圖像塊替換為一組稀疏參數(shù)表示.Zhang等[36]建了只通過(guò)訓(xùn)練單一模板來(lái)合成人臉?biāo)孛璧目蚣埽褂枚嗵卣鲀?yōu)化模型來(lái)選擇備選圖像塊.基于馬爾科夫隨機(jī)場(chǎng)的方法的缺點(diǎn)是其忽略了人臉圖像的全局信息,如描述人臉五官關(guān)系的幾何信息,從而導(dǎo)致很多全局性夸張化的相關(guān)信息難以在合成圖像中體現(xiàn).使用加權(quán)平均的方法來(lái)處理圖像塊重疊區(qū)域的機(jī)制會(huì)導(dǎo)致結(jié)果中出現(xiàn)重疊變形或者過(guò)度平滑的現(xiàn)象.另外,該方法需要較長(zhǎng)的計(jì)算時(shí)間和較大的存儲(chǔ)空間,這也限制了其實(shí)際應(yīng)用.
5 目前圖像風(fēng)格化存在問(wèn)題
以上的風(fēng)格化方法主要存在以下幾個(gè)問(wèn)題.首先,藝術(shù)風(fēng)格化方法大多是基于單張圖像,比如從單張圖像中選擇典型的筆觸,在彩色玻璃中從單張圖像中尋找顏色和紋理最近的分割塊.然而,單張圖像往往無(wú)法代表一種風(fēng)格,使用單張圖像來(lái)描述一類圖像的共性是不合適的.其次,風(fēng)格化中較少考慮圖像的語(yǔ)義信息.大多的方法是根據(jù)圖像中提取的低層特征比如分割塊的方向場(chǎng)決定筆觸的位置,很少嘗試對(duì)圖像的語(yǔ)義信息進(jìn)行建模以及考慮圖像中的內(nèi)容信息.再次,圖像中的重要部分和非重要部分缺乏區(qū)分.風(fēng)格化在一定程度上對(duì)圖形進(jìn)行了抽象,比如剪影、素描、優(yōu)化等,需要考慮圖像中不同部分的重要性.文獻(xiàn)[30]做了這方面的嘗試,在皮膚、人臉上使用比較小的筆觸,在其他不太重要的風(fēng)景上使用大的筆觸,這是對(duì)圖像中不同內(nèi)容重要性進(jìn)行了區(qū)分的例子.最后,以上方法皆沒(méi)有對(duì)風(fēng)格化的結(jié)果如何進(jìn)行分析,結(jié)果好壞全靠人的主觀評(píng)斷.
6 結(jié)論
通過(guò)分析現(xiàn)有風(fēng)格化的方法,發(fā)現(xiàn)對(duì)目標(biāo)風(fēng)格圖片的筆觸、紋理、顏色等風(fēng)格信息的提取是圖像風(fēng)格化的關(guān)鍵,而人工神經(jīng)網(wǎng)絡(luò)的引入使人們對(duì)圖像風(fēng)格化的研究有了新的方向:卷積神經(jīng)網(wǎng)絡(luò)可以用來(lái)提取圖片的語(yǔ)義信息,更好地表達(dá)內(nèi)容以及風(fēng)格特征;生成對(duì)抗網(wǎng)絡(luò)的引入可以提高風(fēng)格化的速度.因此,在未來(lái)的關(guān)于風(fēng)格化的研究中,可以不斷嘗試使用人工神經(jīng)網(wǎng)絡(luò)進(jìn)行風(fēng)格化處理,更多地考慮圖片的語(yǔ)義信息以及不同部分的重要性.
參考文獻(xiàn)
References
[1] Hertzmann A.Painterly rendering with curved brush strokes of multiple sizes[C]∥Proceedings of the 25th Annual Conference on Computer Graphics and Interactive Techniques,1998:453-460
[2] Zeng K,Zhao M T,Xiong C M,et al.From image parsing to painterly rendering[J].ACM Transactions on Graphics,2009,29(1):2
[3] Luo W,Lu Z,Wang X G,et al.Synthesizing oil painting surface geometry from a single photograph[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2012:885-892
[4] Lu J,Barnes C,Diverdi S,et al.Realbrush:Painting with examples of physical media[J].ACM Transactions on Graphics,2013,32(4):117
[5] Wang B,Wang W P,Yang H P,et al.Efficient example-based painting and synthesis of 2D directional texture[J].IEEE Transactions on Visualization and Computer Graphics,2004,10(3):266-277
[6] Brooks S.Image-based stained glass[J].IEEE Transactions on Visualization and Computer Graphics,2006,12(6):1547-1558
[7] Bousseau A,Neyret F,Thollot J,et al.Video water colorization using bidirectional texture advection[J].ACM Transactions on Graphics,2007,26(3):104
[8] Frigo O,Sabater N,Delon J,et al.Split and match:Example-based adaptive patch sampling for unsupervised style transfer[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2016:2338-2351
[9] Baxter W,Govindaraju N.Simple data-driven modeling of brushes[C]∥ACMSIGG RAPH Symposium on Interactive 3D Graphics and Games,2010:135-142
[10] Wang C M,Wang R J.Image-based color ink diffusion rendering[J].IEEE Transactions on Visualization and Computer Graphics,2007,13(2):235-246
[11] Zhang W,Cao C,Chen S F,et al.Style transfer via image component analysis[J].IEEE Transactions on Multimedia,2013,15(7):1594-1601
[12] Wang M Y,Wang B,F(xiàn)ei Y,et al.Towards photo watercolorization with artistic verisimilitude[J].IEEE Transactions Visualization and Computer Graphics,2014,20(10):1451-1460
[13] Kim Y,Winnemoller H,Lee S.WYSIWYG stereo painting with usability enhancements[J].IEEE Transactions on Visualization and Computer Graphics,2014,20(7):957-969
[14] Chen Z L,Kim B,Ito D,et al.Wetbrush:GPU-based 3D painting simulation at the bristle level[J].ACM Transactions on Graphics,2015,34(6):200:1-200:11
[15] Gatys L A,Ecker A S,Bethge M.Image style transfer using convolutional neural networks[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2016:2414-2423
[16] Johnson J,Alahi A,Li F F.Perceptual losses for real-time style transfer and super-resolution[C]∥European Conference on Computer Vision,2016:694-711
[17] Li C,Wand M.Precomputed real-time texture synthesis with Markovian generative adversarial networks[C]∥European Conference on Computer Vision,2016:702-716
[18] Frigo O,Sabater N,Delon J,et al.Split and match:Example-based adaptive patch sampling for unsupervised style transfer[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2016:553-561
[19] Ulyanov D,Lebedev V,Vedaldi A,et al.Texture networks:Feed-forward synthesis of textures and stylized images[C]∥International Conference on Machine Learning,2016:1349-1357
[20] Liao J,Yao Y,Yuan L,et al.Visual attribute transfer through deep image analogy[J].ACM Transactions on Graphics,2017,36(4):120:1-120:15
[21] Zhu J Y,Park T,Isola P,et al.Unpaired image-to-image translation using cycle-consistent adversarial networks[J].arXiv e-print,2017,arXiv:1703.10593
[22] Chen D D,Yuan L,Liao J,et al.StyleBank:An explicit representation for neural image style transfer[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2017:1897-1906
[23] Dumoulin V,Shlens J,Kudlur M.A learned representation for artistic style[J].arXiv e-print,2017,arXiv:1610.07629
[24] Chen H,Zhang N N,Liang L,et al.PicToon:A personalized image-based cartoon system[C]∥ACM International Conference on Multimedia,2002:171-178
[25] Chen H,Liu Z,Rose C,et al.Example-based composite sketching of human portraits[C]∥International Symposium on Non-photorealistic Animation and Rendering,2004:95-153
[26] Tseng C C,Lien J J J.Colored exaggerative caricature creation using inter and intra-correlations of feature shapes and positions[J].Image and Vision Computing,2012,30(1):15-25
[27] Selim A,Elgharib M,Doyle L.Painting style transfer for head portraits using convolutional neural networks[J].ACM Transactions on Graphics,2016,35(4):129
[28] Zhao M T,Zhu S C.Portrait painting using active templates[C]∥ACM SIGGRAPH/Eurographics Symposium on Non-Photorealistic Animation and Rendering,2011:117-124
[29] Wang T H,Collomosse J P,Hunter A,et al.Learnable stroke models for example-based portrait painting[C]∥British Machine Vision Conference,2013:36
[30] Zhang Y,Dong W M,Ma C Y,et al.Data-driven synthesis of cartoon faces using different styles[J].IEEE Transactions on Image Processing,2017,26(1):464-478
[31] Wang N N,Tao D C,Gao X B,et al.A comprehensive survey to face hallucination[J].International Journal of Computer Vision,2014,106(1):9-30
[32] Wang X G,Tang X O.Face photo-sketch synthesis and recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(11):1955-1967
[33] Li H L,Liu G H,Ngan K N.Guided face cartoon synthesis[J].IEEE Transactions on Multimedia,2011,13(6):1230-1239
[34] Wang N N,Tao D C,Gao X B,et al.Transductive face sketch-photo synthesis[J].IEEE Transactions on Neural Networks and Learning Systems,2013,24(9):1364-1376
[35] Zhang S C,Gao X B,Wang N N,et al.Face sketch synthesis via sparse representation-based greedy search[J].IEEE Transactions on Image Processing,2015,24(8):2466-2477
[36] Zhang S C,Gao X B,Wang N N,et al.Robust face sketch style synthesis[J].IEEE Transactions on Image Processing,2016,25(1):220-232