国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的照片圖像美感質(zhì)量評(píng)估綜述

2022-07-21 11:54李文軒
軟件工程 2022年7期
關(guān)鍵詞:深度學(xué)習(xí)

摘 ?要:圖像美感質(zhì)量評(píng)估作為計(jì)算美學(xué)中重要的研究領(lǐng)域,是指利用計(jì)算機(jī)模擬人類的主觀審美思維,并在此基礎(chǔ)上對(duì)圖像的美感進(jìn)行定性或定量評(píng)估。作為圖像美感質(zhì)量評(píng)估中的一類主要研究對(duì)象,照片圖像美感質(zhì)量評(píng)估在檢索與排序、照片圖像美化等方面有著廣泛的應(yīng)用。本文主要對(duì)基于深度學(xué)習(xí)技術(shù)的照片圖像美感質(zhì)量評(píng)估研究進(jìn)行歸納和總結(jié),并從基于深度學(xué)習(xí)的美感評(píng)估這一基本思路出發(fā),依次對(duì)照片圖像美感質(zhì)量評(píng)估類別、照片圖像美感評(píng)估數(shù)據(jù)集及其建立方法進(jìn)行綜述,并對(duì)相關(guān)研究?jī)?nèi)容提出建議。

關(guān)鍵詞:計(jì)算美學(xué);深度學(xué)習(xí);照片圖像美感質(zhì)量評(píng)估;評(píng)估類別;數(shù)據(jù)集

中圖分類號(hào):TP391 ? ? 文獻(xiàn)標(biāo)識(shí)碼:A

Overview of Aesthetic Quality Evaluation of Photo

Images based on Deep Learning

LI Wenxuan

(School of Information Science and Technology, Zhejiang Sci-Tech University, Hangzhou 310018, China)

xuchange2022@163.com

Abstract: As an important research field in computational aesthetics, image aesthetic quality evaluation refers to the use of computer to simulate human subjective aesthetic thinking, and on this basis, to carry out a qualitative or quantitative evaluation of the image aesthetics. Photo image aesthetic quality evaluation, as one of the main research objects in image aesthetic quality evaluation, has been widely applied in retrieval and sorting, photo image beautification and so on. This paper mainly proposes to summarize the research on the aesthetic quality evaluation of photo images based on deep learning technology. Starting from the basic idea of the aesthetic evaluation based on deep learning, categories of photo image aesthetic quality evaluation, photo image aesthetic evaluation datasets and establishment methods are reviewed in turn, and suggestions for relevant research are put forward.

Keywords: computational aesthetics; deep learning; photo image aesthetic quality evaluation; evaluation categories;

dataset

1 ? 引言(Introduction)

美學(xué)是以藝術(shù)為主要對(duì)象,研究美、丑等審美范疇和人的審美意識(shí)、美感經(jīng)驗(yàn),以及美的創(chuàng)造、發(fā)展及其規(guī)律的科學(xué)[1]。而使用人工智能技術(shù)對(duì)圖像進(jìn)行定量或定性的評(píng)估則被稱為“計(jì)算美學(xué)[2]”,即通過(guò)研究“美”的可計(jì)算方法,使得計(jì)算機(jī)能夠?qū)D像做出符合人類傾向的審美決策,該概念在2005 年歐洲計(jì)算機(jī)圖形學(xué)會(huì)(EG)舉辦的第一屆圖形圖像視覺(jué)計(jì)算美學(xué)學(xué)術(shù)會(huì)議上被正式提出。

照片圖像美感質(zhì)量評(píng)估是“計(jì)算美學(xué)”研究的重點(diǎn)領(lǐng)域。隨著照相機(jī)、智能手機(jī)等攝影成像設(shè)備的快速普及,在線照片圖像的數(shù)據(jù)量呈指數(shù)式增長(zhǎng),產(chǎn)生了繁雜且冗余的海量在線照片圖像,因此,如何在海量照片圖像中獲取更高質(zhì)量美感的照片圖像顯得尤為重要。使用人工智能技術(shù)模擬人的審美感知,并對(duì)海量照片圖像高效地進(jìn)行美感質(zhì)量評(píng)估可以有效地解決該類問(wèn)題。

2 ?基于深度學(xué)習(xí)的照片圖像美感質(zhì)量評(píng)估基本思路(Basic ideas of photo image aesthetic quality evaluation based on deep learning)

本文總結(jié)了以照片圖像為美感評(píng)估對(duì)象,以美感質(zhì)量為美感評(píng)估任務(wù),以自動(dòng)特征提取方法為主的基于深度學(xué)習(xí)的照片圖像美感質(zhì)量評(píng)估基本思路,如圖1所示。

實(shí)際上,在研究過(guò)程中,往往對(duì)自動(dòng)特征提取和預(yù)測(cè)模型進(jìn)行統(tǒng)一的設(shè)計(jì)和訓(xùn)練,實(shí)現(xiàn)“端到端”的學(xué)習(xí)模式。并且,在確立照片圖像美感質(zhì)量評(píng)估類別階段,往往也同時(shí)考慮照片圖像美感質(zhì)量評(píng)估模型,因此,本文不再單獨(dú)對(duì)照片圖像美感質(zhì)量評(píng)估模型進(jìn)行綜述。

3 ?基于深度學(xué)習(xí)的照片圖像美感質(zhì)量評(píng)估類別(Evaluation categories of photo image aesthetic quality based on deep learning)

基于深度學(xué)習(xí)的照片圖像美感質(zhì)量評(píng)估類別可以分成三類:第一類是二元分類,即把照片圖像美感質(zhì)量按照高美感和低美感進(jìn)行定性劃分;第二類是美感分?jǐn)?shù)預(yù)測(cè),即以連續(xù)數(shù)值的形式對(duì)照片圖像美感質(zhì)量進(jìn)行量化;第三類是美感分布預(yù)測(cè),即在美感分?jǐn)?shù)預(yù)測(cè)的基礎(chǔ)上預(yù)測(cè)照片圖像美感分?jǐn)?shù)的概率分布,得到相應(yīng)的直方圖,并根據(jù)概率論和數(shù)理統(tǒng)計(jì)的知識(shí)計(jì)算出平均值、方差等數(shù)據(jù)。

3.1 ? 二元分類

二元分類是早期照片圖像美感質(zhì)量評(píng)估研究的主要內(nèi)容。2014 年,隨著卷積神經(jīng)網(wǎng)絡(luò)在圖像分類問(wèn)題上被廣泛使用并表現(xiàn)出優(yōu)異的性能,LU等人[3]首次嘗試將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于二元分類的圖像美感質(zhì)量評(píng)估研究,開(kāi)創(chuàng)了自動(dòng)提取特征方法的先河,并在進(jìn)行模型訓(xùn)練時(shí)使用隨機(jī)裁剪方法加入圖像的局部信息。

TIAN[4]通過(guò)加入跳連操作,提出了一種基于深度和淺層特征融合的圖像美感評(píng)估模型。但是以上方法的模型輸入都是固定256×256大小的照片圖像,因此針對(duì)不同大小的照片圖像需要進(jìn)行裁剪,會(huì)在一定程度上降低照片圖像的分辨率甚至導(dǎo)致照片圖像失真,影響美感質(zhì)量評(píng)估的模型性能。MA等人[5]提出一種自適應(yīng)感知的卷積神經(jīng)網(wǎng)絡(luò),通過(guò)設(shè)計(jì)算法提取多個(gè)圖像的局部特征塊作為神經(jīng)網(wǎng)絡(luò)的輸入,從而使得神經(jīng)網(wǎng)絡(luò)模型接受任意大小的圖像輸入。他們盡管實(shí)現(xiàn)了任意圖像大小的輸入,但是通過(guò)局部圖像塊的方式又會(huì)使圖像的全局結(jié)構(gòu)信息丟失。實(shí)際上,輸入圖像大小固定的原因在于輸入最后一層全連接的特征維度必須固定,MAI等人[6]在此基礎(chǔ)上通過(guò)增加自適應(yīng)空間池層固定最后的輸出維度,使得輸入圖像的大小可以不受限制。不難發(fā)現(xiàn),為了提高二元分類模型的性能,早期研究者主要圍繞局部圖像塊與全局結(jié)構(gòu)信息之間的矛盾進(jìn)行研究。

3.2 ? 美感分?jǐn)?shù)預(yù)測(cè)

隨著基于深度學(xué)習(xí)的照片圖像美感質(zhì)量評(píng)估研究的深入,二元分類的缺陷也愈發(fā)明顯,盡管其可以區(qū)分高美感圖片和低美感圖片,但是無(wú)法應(yīng)用于照片圖像質(zhì)量排序、照片圖像增強(qiáng)等場(chǎng)景。并且,相較于二元分類,回歸模型預(yù)測(cè)美感分?jǐn)?shù)也更接近人類視覺(jué)系統(tǒng)中美感評(píng)估的過(guò)程[7]。2015 年,KAO等人[8]首次將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于美感分?jǐn)?shù)預(yù)測(cè)的圖像美感質(zhì)量評(píng)估研究。但是由于圖像美感分?jǐn)?shù)的評(píng)分?jǐn)?shù)據(jù)相較于二值分類更難獲得,建立數(shù)據(jù)集的代價(jià)比較昂貴,為了減小建立數(shù)據(jù)集方面的工作量,HUANG等人[9]使用遷移學(xué)習(xí)的方法將分類任務(wù)學(xué)習(xí)到的特征遷移到回歸模型中,該方法在減小工作量的同時(shí)提高了模型的性能。但是實(shí)際上,考慮到美感評(píng)分的主觀差異,現(xiàn)今的工作大都偏向于直接預(yù)測(cè)美感分布,通過(guò)美感分布間接算出美感分?jǐn)?shù)。

3.3 ? 美感分布預(yù)測(cè)

美感分布預(yù)測(cè)是對(duì)美感分?jǐn)?shù)預(yù)測(cè)的進(jìn)一步深入,即預(yù)測(cè)人類審美評(píng)估間的概率分布,并最終以直方圖的形式進(jìn)行呈現(xiàn),同時(shí)利用概率論與數(shù)理統(tǒng)計(jì)的知識(shí),在此基礎(chǔ)上計(jì)算出均值、方差、中位數(shù)、偏度、峰度等一系列數(shù)據(jù),最終從各個(gè)角度對(duì)照片圖像美感進(jìn)行評(píng)估。其考慮到了人類審美評(píng)估的主觀性,避免了用一個(gè)連續(xù)量表示照片圖像美感所帶來(lái)的弊端。2018 年,TALEBI等人[10]首次將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于美感分布預(yù)測(cè)。他們使用遷移學(xué)習(xí)的方法,選擇性能優(yōu)異的圖像分類卷積神經(jīng)網(wǎng)絡(luò)模型,將其最后一層分類層修改為包含十個(gè)類別的全連接層,十個(gè)類別對(duì)應(yīng)十個(gè)美感分?jǐn)?shù)區(qū)間,最后經(jīng)Softmax輸出美感分布。

TALEBI等人還同時(shí)考慮到了美感分布預(yù)測(cè)的類間關(guān)系,例如第一個(gè)美感分?jǐn)?shù)區(qū)間與第二個(gè)美感分?jǐn)?shù)區(qū)間之間的聯(lián)系會(huì)比第一個(gè)美感分?jǐn)?shù)區(qū)間與第三個(gè)美感分?jǐn)?shù)區(qū)間之間的聯(lián)系更緊密,因此提出使用EMD分布距離損失函數(shù)取代交叉熵?fù)p失函數(shù)對(duì)模型進(jìn)行訓(xùn)練,最終的結(jié)果表明,EMD損失函數(shù)在美感分布預(yù)測(cè)任務(wù)中表現(xiàn)出的性能優(yōu)于交叉熵?fù)p失函數(shù)。最后,TALEBI等人通過(guò)實(shí)驗(yàn)結(jié)果證明,使用美感分布預(yù)測(cè)的結(jié)果計(jì)算平均值,從而間接得到的美感分?jǐn)?shù)相較于直接預(yù)測(cè)美感分?jǐn)?shù)的準(zhǔn)確率更高,但是根據(jù)該方法計(jì)算出來(lái)的方差準(zhǔn)確性欠佳。CUI等人[11]提出了一種語(yǔ)義感知混合網(wǎng)絡(luò),通過(guò)收集圖像中的內(nèi)容信息,比如圖像分類和場(chǎng)景類別,提高美感分布預(yù)測(cè)的性能。WANG等人[12]提出了一種能夠保留原始圖像縱橫比信息的美感分布預(yù)測(cè)方法,與CUI等人的方法相比,在沒(méi)有加入額外信息(比如圖像內(nèi)容信息)的同時(shí),仍保持較好的性能,因此該方法對(duì)其他學(xué)習(xí)任務(wù)有普適性意義。不難發(fā)現(xiàn),自TALEBI等人將深度學(xué)習(xí)應(yīng)用于美感分布預(yù)測(cè)之后,該研究方向的重點(diǎn)逐漸集中于提出不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),加入更多的圖像信息,提高模型本身的性能。

4 ?照片圖像美感質(zhì)量評(píng)估數(shù)據(jù)集(Photo image aesthetic quality evaluation datasets)

4.1 ? AVA數(shù)據(jù)集

MURRAY等人[13]在2012 年建立了照片圖像美感評(píng)估領(lǐng)域第一個(gè)大型數(shù)據(jù)集——AVA照片圖像美感評(píng)估數(shù)據(jù)集。AVA數(shù)據(jù)集收集了大約255,000 張照片圖像,每張照片圖像分別有三類注釋:第一類是美感評(píng)分,每張照片圖像由78—549 人進(jìn)行評(píng)分,平均每張照片圖像有210 名評(píng)分者,評(píng)分范圍為1—10 分,并最終根據(jù)評(píng)分的平均值得到照片圖像的美感評(píng)分?jǐn)?shù)據(jù),評(píng)分者的身份包括專業(yè)攝影師和業(yè)余愛(ài)好者。第二類是語(yǔ)義標(biāo)簽,具體為家庭、建筑、天空等66 個(gè)語(yǔ)義描述。第三類是照片圖像屬性,研究者根據(jù)光線、顏色、構(gòu)圖三種關(guān)鍵要素設(shè)計(jì)和選擇互補(bǔ)色、雙色等14 個(gè)屬性對(duì)照片圖像進(jìn)行描述。

AVA數(shù)據(jù)集來(lái)源于網(wǎng)站www.dpchallenge.com。該網(wǎng)站有一種“挑戰(zhàn)”機(jī)制,即給出一個(gè)挑戰(zhàn)標(biāo)題和簡(jiǎn)短的描述,參與者上傳符合挑戰(zhàn)要求的圖片并接受全網(wǎng)站用戶的評(píng)分,最終根據(jù)每張圖片的平均得分對(duì)其進(jìn)行排序,如圖2所示。

4.2 ? AADB數(shù)據(jù)集

KONG等人[14]在2016 年建立了AADB數(shù)據(jù)集,包含大約10,000 張圖像,每張圖像有兩類標(biāo)簽:第一類是美感評(píng)分,評(píng)分范圍為1—5 分;第二類是美感屬性,研究者借鑒傳統(tǒng)攝影原理,設(shè)計(jì)和選擇三分法則、運(yùn)動(dòng)模糊、平衡元素等八個(gè)美感屬性對(duì)圖像進(jìn)行描述。

AADB數(shù)據(jù)集的圖像來(lái)源于網(wǎng)站www.flickr.com,研究者從該網(wǎng)站下載大量圖像并進(jìn)行人工清洗,去除非照片圖像,最終得到10,000 張照片圖像,然后五位評(píng)分者在AMT眾包平臺(tái)對(duì)其依次進(jìn)行評(píng)估??紤]到不同評(píng)分者評(píng)估的主觀差異,并為了確保在對(duì)大量圖片進(jìn)行評(píng)估的過(guò)程中不會(huì)出現(xiàn)錯(cuò)誤注釋,評(píng)分者的個(gè)體評(píng)估信息被記錄下來(lái),通過(guò)概率論和數(shù)理統(tǒng)計(jì)的知識(shí)計(jì)算出個(gè)體評(píng)分間的顯著性差異,從而實(shí)現(xiàn)去除錯(cuò)誤數(shù)據(jù)的效果。

4.3 ? AROD數(shù)據(jù)集

SCHWARZ等人[15]于2017 年建立了AROD數(shù)據(jù)集,其圖像來(lái)源和AADB數(shù)據(jù)集圖像來(lái)源一致,都來(lái)自網(wǎng)站www.flickr.com。但是與AADB數(shù)據(jù)集構(gòu)建方法不同,SCHWARZ等人通過(guò)建立一種美感模型從而直接利用該網(wǎng)站圖像的在線描述信息,比如圖像喜好人數(shù)和查看次數(shù),直接推導(dǎo)計(jì)算出美感分?jǐn)?shù)。該方法能夠大批量獲取圖像數(shù)據(jù)和美感分?jǐn)?shù),因此AROD數(shù)據(jù)集一共包含了大約38萬(wàn)張照片圖像,規(guī)模遠(yuǎn)遠(yuǎn)大于AADB數(shù)據(jù)集。AROD數(shù)據(jù)集示例如圖3所示。

4.4 ? 對(duì)比分析

如前文所述,AVA數(shù)據(jù)集中的圖像來(lái)源于www.dpchallenge.com,該網(wǎng)站能夠獲取大量有美感評(píng)分的照片圖像,但是該網(wǎng)站采用“挑戰(zhàn)”機(jī)制,用戶大多偏向上傳經(jīng)過(guò)二次處理的美化后的照片,因此該數(shù)據(jù)集的整體圖像美感質(zhì)量分布并不均衡,多以二次處理后的專業(yè)照片圖像為主,高美感照片圖像遠(yuǎn)遠(yuǎn)多于低美感照片圖像,因此無(wú)法真實(shí)地代表人類照片圖像的分布情況。相較于AVA數(shù)據(jù)集,AADB數(shù)據(jù)集的照片圖像更加均衡,它同時(shí)包含了普通攝影照片和專業(yè)攝影照片,且二者比例接近。并且,AVA數(shù)據(jù)集中照片圖像的美感屬性標(biāo)簽是研究者通過(guò)對(duì)每類“挑戰(zhàn)”進(jìn)行注釋,從而間接對(duì)該“挑戰(zhàn)”下的全部照片圖像打上同樣的二元標(biāo)簽,而AADB數(shù)據(jù)集則是評(píng)分者依次對(duì)每個(gè)照片圖像進(jìn)行評(píng)估,相比之下,AADB數(shù)據(jù)集在美感屬性標(biāo)簽方面的注釋更加準(zhǔn)確。但是AADB數(shù)據(jù)集的總體評(píng)分人數(shù)過(guò)少,相較于AVA每張照片圖像平均有210 名評(píng)分者評(píng)分,AADB數(shù)據(jù)集每張照片圖像僅有五名評(píng)分者進(jìn)行打分,因此在評(píng)分人數(shù)方面有所不足,沒(méi)有廣泛的代表性。另外,AVA數(shù)據(jù)集和AADB數(shù)據(jù)集的注釋都來(lái)自人工標(biāo)注,而AROD數(shù)據(jù)集獲取注釋的方法是直接利用在線的信息得到美感分?jǐn)?shù),不需要在人工評(píng)分上花費(fèi)大量精力,因此在數(shù)據(jù)集建立方面,AROD數(shù)據(jù)集提供了一種全新的思路。

與圖像分類數(shù)據(jù)集相比,圖像美感評(píng)估數(shù)據(jù)集的建立更加困難,因?yàn)閳D像分類問(wèn)題是一個(gè)模擬人類客觀感知的過(guò)程,而圖像美感評(píng)估是模擬人類主觀感知的過(guò)程。在建立照片圖像美感評(píng)估數(shù)據(jù)集的時(shí)候,照片圖像數(shù)量、照片圖像質(zhì)量的均衡程度、評(píng)分者數(shù)量和審美水平、錯(cuò)誤標(biāo)簽的去除,甚至建立數(shù)據(jù)集的工作量都是需要研究者考慮的。

5 ? 結(jié)論(Conclusion)

基于深度學(xué)習(xí)的照片圖像美感質(zhì)量評(píng)估作為計(jì)算美學(xué)中非常重要的研究?jī)?nèi)容,因其能夠在海量照片圖像中檢索并推送高美感質(zhì)量照片圖像,在當(dāng)今移動(dòng)互聯(lián)網(wǎng)時(shí)代有著廣泛的應(yīng)用。本文從基于深度學(xué)習(xí)的照片圖像美感質(zhì)量評(píng)估基本思路出發(fā),對(duì)三種照片圖像美感評(píng)估類別進(jìn)行了詳細(xì)的歸納。同時(shí),按照時(shí)間順序梳理了該領(lǐng)域主要的三個(gè)照片圖像美感質(zhì)量評(píng)估數(shù)據(jù)集,并對(duì)其優(yōu)缺點(diǎn)進(jìn)行了分析。

數(shù)據(jù)集在照片圖像美感評(píng)估中起著至關(guān)重要的作用,但由于人類評(píng)估的主觀性,建立數(shù)據(jù)集的難度較大。盡管一些研究者使用遷移學(xué)習(xí)的方法對(duì)數(shù)據(jù)集的重要性進(jìn)行弱化,如DONG等人[16]提出使用AlexNet[17]模型中倒數(shù)第二層的輸出作為美感評(píng)估的特征,然后訓(xùn)練支持向量機(jī)對(duì)照片圖像進(jìn)行二元分類;LI等人[18]使用包含兩次微調(diào)的嵌入式學(xué)習(xí),進(jìn)一步利用圖像分類模型提高照片圖像美感評(píng)估的準(zhǔn)確率,但是遷移學(xué)習(xí)在該領(lǐng)域的研究仍未達(dá)到飽和。并且,利用深度學(xué)習(xí)技術(shù)構(gòu)建的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的特征缺乏可解釋性,如何進(jìn)一步深入探究照片圖像美感評(píng)估工作的學(xué)習(xí)過(guò)程,是相關(guān)研究者需要思考解決的問(wèn)題。

參考文獻(xiàn)(References)

[1] 朱立元.美感大辭典[M].上海:上海辭書(shū)出版社,2010:1.

[2] HOENIG F. Defining computational aesthetics[C]// NEUMANN L, SBERT M, GOOCH B, et al. Computational Aesthetics in Graphics, Visualization and Imaging. Girona,Spain: The Eurographics Association, 2005:13-18.

[3] LU X, LIN Z, JIN H L, et al. Rating pictorial aesthetics using deep learning[J]. IEEE Transactions on Multimedia, 2015, 17(11):1.

[4] TIAN X L. Aesthetic evaluation of images based on deep and shallow feature fusion network models[C]// LIU N S, WANG Y S, FU Y G, et al. EITCE 2020: 2020 4th International Conference on Electronic Information Technology and Computer Engineering. New York, USA: ACM, 2020:

814-818.

[5] MA S, LIU J, CHEN C W. A-lamp: Adaptive layout-aware multi-patch deep convolutional neural network for photo aesthetic assessment[C]// MORTENSEN E, YUAN J S, TUREK M, et al. IEEE Conference on Computer Vision and Pattern Recognition. Los Angeles, USA: IEEE Computer Society, 2017:4535-4544.

[6] MAI L, JIN H L, LIU F. Composition-preserving deep photo aesthetics assessment[C]// MORTENSEN E, YUAN J S, TUREK M, et al. IEEE Conference on Computer Vision and Pattern Recognition. Los Angeles, USA: IEEE Computer Society, 2016:497-506.

[7] DATTA R, LI J, WANG J Z. Algorithmic inferencing of aesthetics and emotion in natural images: An exposition[C]// ALZAHIR S, LABEAU F, MOCK K, et al. IEEE International Conference on Image Processing. Los Angeles, USA: IEEE Computer Society, 2008:105-108.

[8] KAO Y, WANG C, HUANG K Q. Visual aesthetic quality assessment with a regression model[C]// ALZAHIR S, LABEAU F, MOCK K, et al. IEEE International Conference on Image Processing. Los Angeles, USA: IEEE Computer Society, 2015:1583-1587.

[9] HUANG W Z, YANG P P, HUANG K Q. From classification to regression: Model transfer for visual aesthetic quality assessment[C]// KIMURA A, ALIREZA A, DENGEL A, et al. 2017 4th IAPR Asian Conference on Pattern Recognition. Los Angeles, USA: IEEE Computer Society, 2017:304-309.

[10] TALEBI H, MILANFAR P. NIMA: Neural image assessment[J]. IEEE Transactions on Image Processing, 2018, 27(8):3998-4011.

[11] CUI C R, LIU H H, LIAN T, et al. Distribution-oriented aesthetics assessment with semantic-aware hybrid network[J]. IEEE Transactions on Multimedia, 2019, 21(5):1209-1220.

[12] WANG L, WANG X, YAMASAK T, et al. Aspect-ratio-preserving multi-patch image aesthetics score prediction[C]// DAVIS L, TORR P, ZHU S C, et al. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Los Angeles, USA: IEEE Computer Society, 2019:1833-1842.

[13] MURRAY N, MARCHESOTTI L, PERRONNIN F. AVA: A large-scale database for aesthetic visual analysis[C]// MORTENSEN E, YUAN J S, TUREK M, et al. IEEE Conference on Computer Vision and Pattern Recognition. Los Angeles, USA: IEEE Computer Society, 2012:2408-2415.

[14] KONG S, SHEN X H, LIN Z, et al. Photo aesthetics ranking network with attributes and content adaptation[C]// LEIBE B, MATAS J, SEBE N, et al .European Conference on Computer Vision. Berlin, Germany: Springer, 2016:662-679.

[15] SCHWARZ K, WIESCHOLLEK P, LENSCH H. Will people like your image? Learning the aesthetic space[C]// KOVASHKA A, BOWYER K, MORTENSEN E, et al. IEEE Winter Conference on Applications of Computer Vision. Los Angeles, USA: IEEE Computer Society, 2018:2048-2057.

[16] DONG Z, SHEN X, LI H Q, et al. Photo quality assessment with DCNN that understands image well[C]// HE X J, LUO S H, TAO D C, et al. International Conference on Multimedia Modeling. Berlin, Germany: Springer, 2015:

524-535.

[17] KRIZHEVSKY A, SUTSKEYER I, HINTON G. ImageNet classification with deep convolutional neural networks[J]. Advances in Neural Information Processing Systems, 2012, 25:1097-1105.

[18] LI Y X, PU Y Y, XU D, et al. Image aesthetic quality evaluation using convolution neural network embedded learning[J]. Optoelectronics Letters, 2017, 13(6):471-475.

作者簡(jiǎn)介:

李文軒(2001-),男,本科生.研究領(lǐng)域:計(jì)算美學(xué),計(jì)算機(jī)圖形學(xué).

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
汉沽区| 南溪县| 香港| 龙江县| 和龙市| 安国市| 云南省| 武隆县| 兴隆县| 临桂县| 镇沅| 日照市| 白玉县| 那曲县| 麟游县| 历史| 涿鹿县| 阿拉善右旗| 南召县| 上杭县| 方城县| 瑞金市| 石景山区| 富民县| 孟津县| 九台市| 宁蒗| 滨州市| 新绛县| 利川市| 长阳| 阜宁县| 通渭县| 柘荣县| 沐川县| 丁青县| 奎屯市| 沿河| 云龙县| 武胜县| 开封县|