摘要:基于連續(xù)表示的圖像超分辨可以實現(xiàn)任意倍數(shù)的圖像分辨率縮放,目前已成為當(dāng)前該領(lǐng)域研究的主流趨勢。隱式神經(jīng)表示方法將坐標(biāo)信息與深度特征信息作為輸入,給定坐標(biāo)下的RGB值(紅綠藍(lán)值)作為輸出,提供了構(gòu)建局部連續(xù)表示的基本框架,是典型的連續(xù)表示方法。然而,隱式神經(jīng)表示方法未能充分考慮圖像的局部結(jié)構(gòu)信息。為此,提出了基于權(quán)重學(xué)習(xí)和注意力機制的隱式神經(jīng)表示方法。首先,引入權(quán)重學(xué)習(xí)模塊,該模塊借助梯度信息和多層感知機學(xué)習(xí)臨近特征點的權(quán)重。其次,引入通道注意力機制,以此增強特征通道中的關(guān)鍵信息,提升圖像局部連續(xù)表示的準(zhǔn)確性。數(shù)值實驗結(jié)果表明,通過這兩種機制的共同作用,該算法的性能相較于現(xiàn)有算法有了顯著提升,表現(xiàn)出強大的競爭力。
關(guān)鍵詞:超分辨率重建;隱式神經(jīng)表示;卷積神經(jīng)網(wǎng)絡(luò);注意力機制
中圖分類號:TP391.41文獻(xiàn)標(biāo)志碼:A
0引言(Introduction)
圖像超分辨率重建(ImageSuper\|Resolution,SR)是將低分辨率(LowResolution,LR)圖像轉(zhuǎn)換為高分辨率(HighResolution,HR)圖像的過程,它作為計算機視覺領(lǐng)域的重要問題之一,近年備受矚目?,F(xiàn)有SR方法主要側(cè)重處理整數(shù)倍的縮放因子,任意倍縮放因子的SR問題卻一直被忽略。為了應(yīng)對目前SR領(lǐng)域中難以實現(xiàn)任意尺度放大的問題,本文采用了隱式神經(jīng)表示的方法用于連續(xù)圖像表示,其中網(wǎng)絡(luò)以圖像坐標(biāo)和像素點的深度特征信息作為輸入,預(yù)測給定坐標(biāo)處的RGB值。在使用歐氏距離衡量周圍特征點對采樣點影響的基礎(chǔ)上,引入權(quán)重學(xué)習(xí)模塊,該模塊充分考慮圖像梯度信息,通過網(wǎng)絡(luò)學(xué)得的權(quán)重系數(shù)對RGB值進(jìn)行高效而精準(zhǔn)的調(diào)整;通過引入通道注意力機制[1]提高網(wǎng)絡(luò)的感知能力,更有效地捕捉關(guān)鍵特征,進(jìn)而顯著提升了圖像質(zhì)量。在這兩項改進(jìn)措施的共同作用下,本文提出的SR算法在多個數(shù)據(jù)集上均實現(xiàn)了性能的提升。
1相關(guān)工作(Relatedwork)
在隱式神經(jīng)表示中,使用隱式神經(jīng)函數(shù)即數(shù)學(xué)模型多層感知機(MultiLayerPerceptron,MLP)[2]將坐標(biāo)映射為圖像信息。該思路在模擬三維物體[3]的形狀、場景的外表和結(jié)構(gòu)的外觀上得到了廣泛應(yīng)用。MILDENHALL等[4]提出通過學(xué)習(xí)多個圖片視角,創(chuàng)建了一個對特定場景的隱式表示。與傳統(tǒng)的方法不同,這種連續(xù)的隱式表示可以用很少的參數(shù)描述物體的微小細(xì)節(jié),而且它還可以被訓(xùn)練來生成新的圖像視角。這種方法在計算機圖形和視覺領(lǐng)域有著廣泛的應(yīng)用,可以更好地理解和呈現(xiàn)三維物體和場景。該方法通常使用一個函數(shù)進(jìn)行表示,該函數(shù)接收輸入的坐標(biāo)信息和其他參數(shù),并映射到一個輸出,通常是圖像或其他數(shù)據(jù)的特征或?qū)傩?,?/p>
本文網(wǎng)絡(luò)框架如圖1所示,通過卷積神經(jīng)網(wǎng)絡(luò)[5]的主干網(wǎng)絡(luò)(CNNBackbone)對輸入的LR圖像進(jìn)行深度特征提取。隨后,經(jīng)過基于注意力機制的特征擴充模塊的作用,生成所需的像素特征。在坐標(biāo)空間提取LR圖像與HR圖像像素點坐標(biāo)之間的函數(shù)關(guān)系。將坐標(biāo)信息、深度特征信息與考慮像素點大小的像素尺度感知模塊進(jìn)行拼接,共同傳入隱式神經(jīng)函數(shù)進(jìn)行訓(xùn)練。同時,引入權(quán)重學(xué)習(xí)模塊,通過像素點梯度信息調(diào)整網(wǎng)絡(luò)結(jié)果,以提升網(wǎng)絡(luò)的魯棒性。
在基于局部隱式神經(jīng)表示的SR處理方法中,首先對輸入的圖像進(jìn)行深度特征提取,這一步驟通過特征提取網(wǎng)絡(luò),將每個連續(xù)的圖像轉(zhuǎn)化為一個二維特征圖F(i)∈RH×W×D。其中,H×W個特征點均勻地分布在二維域中,每個特征點在F(i)中代表連續(xù)圖像的局部部分,負(fù)責(zé)預(yù)測與自身最近的一組坐標(biāo)的信號。引入隱式神經(jīng)函數(shù),將接收輸入的坐標(biāo)信息及其他相關(guān)參數(shù)一并用于預(yù)測圖像中某個特定像素點的RGB值,即
Iq=(v,x)[JZ)][JY](2)
其中:v為二維特征圖F(i)的特征點,x為像素點對應(yīng)的坐標(biāo)信息,Iq為經(jīng)過隱式神經(jīng)函數(shù)預(yù)測出像素點的RGB值信息。
通過隱式神經(jīng)函數(shù),成功建立了離散的像素信息和連續(xù)的坐標(biāo)信息之間的關(guān)聯(lián),使得圖像的每個像素點都具有空間位置的參考。對于一張連續(xù)的圖片I(i),采樣點p處的RGB值被定義為
I(i)(p)=(v,δ(p,x))[JZ)][JY](3)
其中:v為采樣點p在F中最鄰近(歐氏距離最?。┑奶卣鼽c;x為最鄰近特征點的坐標(biāo)信息;δ(·)表示采樣點p與最臨近x之間的坐標(biāo)關(guān)系函數(shù),對于關(guān)系函數(shù)δ(·)的建模方式有很多種,例如Transformer[6]中常用的點積和阿達(dá)瑪積。本文中采用減法運算,使計算量更小,同時取得了令人滿意的模型性能,即
δ(p,x)=γ(p)-η(x)[JZ)][JY](4)
其中:γ、η分別表示采樣點與其鄰近特征點的坐標(biāo)信息映射函數(shù),本文選擇恒等映射實現(xiàn)映射函數(shù)。如圖2所示,在采樣點p處的RGB值由最近鄰特征點v00、p點坐標(biāo)與v00點坐標(biāo)x之間的函數(shù)關(guān)系共同決定。這一步驟的目的是確保在HR圖像中的每個像素點都能夠?qū)?yīng)到LR圖像上的合適位置,從而保持了圖像的幾何一致性和空間關(guān)系。這種坐標(biāo)空間的映射策略有助于保持圖像的空間連續(xù)性,以便更準(zhǔn)確地還原HR圖像的像素信息,確保生成的HR圖像具有更好的視覺質(zhì)量和細(xì)節(jié)。
2.1基于注意力的特征信息擴充
在經(jīng)過CNNBackbone進(jìn)行特征提取處理后,LR圖像中原本包含RGB三個通道的信息被轉(zhuǎn)化成具有多個通道的特征圖F(i)。為了有效學(xué)習(xí)每個通道對模型任務(wù)的貢獻(xiàn)度,本文引入了通道注意力機制。該機制利用輸出的F(i),綜合分析每個通道的特征,生成一個實數(shù)表示每個通道的全局分布信息,增加了通道之間的相關(guān)性。通過全局池化結(jié)果,為每個特征通道分配權(quán)重,衡量其在當(dāng)前任務(wù)中的重要性。最后,通過對原始特征進(jìn)行加權(quán)運算,在通道維度上加強具有重要性的特征通道,并抑制不相關(guān)或不重要的特征通道,從而得到更優(yōu)化的特征表示Fatt(i)。
為了增加Fatt(i)中每個特征點信息的信息量,本文采用了特征信息擴充的方法得到了[AKF-]att(i)。在[AKF-]att(i)中,每個特征點信息都是由其本身和周圍3×3個像素特征區(qū)域內(nèi)的其他8個特征點的通道特征信息進(jìn)行拼接得到的,對于位于圖像邊界以外的特征點,使用零向量進(jìn)行填充?;谧⒁饬C制的特征信息擴充的操作如下:
[AKF-]att(i)lm=concat({Fatt(i)l+j,m+k}j,k∈{-1,0,1})[JZ)][JY](5)
其中,concat表示向量拼接操作,在進(jìn)行特征信息擴充后,[AKF-]att(i)代替Fatt(i)進(jìn)行后續(xù)計算?;谕ǖ雷⒁饬Φ奶卣餍畔U充操作如圖3所示,本文的網(wǎng)絡(luò)在通道注意力機制的引導(dǎo)下進(jìn)行了特征信息擴充,通過引入通道注意力機制,更加有效地調(diào)控不同通道之間的相關(guān)性,使網(wǎng)絡(luò)更專注于學(xué)習(xí)關(guān)鍵特征信息,同時進(jìn)行特征信息擴充,以便更全面地捕捉圖像局部結(jié)構(gòu)和紋理信息,從而提高了模型的表達(dá)能力和性能。
2.2像素尺度感知
受到ViT[7](VisionTransformer)中使用[class]模塊作為額外全局信息用于分類的啟發(fā),本文提出了像素尺度感知的[Scale]模塊,用于擴充輸入的坐標(biāo)信息。[Scale]模塊表示像素點的大小信息,通過添加該模塊,隱式神經(jīng)函數(shù)能夠?qū)⒉樵兿袼氐男螤钭鳛轭~外信息用于重構(gòu)目標(biāo)RGB值。將像素坐標(biāo)信息與[Scale]進(jìn)行拼接,隨后將其饋送到隱式神經(jīng)函數(shù)中,公式(2)被重新定義為
其中:s=(sh,sw)是一個二維特征,代表當(dāng)前像素點的尺寸大小信息;concat(x,s)表示對當(dāng)前像素點的坐標(biāo)信息與尺寸信息進(jìn)行拼接操作。
2.3權(quán)重學(xué)習(xí)
在公式(3)中,通過使用單一特征點預(yù)測采樣點的RGB值可能導(dǎo)致預(yù)測結(jié)果的不連續(xù)性,尤其是當(dāng)采樣點在空間域上移動時,特征點的選擇可能會發(fā)生突變。為了應(yīng)對這一挑戰(zhàn),LIIF[8](LocalImplicitImageFunction)借鑒了雙線性插值[9]的思想,使用每個采樣點周圍的4個特征點構(gòu)成一個網(wǎng)格狀的正方形區(qū)域,與采樣點的坐標(biāo)相對應(yīng),使用歐氏距離衡量每個特征點對采樣點的影響,并通過區(qū)域面積量化這種影響。這樣做的目的是使由局部特征點表示的局部片段能夠與其周圍的局部片段重合,從而確保每個采樣點都有4個獨立的特征點對其進(jìn)行獨立的預(yù)測。在實際應(yīng)用中,單純依靠距離信息評估特征點與采樣點的相互影響并不夠,梯度變化的角色同樣關(guān)鍵。例如,一個像素點雖然距離某特征點較遠(yuǎn),但是若該特征點的特征變化劇烈,那么它的特征信息可能受到梯度變化較大且距離較遠(yuǎn)的像素點的影響更大。
因此,本文通過運用Canny算子[10]獲取圖像中的像素點梯度信息,并將其與特征點與采樣點的相對距離信息結(jié)合,通過網(wǎng)絡(luò)訓(xùn)練,共同確定權(quán)重。相較于LIIF通過面積預(yù)測的人為權(quán)重,采用梯度信息通過網(wǎng)絡(luò)進(jìn)行預(yù)測的方法充分考慮了像素點的變化率,使得模型更加關(guān)注顏色或紋理變化明顯的區(qū)域,從而能夠更準(zhǔn)確地指導(dǎo)信號估計。這種方式更貼近圖像特性,有效地提升了對局部結(jié)構(gòu)信息的捕捉和重建能力。對于采樣點p處的RGB值的預(yù)測,對周圍4個特征點的特征信息進(jìn)行統(tǒng)籌考慮,每個特征點的權(quán)重大小由其梯度信息和與采樣點的相對距離共同決定,即
其中:vt(t∈{00,01,10,11})是指二維空間中左上、右上、左下、右下子空間中距離采樣點最近的特征點;wt(βt)表示其經(jīng)隱式神經(jīng)函數(shù)作用后,各自對應(yīng)的權(quán)重系數(shù),這里的權(quán)重系數(shù)是通過梯度調(diào)整網(wǎng)絡(luò)訓(xùn)練得到的,即
t表示像素點的梯度信息,τt表示特征點與采樣點的相對距離。綜合考慮梯度和距離信息,可以更全面地捕捉特征點對預(yù)測結(jié)果的貢獻(xiàn),使得模型能夠更好地適應(yīng)圖像中的各種變化。
3實驗與結(jié)果分析(Experimentandresultsanalysis)
3.1數(shù)據(jù)集
本研究采用DIV2K[11]數(shù)據(jù)集,該數(shù)據(jù)集包含了高質(zhì)量、現(xiàn)實世界背景下的2k分辨率圖像(2048×1080像素)。這些圖像的多樣性體現(xiàn)在它們覆蓋了各種場景、結(jié)構(gòu)和紋理,為SR算法的訓(xùn)練和評估提供了一個全面且真實的樣本庫。在實驗設(shè)計中,遵循了標(biāo)準(zhǔn)的數(shù)據(jù)分割方法,從DIV2K數(shù)據(jù)集中精選了800張圖像用于訓(xùn)練。在測試階段,采用DIV2K的驗證集進(jìn)行實驗驗證,該驗證集共包含100張圖像,除此之外,還在4個標(biāo)準(zhǔn)的基準(zhǔn)數(shù)據(jù)集(Set5[12]、Set14[13]、B100[14]和Urban100[15])上對算法的性能進(jìn)行了全面的評估。
3.2實驗設(shè)置
在本研究中,所有實驗均在精心配置的計算環(huán)境下進(jìn)行,以確保實驗結(jié)果的準(zhǔn)確性和可重現(xiàn)性。實驗環(huán)境基于Ubuntu18.04LTS操作系統(tǒng),并利用了Python3.7作為主要的編程語言,深度學(xué)習(xí)實驗主要依賴于PyTorch1.7.1框架。所有深度學(xué)習(xí)相關(guān)的模型訓(xùn)練和測試均在搭載NVIDIAA100GPU(具有40GB顯存)的高性能計算機上執(zhí)行。
實驗中以隨機裁剪48×48個像素區(qū)域的圖像塊作為特征提取網(wǎng)絡(luò)的輸入,并采用Adam優(yōu)化器,初始學(xué)習(xí)率設(shè)置為1×10-4,模型經(jīng)過1000個訓(xùn)練周期,批處理大小為16,每經(jīng)過200個訓(xùn)練周期,學(xué)習(xí)率會衰減為原來的0.5倍。本文的模型具有高度的靈活性,可以與不同的特征提取網(wǎng)絡(luò)相結(jié)合,隱式神經(jīng)函數(shù)(·)和梯度調(diào)整網(wǎng)絡(luò)φ(·)分別由具有ReLU激活函數(shù)的5層MLP和2層MLP組成,隱藏層維度均為256。在整個訓(xùn)練過程中,采用L1損失函數(shù)。
3.3消融實驗
為驗證基于注意力的特征信息擴充模塊和權(quán)重學(xué)習(xí)模塊對超分辨率性能的實際貢獻(xiàn),本文設(shè)計了消融實驗。在Urban100數(shù)據(jù)集上,分別移除了基于注意力的特征信息擴充模塊和權(quán)重學(xué)習(xí)模塊,以評估它們對2倍、3倍、4倍、6倍和8倍放大倍數(shù)下超分辨率性能的影響,×和√分別表示移除和保留該模塊。消融實驗比較結(jié)果如表1所示。從表1中的數(shù)據(jù)可以觀察到,在各個放大倍數(shù)下,移除基于注意力的特征信息擴充模塊和權(quán)重學(xué)習(xí)模塊導(dǎo)致測試得到的峰值信噪比(PeakSignal\|to\|NoiseRatio,PSNR)最低。隨后,逐步添加基于注意力的特征信息擴充模塊和權(quán)重學(xué)習(xí)模塊后發(fā)現(xiàn),在5種放大倍數(shù)下,PSNR均有增長,特別是在同時添加兩個模塊時,相較于沒有這兩個模塊的情況,PSNR在2倍、3倍、4倍、6倍和8倍放大倍數(shù)下分別提升了0.06dB、0.06dB、0.07dB、0.08dB、0.06dB,進(jìn)一步證明了兩個網(wǎng)絡(luò)模塊的共同作用對提高模型精度具有積極效果。
3.4對比實驗
實驗中采用了EDSR[16](EnhancedDeepResidualNetworks)和RDN[17](ResidualDenseNetwork)兩種深度特征提取網(wǎng)絡(luò),兩種深度特征提取網(wǎng)絡(luò)都是通過深度堆疊和殘差學(xué)習(xí)的方式,以不同的方式有效地提取和傳遞圖像特征。將這兩種網(wǎng)絡(luò)提取的特征與本文的SR方法進(jìn)行融合,再將本文的SR方法分別與雙三次插值[18](Bicubic)、采用EDSR和RDN網(wǎng)絡(luò)進(jìn)行特征提取的MetaSR[19]網(wǎng)絡(luò)(EDSR\|MetaSR、RDN\|MetaSR)以及采用EDSR和RDN網(wǎng)絡(luò)進(jìn)行特征提取的LIIF網(wǎng)絡(luò)(EDSR\|LIIF、RDN\|LIIF)進(jìn)行評估,選擇PSNR作為評價指標(biāo)。在DIV2K驗證集上進(jìn)行方法性能的對比,對比結(jié)果如表2所示。由表2可得,本文算法在DIV2K驗證集上的性能表現(xiàn)最出色,相較于其他算法,在8種放大倍數(shù)下都展現(xiàn)出更好的性能。在4個標(biāo)準(zhǔn)基準(zhǔn)數(shù)據(jù)集Set5、Set14、B100和Urban100上的對比結(jié)果如表3所示。由表3中的數(shù)據(jù)可知,本文算法在4個數(shù)據(jù)集上的總體性能表現(xiàn)最優(yōu)。特別是在Urban100數(shù)據(jù)集上,本文算法展現(xiàn)出卓越的性能,這主要歸因于Urban100數(shù)據(jù)集中蘊含了豐富的細(xì)節(jié)、復(fù)雜的紋理及多樣的特殊結(jié)構(gòu)。在面對這些具有挑戰(zhàn)性的圖像內(nèi)容時,本文算法能夠更為出色地捕捉和重建圖像中的關(guān)鍵信息。
除了進(jìn)行定量評估,為了更直觀地對比本文算法與其他算法在視覺上的有效性,在測試集中選擇了照片,如圖4和圖5所示,展示了各種對比模型在6倍和10倍超分辨率重建下的部分圖像效果。從圖4中可以看出,采用本文提出的網(wǎng)絡(luò)進(jìn)行圖像重建后,較好地呈現(xiàn)了完整的細(xì)節(jié)。在DIV2K_0835中,更清晰地呈現(xiàn)了花蕊的信息;在DIV2K_0879中,有效地保留了遠(yuǎn)處樓梯的細(xì)節(jié);在DIV2K_0878和DIV2K_0888中,成功地消除了多余的偽影信息。這些結(jié)果表明本文算法在不同圖像上能夠有效地還原并增強圖像的細(xì)節(jié)信息。
進(jìn)行10倍重建的圖像中(圖5),本文算法在多個場景中均展現(xiàn)出顯著的性能優(yōu)勢。在Set14_lenna中,方框標(biāo)注區(qū)域顯示本文算法明顯消除了帽檐處的多余偽影信息;在B100_126007中,方框標(biāo)注區(qū)域凸顯了本文算法恢復(fù)出更為清晰的樓梯信息;在B100_103070中,方框標(biāo)注區(qū)域表明本文算法使鳥兒的眼睛信息更加圓潤清晰;在Set14_comic中,方框標(biāo)注區(qū)域表明本文算法成功地消除了鼻尖處的偽影信息。這些觀察結(jié)果進(jìn)一步證實了本文算法在高倍數(shù)重建任務(wù)中的卓越性能,特別是在偽影去除和細(xì)節(jié)恢復(fù)方面相較于LWACEkK/R8aV19GRlbTpOYQ==IIF更為出色。在每個場景中,方框標(biāo)注區(qū)域都凸顯了本文算法相對于LIIF的優(yōu)越之處。該方法提高了重建圖像的整體質(zhì)量。
4結(jié)論(Conclusion)
本文致力于解決連續(xù)圖像超分辨率重建中存在的局部結(jié)構(gòu)信息不足的問題,通過引入權(quán)重學(xué)習(xí)模塊和通道注意力機制,提升了圖像表示的連續(xù)性和質(zhì)量。權(quán)重學(xué)習(xí)模塊通過深度學(xué)習(xí)網(wǎng)絡(luò)捕捉梯度信息與RGB值之間的內(nèi)在關(guān)聯(lián),充分考慮圖像局部結(jié)構(gòu)的精細(xì)特征,從而實現(xiàn)對圖像任意分辨率的高效、精準(zhǔn)表示;通道注意力機制優(yōu)化了關(guān)鍵信息在特征通道中的學(xué)習(xí)過程,進(jìn)一步提升了圖像表示的準(zhǔn)確性。實驗證明,本文的方法在不同放大倍數(shù)下均展現(xiàn)出卓越的視覺效果,顯著提升了圖像超分辨率重建的質(zhì)量。這一創(chuàng)新性的解決方案不僅驗證了其技術(shù)優(yōu)越性,還為連續(xù)圖像超分辨率重建領(lǐng)域開辟了一條新的、高效的研究路徑。
[HJ]
參考文獻(xiàn)(References)
[1]高艷鹍,劉一非,李海生,等.基于簡單通道注意力機制的單圖像超分辨率重建算法[J].計算機工程與設(shè)計,2023,44(7):2140\|2147.
[2]曾印,謝劭峰,張繼洪,等.顧及季節(jié)和高程影響的青藏高原濕延遲神經(jīng)網(wǎng)絡(luò)預(yù)測模型[J].中國科技論文,2023,18(5):512\|517.
[3]CHENZQ,ZHANGH.Learningimplicitfieldsforgenerativeshapemodeling[C]∥IEEE.ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.Vancouver:IEEE,2019:5939\|5948.
[4]MILDENHALLB,SRINIVASANPP,TANCIKM,etal.Nerf:[JP3]representingscenesasneuralradiancefieldsforviewsynthesis[J].CommunicationsoftheACM,2021,65(1):99\|106.
[5]李薇,杜東升,鄧劍波,等.基于并聯(lián)式卷積神經(jīng)網(wǎng)絡(luò)的遙感影像超分辨率重建[J].科學(xué)技術(shù)與工程,2023,23(27):11513\|11521.
[6]HASSANMM,HASSANMR,HUDAS,etal.Apredictiveintelligenceapproachtoclassifybrain\|computerinterfacebasedeyestateforsmartliving[J].Appliedsoftcomputing,2021,108:107453.
[7]YUANL,CHENYP,WANGT,etal.Tokens\|to\|tokenvit:Trainingvisiontransformersfromscratchonimagenet[C]∥IEEE.ProceedingsoftheIEEE/CVFinternationalconferenceoncomputervision.Montreal:IEEE,2021:558\|567.
[8]CHENYB,LIUSF,WANGXL.Learningcontinuousimagerepresentationwithlocalimplicitimagefunction[C]∥IEEE.ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition.NewYork:IEEE,2021:8628\|8638.[HJ1.8mm]
[9]MASTYOM.Bilinearinterpolationtheoremsandapplications[J].Journaloffunctionalanalysis,2013,265(2):185\|207.
[10]于新善,孟祥印,金騰飛,等.基于改進(jìn)Canny算法的物體邊緣檢測算法[J].激光與光電子學(xué)進(jìn)展,2023,60(22):221\|230.
[11]AGUSTSSONE,TIMOFTER.Ntire2017challengeonsingleimagesuper\|resolution:Datasetandstudy[C]∥IEEE.ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognitionworkshops.Honolulu:IEEE,2017:126\|135.
[12]BEVILACQUAM,ROUMYA,GUILLEMOTC,etal.Low\|complexitysingle\|imagesuper\|resolutionbasedonnonnegativeneighborembedding[C]∥BMVAPress.BritishMachineVisionConference.London:BMVAPress,2012:1\|10.
[13]ZEYDER,ELADM,PROTTERM.Onsingleimagescale\|upusingsparse\|representations[M]∥Lecturenotesincomputerscience.Berlin,Heidelberg:SpringerBerlinHeidelberg,2012:711\|730.
[14]MARTIND,F(xiàn)OWLKESC,TALD,etal.Adatabaseofhumansegmentednaturalimagesanditsapplicationtoevaluatingsegmentationalgorithmsandmeasuringecologicalstatistics[C]∥IEEE.ProceedingsEighthIEEEInternationalConferenceonComputerVision.Vancouver:IEEE,2001:416\|423.
[15]HUANGJB,SINGHA,AHUJAN.Singleimagesuper\|resolution fromtransformedself\|exemplars[C]∥IEEE.ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.Boston:IEEE,2015:5197\|5206.
[16]LIMB,SONS,KIMH,etal.Enhanceddeepresidualnetworksforsingleimagesuper\|resolution[C]∥IEEE.ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognitionworkshops.NewYork:IEEE,2017:136\|144.
[17]ZHANGYL,TIANYP,KONGY,etal.Residualdensenetworkforimagesuper\|resolution[C]∥IEEE.ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.NewYork:IEEE,2018:2472\|2481.
[18]XIAP,TAHARAT,KAKUET,etal.Performancecomparisonofbilinearinterpolation,bicubicinterpolation,andB\|splineinterpolationinparallelphase\|shiftingdigitalholography[J].Opticalreview,2013,20(2):193\|197.
[19]HUXC,MUHY,ZHANGXY,etal.Meta\|SR:Amagnification\|arbitrarynetworkforsuper\|resolution[C]∥IEEE.ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition.LongBeach:IEEE,2019:1575\|1584.