国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于注意力特征融合的圖像去霧算法

2023-05-21 03:53錢旭淼陳廣秋劉高天梁麗平
吉林大學學報(理學版) 2023年3期
關(guān)鍵詞:解碼器注意力卷積

錢旭淼,段 錦,2,劉 舉,陳廣秋,劉高天,梁麗平

(1.長春理工大學 電子信息工程學院,長春 130022; 2.長春理工大學 空間光電技術(shù)研究所基礎(chǔ)技術(shù)實驗室,長春 130022)

圖像去霧技術(shù)作為一項基本的低層次視覺任務(wù)目前已受到計算機高級視覺任務(wù)的關(guān)注,逐漸成為該領(lǐng)域的研究熱點.受霧霾、沙塵、雨、雪等惡劣天氣影響,成像設(shè)備拍攝的圖像通常存在對比度低、清晰度差、色彩失真等質(zhì)量退化問題,從而直觀影響人眼的視覺感受,而且降質(zhì)圖像的輸入會導致一些高級視覺任務(wù)如分類、跟蹤和目標檢測[1]等變得更困難.

傳統(tǒng)圖像去霧方法大多數(shù)是基于大氣散射模型進行的,該方法并不能直接測量客觀重建誤差,即當先驗條件和假設(shè)不成立時,會導致對透射率圖和大氣光強的估計不準確,從而嚴重影響清晰圖像的恢復(fù),故傳統(tǒng)方法不能很好地發(fā)揮作用.隨著深度學習技術(shù)的發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)[2-7]的方法被用于圖像去霧中,直接或間接的恢復(fù)無霧圖像.但通過現(xiàn)有的網(wǎng)絡(luò)(如DenseNet[8],U-Net[9]等)直接估計清晰圖像,常會出現(xiàn)霧氣殘留、顏色失真、細節(jié)丟失等問題.因此,針對去霧問題合理對網(wǎng)絡(luò)進行優(yōu)化非常必要.

本文針對去霧任務(wù)設(shè)計一種基于注意力特征融合的圖像去霧算法,該算法比現(xiàn)有算法在圖像去霧方面效果更好,尤其是在圖像細節(jié)和保真度的恢復(fù)方面.本文工作主要貢獻如下:

1) 為解決以往霧氣殘留、顏色失真的問題,本文結(jié)合通道注意力和像素注意力設(shè)計一種特征融合模塊,該模塊利用不同通道方向的特征所包含的加權(quán)信息不同,以及霧霾在不同圖像像素上的分布不均勻的特點,從內(nèi)容和風格兩方面關(guān)注圖像的重要信息,為處理不同濃度的霧氣提供了靈活性;

2) 為解決去霧后圖像細節(jié)丟失問題,本文在解碼器中加入增強模型,設(shè)計一個新的解碼器作為圖像恢復(fù)模塊,通過“增強-操作-減去”(strength-operation-subtract,SOS)的策略,使恢復(fù)的圖像細節(jié)更明顯;

3) 本文采用混合損失函數(shù)的形式,將平滑L1損失和結(jié)構(gòu)相似性(SSIM)損失相結(jié)合,從像素角度和圖像結(jié)構(gòu)本身進行網(wǎng)絡(luò)參數(shù)的訓練,從而恢復(fù)出更高質(zhì)量的圖像.

1 相關(guān)工作

在圖像應(yīng)用于高級視覺任務(wù)前,需要先對圖像進行增強等預(yù)處理操作,而圖像去霧的目的是從模糊的圖像中恢復(fù)一個干凈的場景,因此,對圖像去霧技術(shù)的研究非常必要.根據(jù)霧圖的成像原理,現(xiàn)有方法[2-3,10]通常通過大氣散射模型對模糊圖像I進行建模,用公式表示為

I(x)=J(x)t(x)+(1-t(x))A,

(1)

其中J(x)表示無霧場景的圖像,A表示環(huán)境光強度的全球大氣光強,t(x)表示透射率圖像,x表示像素位置.該模型表明了在不確定大氣光強A和透射率圖t(x)準確值時,圖像去霧是一個不適定的問題.

傳統(tǒng)方法通常使用強先驗[11-14]或通過附加約束恢復(fù)透射率圖像、全球大氣光強和場景半徑[11-15].Fattal[11-12]設(shè)計了一種通過最大化局部對比度的方法恢復(fù)出清晰的圖像,假設(shè)無霧圖像的對比度高于有霧圖像,從而利用表面陰影信息估計透射率圖像; He等[13]提出一種假設(shè),對于無霧圖像總會有且至少一個通道的像素值極低,故設(shè)計了暗通道先驗的圖像去霧方法; 由于給定的RGB空間中像素通常是非局部的,Berman等[14]在圖像去霧前設(shè)計了一種有效的非局部路徑,由于這些先驗和假設(shè)是針對特定場景和相應(yīng)大氣條件提出的,因此當先驗和假設(shè)不成立時,這些去霧方法效果極不理想.

為解決這些問題,目前已提出了許多基于深度學習的去霧方法[2-6,16-18],如Cai等[2]提出了一種端到端的去霧網(wǎng)絡(luò)DehazeNet,該方法將有霧圖像作為輸入,輸出其透射率圖,最后利用大氣散射模型恢復(fù)清晰圖像; Li等[3]提出了AOD-Net方法,該方法重新推導大氣散射模型,可直接通過一個輕量級的CNN生成去霧后的圖像; Ren等[4]提出了MSCNN方法,該方法首先使用大尺度網(wǎng)絡(luò)估計整體傳輸圖,然后用小尺度網(wǎng)絡(luò)進行細化,在一定程度上避免了圖像細節(jié)丟失的問題; Zhang等[5]提出了DCPDN方法,該方法是一種密接連接金字塔去霧網(wǎng),用來聯(lián)合估計大氣光、透射率圖和無霧圖像,但由于大氣光反照率的模糊性,當估計的大氣光或透射圖不準確時,恢復(fù)的圖像會出現(xiàn)去霧不完全、顏色失真等問題; 還有的算法是基于一些通用領(lǐng)域的網(wǎng)絡(luò)體系結(jié)構(gòu),未做出明顯修改.但如果一個深度的去霧網(wǎng)絡(luò),只是簡單地堆疊更多層或使用更寬層對顯著的性能增益沒有效果.因此,為圖像去霧問題量身定制網(wǎng)絡(luò)模型具有重要意義.

本文基于注意力機制和增強策略對U-Net[19]網(wǎng)絡(luò)進行改進,由于U-Net網(wǎng)絡(luò)沒有全連接層,故下采樣過程會導致空間信息丟失.為解決該問題,本文提出一種結(jié)合注意力機制的特征融合模塊,該模塊可以保留網(wǎng)絡(luò)淺層的特征信息并將其傳遞到深層.而且該模塊可自適應(yīng)地學習獲得權(quán)重,然后根據(jù)特征圖的重要程度賦予不同的權(quán)重,比直接指定權(quán)重的網(wǎng)絡(luò)效果更好.同時,將圖像增強策略[20-22]應(yīng)用于圖像去霧,在網(wǎng)絡(luò)的解碼器中加入增強模型作為網(wǎng)絡(luò)的圖像恢復(fù)模塊,通過逐步細化上一次迭代的中間結(jié)果對去霧后的圖像進行增強.實驗結(jié)果表明,本文提出的網(wǎng)絡(luò)可以在保留高分辨率特征空間信息的同時,利用非相鄰特征進行圖像去霧,并且效果表現(xiàn)良好.

2 算法設(shè)計

2.1 算法網(wǎng)絡(luò)結(jié)構(gòu)

本文提出一種類似U-Net網(wǎng)絡(luò)結(jié)構(gòu)的圖像去霧算法,將注意力機制[23]和“增強-操作-減去”增強策略[22]加入到網(wǎng)絡(luò)中.該算法的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示.由圖1可見,該算法的網(wǎng)絡(luò)結(jié)構(gòu)仍是“編碼器-解碼器”形式,整體由3個模塊組成,分別是編碼器模塊、特征轉(zhuǎn)換模塊和解碼器模塊.在本文算法中,首先使用卷積神經(jīng)網(wǎng)絡(luò)提取圖像中多個尺度的特征圖,采用跳躍連接的方式將不同尺度的特征圖進行融合,使最終得到的特征圖中既包含深層特征,又包含淺層特征,從而提高算法對特征的表達能力.同時,在網(wǎng)絡(luò)中加入由通道注意力子模塊和像素注意力子模塊組成的特征融合模塊,使網(wǎng)絡(luò)更關(guān)注不同濃度圖像的重要信息通道.此外,本文還重新設(shè)計了網(wǎng)絡(luò)的解碼器,加入了SOS增強模型,對恢復(fù)圖像的紋理細節(jié)有更好的效果.

圖1 本文算法網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure of proposed algorithm

如圖1所示,該網(wǎng)絡(luò)編碼器模塊包含4個卷積層和4個下采樣層.在第一個卷積層中,濾波器大小設(shè)置為11×11像素,其余卷積核大小為3×3,步長為1,該尺寸的卷積核可在有效提取特征的同時,減少網(wǎng)絡(luò)參數(shù),從而提高網(wǎng)絡(luò)的執(zhí)行效率.每執(zhí)行一次操作后通道數(shù)c將變?yōu)榍耙粚犹卣鲌D的2倍,此外,在每個卷積操作后都添加了一個ReLU激活函數(shù).在下采樣過程中,采樣核的大小為2×2,即特征圖經(jīng)過一次下采樣操作后,特征圖的寬W和高H均變?yōu)樵瓉淼?/2,相當于一個核大小為2×2的平均池化操作.特征轉(zhuǎn)換模塊由18個兩層的殘差塊組成,卷積核大小均為3×3,卷積的步長始終保持為1,激活函數(shù)仍為ReLU.解碼器模塊類似于編碼器結(jié)構(gòu),該卷積層的大小仍然為3×3,步長為1,且通道數(shù)變?yōu)樵瓉淼?/2.解碼器與編碼器操作相反,解碼器的上采樣層順序恢復(fù)圖像細節(jié),最終得到去霧后的清晰圖像.

2.2 基于注意力機制的特征融合模塊

由于大多數(shù)圖像去霧網(wǎng)絡(luò)對圖像的特征未做出明顯區(qū)分,因此不能很好地處理霧霾分布不均勻和加權(quán)通道的特征圖像.本文根據(jù)注意力機制原理設(shè)計了一個特征融合模塊,該模塊由通道注意力(channel attention,CA)和像素注意力(pixel attention,PA)組成,二者順序連接、分級處理,如圖2所示.該方法不僅擴展了卷積神經(jīng)網(wǎng)絡(luò)的表達能力,而且從通道和信息兩個維度進行考慮,為處理不同濃度的霧氣提供了額外的靈活性,關(guān)鍵是可以按照特征圖的重要程度生成不同的權(quán)重.由圖2可見: 通道注意力模塊包含一個平均池化層Pooling、兩個卷積層Conv、兩個非線性激活函數(shù)ReLU和Sigmoid; 像素注意力模塊包含兩個卷積層Conv、兩個非線性激活函數(shù)ReLU和Sigmoid.

圖2 注意力特征融合模塊Fig.2 Attention feature fusion module

2.2.1 通道注意力模塊

通道注意力模塊主要關(guān)注不同通道特征的不同加權(quán)信息.首先,利用全局平均池法將全局空間信息引入到信道描述符中:

(2)

其中Xc(i,j)表示第c個通道Xc在(i,j)處的值,Hp為全局池化函數(shù).其次,特征圖的大小從C×H×W到C×1×1,為得到不同通道的權(quán)值,特征通過兩個卷積層激活函數(shù)Sigmoid和ReLU:

CAc=σ(Conv(δ(Conv(gc)))).

(3)

最后,按元素順序?qū)⑤斎隖c與通道CAc的權(quán)值進行對應(yīng)元素相乘:

(4)

2.2.2 像素注意力模塊

考慮到霧霾在不同圖像像素上的分布不均勻,本文加入了像素注意力模塊,使網(wǎng)絡(luò)更關(guān)注霧霾的像素及高頻圖像區(qū)域等信息特征的位置.

與通道注意力相同,本文使用激活函數(shù)ReLU和Sigmoid將輸入F*(CA的輸出)直接輸入到兩個卷積層中,形狀由C×H×W變?yōu)?×H×W:

PA=σ(Conv(δ(Conv(F*)))).

(5)

(6)

2.3 基于SOS增強模型的解碼器模塊

SOS增強模型是一種增強算法的變體.經(jīng)實驗證明,該算法在相同場景的圖像上有更好的信噪比,同時減少了噪聲.因此,本文將該原理應(yīng)用于圖像去霧中,主要原理是根據(jù) “增強-操作-減去”的方法進行圖像去霧[20-22],即基于之前估計的特征圖像對當前要增強的圖像進行細化處理,使最終去霧后圖像中霧的濃度更小,圖像細節(jié)更明顯.綜上,對于圖像去霧,增強模型可表示為

(7)

本文將解碼器視為無霧圖像的恢復(fù)模塊,逐步完善從特征轉(zhuǎn)換模塊中輸出的特征圖.將提出的增強模型引入解碼器中,基本結(jié)構(gòu)如圖3(A)所示.該方法是在第n級增強模型中根據(jù)上一級上采樣特征圖jn+1,用編碼器下采樣過程中得到的特征圖in加強它,并且通過細化單元生成增強特征jn,用公式表示為

(8)

為保證算法的完整性,本文將3種替代模型與本文增強模型進行對比.模型1[20]如圖3(B)所示,用公式表示為

(9)

與本文增強模型相比,該細化單元未充分利用特征圖in,與上采樣特征(jn+1)↑2相比,該特征包含了更多的結(jié)構(gòu)和空間信息.模型2[24]如圖3(C)所示,該模型來自特征金字塔網(wǎng)絡(luò)(FPN)的金字塔模塊,用公式表示為

(10)

該模型忽略了細化單元對上一級的上采樣特征(jn+1)↑2.模型3[19]如圖3(D)所示,本文評估了原始U-Net網(wǎng)絡(luò)的解碼器模塊,該模塊連接了上采樣增強特征圖(jn+1)↑2和模塊中潛在特征圖in,用公式表示為

(11)

圖3 4種不同增強模型Fig.3 Four different enhancement models

2.4 損失函數(shù)

本文在訓練過程中采用混合損失的形式訓練網(wǎng)絡(luò)參數(shù),由于當前處理的是圖像去霧任務(wù),故選擇平滑L1損失和結(jié)構(gòu)相似性損失.平滑L1損失通過定量描述有霧圖像與真實圖像之間的差異,可有效防止梯度爆炸,其定義為

(12)

(13)

由于平滑L1損失由像素的角度降低去霧圖像的誤差,考慮到恢復(fù)圖像的細節(jié),因此在訓練時引入了結(jié)構(gòu)相似性損失函數(shù).SSIM損失函數(shù)衡量了去霧圖像與清晰圖像的結(jié)構(gòu)誤差,其定義為

LS=1-SSIM(Ide,Igt),

(14)

L=α1L1+α2LS.

(15)

3 實 驗

3.1 實驗環(huán)境

本文實驗是在圖形工作站上實現(xiàn)的,采用Python編程語言設(shè)計系統(tǒng)模型,實驗平臺采用Intel (R) Xeon CPU E5-2620 v4 @2.10 GHz,GPU為NVIDIA Geforce RTX 2060.實驗中采用Adam優(yōu)化器作為模型訓練的優(yōu)化算法,其中β1和β2分別采用默認值0.9和0.999,批處理大小為32.對于每次迭代,初始學習率設(shè)為10-4,并采用余弦淬火函數(shù)調(diào)整學習率.

3.2 實驗數(shù)據(jù)集

從真實世界中采集大量的無霧圖像及相對應(yīng)的有霧圖像通常非常困難.因此,本文算法采用公開數(shù)據(jù)集RESIDE[25]進行訓練,在數(shù)據(jù)集RESIDE中選擇9 000個室外模糊/清晰圖像對和7 000個室內(nèi)圖像對作為訓練集.為擴充實驗訓練數(shù)據(jù),在[0.5,1.0]內(nèi)用3個隨機比例調(diào)整每對圖像的大小.測試部分是在RESIDE測試集的子集SOTS上進行,包含了500張室內(nèi)和室外的有霧圖像.為進行比較,所有對比算法均在RESIDE訓練集上進行訓練,在SOTS測試集上進行評估.

3.3 評價指標

由于主觀的判斷不能完全說明本文算法的有效性,為與現(xiàn)有的去霧方法進行性能對比,本文采用峰值信噪比(PSNR)、結(jié)構(gòu)相似性和圖像信息熵(information entropy)量化去霧圖像的恢復(fù)質(zhì)量.

峰值信噪比是目前使用最普遍的一種圖像客觀評價指標,用來評價一張圖像在壓縮后和原始圖像相比質(zhì)量的好壞.PSNR值越大,表明效果越好,即去霧后圖像越接近于無霧圖像.結(jié)構(gòu)相似性是分別從兩張圖像的亮度、對比度、結(jié)構(gòu)三方面度量圖像的相似性,SSIM值越大,表明去霧圖像的失真程度越小.圖像信息熵用來衡量圖像信息量的多少,圖像的細節(jié)越豐富,所得到的信息熵越大,表示去霧圖像效果越好,細節(jié)越明顯.

3.4 實驗結(jié)果及分析

為驗證本文算法的有效性,將本文去霧算法與4種目前比較流行的去霧算法進行定性和定量的比較,對比算法包括DCP[13],MSCNN[4],GCA-Net[25]和DehazeNet[2]算法.為公平地進行比較,所有算法均采用與本文算法相同的環(huán)境進行訓練,然后在數(shù)據(jù)集SOTS以及真實霧圖上測試各算法的性能.

3.4.1 主觀分析

1) 在合成數(shù)據(jù)集上實驗.首先,將本文算法與DCP,MSCNN,GCA-Net和DehazeNet 4種不同的去霧算法在數(shù)據(jù)集SOTS上進行定性對比,實驗結(jié)果如圖4所示.

圖4 不同算法在數(shù)據(jù)集SOTS上的去霧效果Fig.4 Dehazing effect of different algorithms on SOTS dataset

圖4中上面三行是室內(nèi)結(jié)果,下面三行是室外結(jié)果.由圖4可見: DCP算法在圖像天空區(qū)域較大時無法準確估計透射率和大氣光強,使去霧后的圖像比真實圖像暗,且產(chǎn)生了嚴重的色彩畸變; MSCNN算法保留了圖像原有顏色的同時,在圖像表面也留了一層薄霧,不能完全去除霧霾,因此去霧后結(jié)果圖像亮度較低; GCA-Net算法恢復(fù)的圖像與真實場景圖像相比,亮度過于明顯且圖像表面仍存在殘留的霧氣; 而DehazeNet算法對紋理、邊緣和藍天等高頻細節(jié)信息處理的效果不好,出現(xiàn)了失真情況; 相比之下,本文算法中加入了由通道注意力和像素注意力組成的特征融合模塊,可以區(qū)別處理不同的通道和像素信息,從內(nèi)容和風格兩個維度進行處理,更好地保留了圖像原有的顏色,同時對圖像中的重要信息賦予更多的關(guān)注,且本文算法的解碼器部分加入了增強模型,能較好地利用下采樣得到特征圖對恢復(fù)的圖像進行增強,同時清晰地保留了圖像中的細節(jié),減少了顏色失真.

2) 在真實霧圖上實驗.為驗證本文算法在真實場景中的去霧效果,將本文算法與上述4種對比算法在真實場景有霧圖像上進行定性對比,實驗結(jié)果如圖5所示.通過選取不同算法針對真實有霧圖像處理后的同一位置進行比較.由圖5可見,結(jié)果與合成數(shù)據(jù)集上的結(jié)果基本一致.DCP算法在先驗知識估計不準確時仍會產(chǎn)生嚴重的顏色扭曲,如天空和女孩的臉; 對于MSCNN,GCA-Net,DehazeNet這3種算法,去霧的結(jié)果仍然是霧霾去除不完全,有殘留的霧氣,圖像亮度過亮或者過暗,主要原因是算法平等的對待圖像中的通道和像素信息.圖6為不同算法對真實有霧圖像去霧細節(jié)的對比.由圖6可見,相比之下,本文算法結(jié)果中可以發(fā)現(xiàn)第一行圖像深處隱現(xiàn)的塔,并且第二行圖像路面紋理也更清晰.這也更好地證明了本文算法加入注意力機制和增強模型的有效性,使得該算法可以有效去除不同濃度的霧,同時又可以保留圖像細節(jié),較好地保持圖像的色彩不失真,視覺效果良好.

圖5 不同算法對真實有霧圖像的去霧效果Fig.5 Dehazing effect of different algorithms on real foggy images

圖6 不同算法對真實有霧圖像去霧細節(jié)的對比Fig.6 Comparison of dehazing details of different algorithms on real foggy images

3.4.2 客觀分析

將本文算法與DCP,MSCNN,GCA-Net,DehazeNet 4種算法在數(shù)據(jù)集SOTS上進行定量對比實驗,并對得到的PSNR值取平均,實驗結(jié)果列于表1.由表1可見,根據(jù)3個評價指標PSNR,SSIM和圖像信息熵,本文算法和其他4種算法對比效果都是最好的.DCP算法表現(xiàn)不佳,而另外3種使用深度學習CNN恢復(fù)無霧圖像的方法在未正確估計大氣光時效果較差,相對比深度學習端到端的網(wǎng)絡(luò)在直接恢復(fù)無霧圖像時較間接恢復(fù)的方法可以產(chǎn)生更好的效果.但上述方法沒有很好地針對去霧問題進行優(yōu)化,相比之下,本文算法將注意力機制和增強策略相結(jié)合更適合去霧任務(wù).

此外,本文將RESIDE訓練集按照不同百分數(shù)輸入網(wǎng)絡(luò)進行試驗,并繪制了PSNR和SSIM的曲線,結(jié)果如圖7所示.該曲線反映了在訓練集不充足時5種算法的去霧結(jié)果,由圖7可見,訓練集數(shù)量越多算法的處理效果越好,但在初始訓練集較少時,本文算法仍是5種算法中效果最好的.

表1 不同算法在相同評價指標上的對比結(jié)果

圖7 5種算法在控制訓練集數(shù)量時的對比結(jié)果Fig.7 Comparison results of five algorithms when controlling number of training sets

3.5 消融實驗及分析

為進一步驗證本文算法的優(yōu)越性,對本文的注意力特征融合模塊和增強模型進行消融實驗,其中基線方法都是與本文算法在相同配置下進行訓練的.

本文進行兩項消融實驗,第一項消融實驗是驗證本文增強模型的有效性,將本文2.3節(jié)中提到的3種增強模型與本文算法在數(shù)據(jù)集RESIDE上進行評估,結(jié)果列于表2.由表2可見,模型1網(wǎng)絡(luò)性能最差,模型2和模型3的PSNR值較接近,相比于模型1的結(jié)果約提高了1 dB,而本文增強模型相比于其他模型性能明顯提高,是4種增強模型中效果最好的,表明本文增強模型更適合去霧問題.

表2 不同增強模型的對比實驗

第二個消融實驗是驗證本文算法相對于基準算法的有效性,將帶有編碼器-解碼器結(jié)構(gòu)的PFFNet網(wǎng)絡(luò)作為本文的基準算法進行消融實驗,結(jié)果列于表3.其中,P表示PFFNet,S表示增強模型,A表示注意力特征融合模塊.由表3可見,通過對比實驗1,2和3,4表明,引入本文算法中的增強模型進行改進后,相比于原算法PSNR值分別提高了1.76 dB和1.26 dB,從而再次驗證了本文引入增強模型的有效性; 通過對比實驗1,3和2,4表明,引入注意力機制對算法進行改進后,相比于改進前的算法PSNR值分別提高了2.87 dB和2.37 dB,從而驗證了本文設(shè)計的注意力特征融合模塊的有效性,且適合圖像去霧任務(wù).實驗結(jié)果表明,本文算法相比于基準算法在圖像去霧問題上更有效.

表3 不同配置在數(shù)據(jù)集SOTS上的測試結(jié)果對比

綜上所述,為改善惡劣環(huán)境下霧霾天氣對成像質(zhì)量的影響,本文提出了一種基于注意力特征融合的圖像去霧算法.該算法在跳躍連接過程中引入注意力機制原理,通過結(jié)合通道注意力和像素注意力設(shè)計了一種新的融合策略,可以更好地針對特征圖的重要程度進行處理,同時在本文網(wǎng)絡(luò)解碼器中引入增強模型以更好地恢復(fù)圖像細節(jié)特征.本文采用混合損失函數(shù)的形式在公開的數(shù)據(jù)集RESIDE上對模型進行了訓練,并且利用訓練好的模型測試數(shù)據(jù)集SOTS.實驗結(jié)果表明,本文算法在圖像細節(jié)和顏色保真度的恢復(fù)方面具有較大優(yōu)勢,且優(yōu)于一些目前較先進的算法,恢復(fù)后的圖像為后續(xù)一些高級視覺任務(wù)如目標分類、識別等提供了便利條件.

猜你喜歡
解碼器注意力卷積
讓注意力“飛”回來
科學解碼器(一)
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
科學解碼器(二)
科學解碼器(三)
線圣AudioQuest 發(fā)布第三代Dragonfly Cobalt藍蜻蜓解碼器
從濾波器理解卷積
基于傅里葉域卷積表示的目標跟蹤算法
“揚眼”APP:讓注意力“變現(xiàn)”
A Beautiful Way Of Looking At Things