摘要:由于地形等復(fù)雜條件的限制,疊前地震數(shù)據(jù)在空間上存在不完整或不規(guī)則分布的情況,導(dǎo)致數(shù)據(jù)出現(xiàn)缺失或混淆等現(xiàn)象。近年來,基于卷積神經(jīng)網(wǎng)絡(luò)的方法已經(jīng)廣泛應(yīng)用于缺失地震數(shù)據(jù)重建工作。然而一步訓(xùn)練過程的網(wǎng)絡(luò)模型不足以重建具有寬振幅范圍的缺失地震數(shù)據(jù),低振幅缺失部分的重建結(jié)果仍需改進(jìn)。因此本文提出一種具有分步訓(xùn)練過程的粗細(xì)網(wǎng)絡(luò)模型。該模型由粗網(wǎng)絡(luò)和細(xì)網(wǎng)絡(luò)組成,分步恢復(fù)寬振幅范圍內(nèi)的缺失地震數(shù)據(jù)。在細(xì)網(wǎng)絡(luò)中引入離散小波變換代替池化操作,其可逆性在上采樣階段有利于保留細(xì)節(jié)特征。模型采用混合損失函數(shù)重建缺失信號(hào)的真實(shí)細(xì)節(jié)。粗網(wǎng)絡(luò)的初步恢復(fù)結(jié)果經(jīng)過掩碼操作處理后輸入到細(xì)網(wǎng)絡(luò),細(xì)網(wǎng)絡(luò)進(jìn)一步精確恢復(fù)缺失部分的低振幅信號(hào)。實(shí)驗(yàn)結(jié)果表明,與殘差網(wǎng)絡(luò)(ResNet)、U型網(wǎng)絡(luò)(UNet)和多級(jí)小波卷積神經(jīng)網(wǎng)絡(luò)(MWCNN)的重建方法相比,本文方法在合成數(shù)據(jù)和真實(shí)數(shù)據(jù)上展現(xiàn)出更卓越的重建性能:在缺失75%的合成數(shù)據(jù)上,信噪比為18.818 5 dB;在缺失50%的真實(shí)數(shù)據(jù)上,信噪比為12.255" 1 dB。在消融研究中,本文模型重建的均方誤差為1.689 3×10-4,信噪比為19.284 6 dB,峰值信噪比為 43.743 5 dB,結(jié)構(gòu)相似性為0.984 1,均優(yōu)于其他三組對照實(shí)驗(yàn)。
關(guān)鍵詞:粗細(xì)網(wǎng)絡(luò);混合損失;離散小波變換;地震數(shù)據(jù)重建
doi:10.13278/j.cnki.jjuese.20230097
中圖分類號(hào):P631.4
文獻(xiàn)標(biāo)志碼:A
Supported by the National Natural Science Foundation of China (12001057) and the Fundamental Research Funds for the Central Universities in Chang’an University (300102122101)
Seismic Data Reconstruction Method Based on Coarse-Refine Network
Model with Stepwise Training
Ge Kangjian1, Wang Changpeng1, Zhang Chunxia2, Zhang Jiangshe2, Xiong Deng3
1. School of Science, Chang’an University, Xi’an 710064, China
2. School of Mathematics and Statistics, Xi’an Jiaotong University, Xi’an 710049, China
3. Research amp;Development Center, BGP, Zhuozhou 072751, Hebei, China
Abstract:Due to the limitation of complex conditions such as topography, the pre-stack seismic data are spatially incomplete or irregularly distributed, resulting in phenomena such as missing or confusing data. In recent years, methods based on convolutional neural networks have been widely used in the reconstruction of missing seismic data. However, the network model of one-step training process is not enough to reconstruct the missing seismic data with a wide amplitude range, and the reconstruction results of the low-amplitude missing part still need to be improved. Therefore," a coarse-fine network model with a stepwise training process is proposed in this paper. The model consists of a coarse network and a fine network to recover the missing seismic data with a wide amplitude range in a step-by-step process. Discrete wavelet transform is introduced in the fine network instead of pooling operation, and its reversibility facilitates the preservation of detailed features in the up-sampling stage. Using a hybrid loss function, the model reconstructs the true details of the missing signals. The preliminary recovery results of the coarse network are processed by masking operation and input to the fine network, which further accurately recovers the low amplitude signal of the missing part. The experimental results show that compared with the reconstruction methods of residual network (ResNet), U-shaped network (U-Net) and multilevel wavelet convolutional neural network (MWCNN), the method in this paper demonstrates superior reconstruction performance on both synthetic and real data: the signal-to-noise ratio is 18.818 5 dB" on synthetic data with 75% missing, and 12.255 1 dB on real data with 50% missing. In the ablation study, the mean square error of the model reconstruction in this paper is1.689 3×10-4, the signal-to-noise ratio is 19.284 6 dB, the peak signal-to-noise ratio is 43.743 5 dB, and the structural similarity index is 0.984 1, all of which are better than the other three sets of control experiments.
Key words: coarse-refine network; hybrid loss; discrete wavelet transform; seismic data reconstruction
0 引言
在地震數(shù)據(jù)處理領(lǐng)域中,從缺失道重建完整的疊前數(shù)據(jù)是一項(xiàng)長期的任務(wù)。由于建筑物、湖泊和冰川等復(fù)雜地形條件的限制,地震采集系統(tǒng)通常很難收集完整的野外地震疊前數(shù)據(jù),導(dǎo)致采集的地震數(shù)據(jù)出現(xiàn)不完整或不規(guī)則分布,使數(shù)據(jù)存在缺失或混疊現(xiàn)象。在實(shí)際應(yīng)用方面,地震數(shù)據(jù)作為后續(xù)處理和反演的先天之本,對其進(jìn)行高信噪比、高保真、高效的重建具有十分重要的現(xiàn)實(shí)意義。
目前已經(jīng)被提出用于地震數(shù)據(jù)重建的方法可以分為兩類:基于模型驅(qū)動(dòng)的方法和基于數(shù)據(jù)驅(qū)動(dòng)的方法?;谀P万?qū)動(dòng)的方法大致分為三種:基于波動(dòng)方程的地震數(shù)據(jù)重建方法[1]、基于稀疏變換的地震數(shù)據(jù)重建方法[23]、基于低秩矩陣完備的地震數(shù)據(jù)據(jù)重建方法[45]。這些方法獨(dú)立于數(shù)據(jù),在很多方面得到了廣泛的應(yīng)用,但是它們在使用之前通常需要基于一定的先驗(yàn)知識(shí)和預(yù)先假設(shè),存在一定的局限性,在面對更復(fù)雜的地震數(shù)據(jù)時(shí)表現(xiàn)不佳。
近年來,以深度學(xué)習(xí)為代表的數(shù)據(jù)驅(qū)動(dòng)方法已經(jīng)廣泛應(yīng)用于地震數(shù)據(jù)的重建[69]。它不受預(yù)先假設(shè)的限制,具有強(qiáng)大的特征提取能力,可以有效解決阻抗反演[1011]、地震斷層解釋[1213]和地震數(shù)據(jù)降噪[1415] 等地震勘探問題。一些經(jīng)典網(wǎng)絡(luò)如卷積自編碼(CAE)[16]、殘差網(wǎng)絡(luò)(ResNet)[17]、U型網(wǎng)絡(luò)(UNet)[18]和生成對抗網(wǎng)絡(luò)(GAN)[19]已被用于解決缺失數(shù)據(jù)重建任務(wù)。隨著網(wǎng)絡(luò)深度的不斷增加,網(wǎng)絡(luò)性能并非提升,反而出現(xiàn)退化現(xiàn)象。針對此問題,以殘差塊為基礎(chǔ)的ResNet被提出,該網(wǎng)絡(luò)通過在殘差塊中引入跳連接,實(shí)現(xiàn)了信息在多層間的直接傳遞。此設(shè)計(jì)有效緩解了梯度消失問題。Wang等[17]將殘差學(xué)習(xí)框架和卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合來解決地震數(shù)據(jù)插值問題。Chai等[18]用UNet解決了規(guī)則和不規(guī)則缺失地震數(shù)據(jù)的重建問題。UNet的第一個(gè)特點(diǎn)是其對稱的下采樣和上采樣過程;第二個(gè)特點(diǎn)是其中間的長連接。下采樣可以增加輸入數(shù)據(jù)干擾的魯棒性,降低運(yùn)算量,擴(kuò)大感受野;上采樣將抽象的特征解碼到原圖尺寸。長連接將下采樣過程中得到的高級(jí)特征保留下來,聯(lián)系了輸入數(shù)據(jù)的許多信息,有助于還原下采樣過程中的信息損失。雖然這些方法可以恢復(fù)大部分缺失信號(hào),但沒有關(guān)注到地震數(shù)據(jù)中的紋理和結(jié)構(gòu)差異,因此往往會(huì)產(chǎn)生模糊的結(jié)果,缺乏細(xì)節(jié)??紤]到這一事實(shí),Yu等[20]提出了添加注意力機(jī)制來關(guān)注全局信息的模型,并使用結(jié)合結(jié)構(gòu)相似性(SSIM)和L1范數(shù)的混合損失函數(shù)來增強(qiáng)紋理細(xì)節(jié)。在卷積神經(jīng)網(wǎng)絡(luò)模型中,通常使用池化操作來擴(kuò)大感受野,但這可能會(huì)丟失數(shù)據(jù)的細(xì)節(jié)特征,影響地震數(shù)據(jù)的精確重建。盡管擴(kuò)張卷積可以增大感受野而不增加計(jì)算成本,但它可能受到網(wǎng)格效應(yīng)的限制。多級(jí)小波卷積神經(jīng)網(wǎng)絡(luò)(MWCNN)[21]采用離散小波變換代替池化,并使用逆小波變換進(jìn)行上采樣,有效擴(kuò)大感受野同時(shí)保留細(xì)節(jié),實(shí)現(xiàn)了效率和性能之間的平衡。
基于以上分析,本文提出了一種具有分步訓(xùn)練過程的粗細(xì)網(wǎng)絡(luò)模型;地震數(shù)據(jù)首先通過粗網(wǎng)絡(luò)UNet得到一個(gè)粗略的重建結(jié)果;然后基于粗網(wǎng)絡(luò)的插值結(jié)果,細(xì)網(wǎng)絡(luò)MWCNN采用離散小波變換代替池化過程,學(xué)習(xí)更精細(xì)的特征,促進(jìn)信號(hào)細(xì)節(jié)的恢復(fù)。最后,通過合成數(shù)據(jù)和真實(shí)數(shù)據(jù),與一步訓(xùn)練過程的網(wǎng)絡(luò)模型進(jìn)行對比,以證實(shí)本文模型提高缺失數(shù)據(jù)重建質(zhì)量的有效性。
1 方法原理
1.1 粗細(xì)網(wǎng)絡(luò)
在圖像處理領(lǐng)域,雖然單一網(wǎng)絡(luò)(如UNet)[22]已經(jīng)被廣泛應(yīng)用,表現(xiàn)出良好的性能,但編碼器[23]的下采樣過程和損失[24]的像素級(jí)計(jì)算導(dǎo)致了混疊和過平滑等問題的出現(xiàn)。為了解決單一網(wǎng)絡(luò)架構(gòu)所帶來的問題,具有分步訓(xùn)練過程的粗到細(xì)網(wǎng)絡(luò)已廣泛應(yīng)用于圖像修復(fù)[2527]領(lǐng)域。使用兩個(gè)連續(xù)的神經(jīng)網(wǎng)絡(luò),而不是一個(gè)網(wǎng)絡(luò)擴(kuò)大感受野,穩(wěn)定了訓(xùn)練過程[26]。在地震數(shù)據(jù)處理領(lǐng)域,He等[28]使用多個(gè)UNet來提高地震道插值的性能。因此,我們設(shè)計(jì)了由粗到細(xì)的網(wǎng)絡(luò),其結(jié)構(gòu)如圖1所示。使用UNet作為粗網(wǎng)絡(luò),MWCNN作為細(xì)網(wǎng)絡(luò),圖2為粗細(xì)網(wǎng)絡(luò)的詳細(xì)結(jié)構(gòu)。粗網(wǎng)絡(luò)和細(xì)網(wǎng)絡(luò)均為U型結(jié)構(gòu),兩者的差異主要是細(xì)網(wǎng)絡(luò)使用離散小波變換代替下采樣過程,使用逆小波變換代替上采樣過程。
在粗細(xì)網(wǎng)絡(luò)架構(gòu)中,粗網(wǎng)絡(luò)使用缺失地震數(shù)據(jù)Iin=Igt⊙M作為輸入(⊙表示Hadamard乘積),返回重建數(shù)據(jù)的粗略結(jié)果Icoa。通過引入二進(jìn)制掩碼,減少了網(wǎng)絡(luò)需要學(xué)習(xí)的任務(wù)量,加速了網(wǎng)絡(luò)收
斂?;贗coa,細(xì)網(wǎng)絡(luò)使用Igt⊙M+Icoa⊙(1-M)作為輸入,并返回細(xì)網(wǎng)絡(luò)的重建結(jié)果Iref。最終,粗細(xì)網(wǎng)絡(luò)模型的重建結(jié)果為I~=Igt⊙M+Iref⊙(1-M)。
在粗細(xì)網(wǎng)絡(luò)訓(xùn)練的第一步,粗網(wǎng)絡(luò)損失函數(shù)Lcoa對粗網(wǎng)絡(luò)參數(shù)θcoa進(jìn)行偏導(dǎo)計(jì)算得到梯度,然后使用反向傳播算法將梯度信息從輸出層向輸入層傳遞,以更新粗網(wǎng)絡(luò)參數(shù)。在訓(xùn)練的第二步,細(xì)網(wǎng)絡(luò)損
失函數(shù)Lref對細(xì)網(wǎng)絡(luò)參數(shù)θref和粗網(wǎng)絡(luò)參數(shù)θcoa再次計(jì)算梯度,連續(xù)更新粗網(wǎng)絡(luò)與細(xì)網(wǎng)絡(luò)的參數(shù)。
1.2 離散小波變換
離散小波變換是一種信號(hào)分析工具,它在時(shí)域和頻域上具有多分辨率分析能力,能將輸入數(shù)據(jù)分解為描述不同頻帶特征的多個(gè)子集。以Haar小波為例,輸入圖像通過一個(gè)低通濾波器fll和三個(gè)高通濾波器flh、fhl、fhh進(jìn)行處理,分解為四個(gè)子圖xll、xlh、xhl和xhh,分別表示圖像在不同方向上的頻率特征。這個(gè)過程本質(zhì)上是一種特殊的卷積下采樣,具體操作如下:
xll=(fll*x)↓2;
xlh=(flh*x)↓2;
xhl=(fhl*x)↓2;
xhh=(fhh*x)↓2。
(1)
式中:*表示卷積操作;↓2表示步長為2的下采樣操作。由于小波變換的正交性,可以通過逆小波變換來精確地重構(gòu)輸入圖像。因此,通過引入離散小波變換和逆小波變換來保持卷積層的特征圖,可以減小原始數(shù)據(jù)重建的誤差,增強(qiáng)重建模型的性能。
1.3 混合損失
在網(wǎng)絡(luò)訓(xùn)練過程中,損失函數(shù)計(jì)算模型前向傳播結(jié)果與真實(shí)值之間的差距,從而指導(dǎo)下一步訓(xùn)練向正確的方向進(jìn)行。適當(dāng)?shù)膿p失函數(shù)可以加速模型收斂,更好地度量樣本間的相似性。均方誤差(MSE)損失作為一種像素級(jí)損失函數(shù),廣泛用于地震數(shù)據(jù)重建。如圖1所示,本文模型采取兩步參數(shù)更新策略,基于第一步中粗網(wǎng)絡(luò)的初步插值,第二步獲得比第一步更完整的輸入,從而獲得更好的特征表示。在第一步,Lcoa選擇MSE損失更新粗網(wǎng)絡(luò)參數(shù)。
Igt. 完整地震數(shù)據(jù);M. 完整地震數(shù)據(jù)對應(yīng)的隨機(jī)掩碼(缺失道設(shè)置為0,有效道設(shè)置為1);Iin. 輸入;Lcoa. 粗網(wǎng)絡(luò)損失函數(shù);θcoa. 粗網(wǎng)絡(luò)參數(shù);Icoa. 粗網(wǎng)格重建結(jié)果;Lref細(xì)網(wǎng)絡(luò)損失函數(shù);θref細(xì)網(wǎng)絡(luò)參數(shù);Iref細(xì)網(wǎng)絡(luò)重建結(jié)果。
單一的MSE損失經(jīng)常產(chǎn)生過度平滑的結(jié)果,不能很好地重建缺失信號(hào)的局部峰值和細(xì)節(jié)。Yu等[20]提出了結(jié)合SSIM和L1范數(shù)的聯(lián)合損失,增強(qiáng)了紋理細(xì)節(jié),緩解了插值結(jié)果過于平滑的問題。SSIM是一種圖像質(zhì)量評(píng)估指標(biāo),衡量兩幅圖像之間的細(xì)節(jié)紋理差異[29]。在處理地震數(shù)據(jù)重建任務(wù)時(shí),可以將數(shù)據(jù)視為圖像形式。因此,對于重建結(jié)果x和真值y,他們的SSIM被定義為
SSIM(x,y)=(2μxμy+c1)(2σxy+c2)(μ2x+μ2y+c1)(σ2x+σ2y+c2)。(2)
式中:μx和μy分別為x與y的平均值;σx和σy分別為x與y的標(biāo)準(zhǔn)差;σxy為x和y的協(xié)方差;c1和c2為常數(shù),用以避免分母為零引起的系統(tǒng)誤差。SSIM取值范圍為[0, 1],值越大表示x和y之間越有較強(qiáng)的相似性。而地震數(shù)據(jù)重建的目標(biāo)是最小化真值和重建結(jié)果之間的差異,故SSIM的損失函數(shù)被定義為
LSSIM=1-SSIM(x,y)。(3)
結(jié)合L1范數(shù)的損失函數(shù)LL1,最終訓(xùn)練過程中細(xì)網(wǎng)絡(luò)的損失函數(shù)為
Lref=λ1Lcoa+λ2LSSIM+λ3LL1。(4)
式中,λ1、λ2和λ3用于調(diào)整不同損失的權(quán)重。即在第二步,整個(gè)模型通過式(4)給出的混合損失進(jìn)行反向傳播,連續(xù)更新粗網(wǎng)絡(luò)與細(xì)網(wǎng)絡(luò)的參數(shù)。
2 實(shí)驗(yàn)
為了驗(yàn)證本文提出的網(wǎng)絡(luò)模型在地震數(shù)據(jù)重建方面的有效性,分別在合成地震數(shù)據(jù)及真實(shí)地震數(shù)據(jù)上進(jìn)行實(shí)驗(yàn),并采用MSE損失下訓(xùn)練的ResNet[17]、UNet[18]和MWCNN[21]三個(gè)模型作對比。
2.1 評(píng)價(jià)指標(biāo)
為了定量比較不同的深度學(xué)習(xí)模型,采用四個(gè)指標(biāo)衡量地震數(shù)據(jù)重建的效果,包括MSE、信噪比(SNR)、峰值信噪比(PSNR)和SSIM。MSE、SNR、PSNR分別定義為:
MSE=1Nx-y2F;(5)
SNR=10lgy2Fx-y2F;(6)
PSNR=10lgA2maxMSE。(7)
式中:N為樣本數(shù)量;·F表示Frobenius范數(shù); A2max為地震數(shù)據(jù)中的最大幅值。MSE越小,代表地震數(shù)據(jù)重建的效果越好;更大的SNR代表更好的重建質(zhì)量;PSNR越大,代表重建結(jié)果和實(shí)際情況之間的失真越小。
2.2 合成數(shù)據(jù)
本文在公開數(shù)據(jù)集2007 BP Anisotropic Velocity Benchmark上進(jìn)行合成數(shù)據(jù)實(shí)驗(yàn)。該數(shù)據(jù)集中每個(gè)炮集大小為1 151×800,采樣率為8 ms。每一炮包含800條道,每條道都是1 151個(gè)時(shí)間采樣數(shù)。首先,對每個(gè)炮集進(jìn)行75%的隨機(jī)缺失;然后,將缺失的炮集和完整的炮集分別進(jìn)行切塊,每個(gè)切塊的大小為128×128;最后,隨機(jī)選擇10 560個(gè)切塊,按8∶1∶1劃分為訓(xùn)練集、驗(yàn)證集和測試集,并將所有的切塊歸一化到[-1, 1]。
模型的粗網(wǎng)絡(luò)和細(xì)網(wǎng)絡(luò)都采用Adam優(yōu)化器,學(xué)習(xí)率為5×10-4,批量大小設(shè)置為32。細(xì)網(wǎng)絡(luò)損失函數(shù)的權(quán)重λ1、λ2和λ3均設(shè)置為1。實(shí)驗(yàn)基于PyTorch深度學(xué)習(xí)框架,在Windows 10的NVIDIA GTX3060下進(jìn)行。對于合成數(shù)據(jù),粗網(wǎng)絡(luò)和細(xì)網(wǎng)絡(luò)使用批量歸一化。通過上下翻轉(zhuǎn)、旋轉(zhuǎn)和放縮等方式進(jìn)行數(shù)據(jù)擴(kuò)充,可以豐富缺失地震數(shù)據(jù)的類型,提高網(wǎng)絡(luò)模型的魯棒性。對比模型ResNet、UNet、MWCNN除了采用MSE損失訓(xùn)練以外,其他參數(shù)均與本文模型參數(shù)設(shè)置一致。
對于ResNet、UNet、MWCNN和本文模型在地震數(shù)據(jù)上的重建結(jié)果,我們分別作定量比較與定性比較。定量比較的結(jié)果如表1所示。可以看到,本文模型在所有評(píng)估指標(biāo)上都優(yōu)于其他方法。
四個(gè)模型重建結(jié)果的定性比較如圖3所示,通過合成數(shù)據(jù)上的一個(gè)測試塊展示結(jié)果。直觀上來看:對于連續(xù)缺失區(qū)域,ResNet的重建結(jié)果不理想,出現(xiàn)了明顯的不連續(xù)區(qū)域;UNet和MWCNN總體上能夠?qū)崿F(xiàn)信號(hào)的連續(xù)性,但對數(shù)據(jù)細(xì)節(jié)的恢復(fù)不夠完備,例如黑色圓圈所標(biāo)區(qū)域,UNet和MWCNN的重建結(jié)果都存在偏差;而本文模型能夠較好地恢復(fù)缺失數(shù)據(jù),重建的信號(hào)更加精確。
為了更直觀地展示重建效果,將四個(gè)模型的重建結(jié)果分別與原始數(shù)據(jù)作殘差,結(jié)果如圖4所示。從圖4可以看出,本文模型的重建結(jié)果相對其他三個(gè)模型有了進(jìn)一步
改善(紅色箭頭處)。本文模型的重建結(jié)果誤差更小,對數(shù)據(jù)細(xì)節(jié)的恢復(fù)更加完備,生成的紋理更加豐富。
在該合成數(shù)據(jù)集上,不同模型的訓(xùn)練次數(shù)與總時(shí)間如表2所示。本文模型訓(xùn)練總時(shí)間略高于其他模型,但是達(dá)到收斂的訓(xùn)練次數(shù)卻比其他網(wǎng)絡(luò)少,這意味著本文模型可以更好地?cái)M合給定數(shù)據(jù)集,預(yù)測效果更好。
2.3 真實(shí)數(shù)據(jù)
在真實(shí)數(shù)據(jù)Mobil Avo Viking Graben Line 12上評(píng)估本文方法,該數(shù)據(jù)集包含1 001個(gè)炮集,采樣間隔為4 ms。每一炮包含120條道,1 500個(gè)時(shí)間采樣點(diǎn)。對于原始數(shù)據(jù)和重建數(shù)據(jù),選取其中500個(gè)時(shí)間采樣點(diǎn)進(jìn)行展示。首先,將每個(gè)炮集都隨機(jī)缺失50%的道;然后,將缺失炮集和完整炮集分別進(jìn)行切塊,每個(gè)切塊的大小為96×96;最后,隨機(jī)選擇11 700個(gè)切塊,按8∶1∶1劃分為訓(xùn)練集、驗(yàn)證集和測試集,并將所有的切塊歸一化到[-1, 1]。真實(shí)數(shù)據(jù)參數(shù)和模型訓(xùn)練均與合成設(shè)置相同。
把四個(gè)模型在真實(shí)地震數(shù)據(jù)上的重建結(jié)果分別做定量與定性比較,定量比較的結(jié)果如表3所示。可以看到,本文模型在所有評(píng)估指標(biāo)上都優(yōu)于其他方法。
四個(gè)模型重建結(jié)果的定性比較如圖5所示,通過真實(shí)數(shù)據(jù)上的一個(gè)測試炮集展示結(jié)果。四個(gè)模型對于缺失區(qū)域都在一定程度上重建出了缺失信號(hào),然而對于黑色橢圓的低振幅缺失區(qū)域,本文模型的重建信號(hào)與原始數(shù)據(jù)更為接近。
為了更直觀地比較四個(gè)模型的重建結(jié)果,我們展示原始真實(shí)數(shù)據(jù)和重建數(shù)據(jù)之間的殘差,結(jié)果如圖6所示。可以看到,相比于其他三個(gè)模型,本文模型的重建結(jié)果具有較淺的陰影和較少的信號(hào)損失,
例如方框處;這進(jìn)一步表明本文模型在地震數(shù)據(jù)重建方面的有效性。
3 消融研究
通過去除或更換模型部分,我們設(shè)計(jì)了三組對照實(shí)驗(yàn),包括粗網(wǎng)絡(luò)和細(xì)網(wǎng)絡(luò)的模型選擇、訓(xùn)練過程中細(xì)網(wǎng)絡(luò)的損失函數(shù)選擇和粗細(xì)網(wǎng)絡(luò)的訓(xùn)練過程選擇,進(jìn)一步驗(yàn)證本文模型的優(yōu)越性。
第一組對照實(shí)驗(yàn)粗網(wǎng)絡(luò)和細(xì)網(wǎng)絡(luò)都使用UNet,以驗(yàn)證本文模型細(xì)網(wǎng)絡(luò)使用離散小波變換替代采樣過程的合理性。第二組對照實(shí)驗(yàn)粗網(wǎng)格損失不參與細(xì)網(wǎng)格損失進(jìn)行反向傳播,以證明本文模型細(xì)網(wǎng)絡(luò)損失函數(shù)設(shè)計(jì)的合理性。第三組對照實(shí)驗(yàn)粗細(xì)網(wǎng)絡(luò)采用一步訓(xùn)練過程,只由式(4)給出的混合損失進(jìn)行反向傳播,更新粗細(xì)網(wǎng)絡(luò)的參數(shù),以證明本文模型粗細(xì)網(wǎng)絡(luò)訓(xùn)練過程的合理性。
在數(shù)據(jù)集SEG Advanced Modeling Program’s C3 Project(SEG C3)上進(jìn)行消融研究,將控制變量設(shè)計(jì)的三組對照實(shí)驗(yàn)與本文模型進(jìn)行對比,定量比較結(jié)果如表4所示??梢钥吹?,本文模型在所有評(píng)估指標(biāo)上都優(yōu)于其他模型,證明了本文模型在地震數(shù)據(jù)重建任務(wù)中的優(yōu)越性。
4 結(jié)論
1)本文提出具有分步訓(xùn)練過程的粗細(xì)網(wǎng)絡(luò)模型用于地震數(shù)據(jù)重建,由粗到細(xì)兩個(gè)網(wǎng)絡(luò)逐步恢復(fù)缺失信號(hào),由粗網(wǎng)絡(luò)損失、結(jié)構(gòu)相似性損失和L1損失構(gòu)成的混合損失函數(shù)引導(dǎo)細(xì)網(wǎng)絡(luò)進(jìn)一步關(guān)注缺失信號(hào),增強(qiáng)紋理細(xì)節(jié),提升插值效果。
2)合成數(shù)據(jù)和真實(shí)數(shù)據(jù)的實(shí)驗(yàn)結(jié)果表明,本文模型與目前最先進(jìn)方法的定量比較、定性比較都獲得了更好的重建性能。
3)三組消融實(shí)驗(yàn)驗(yàn)證了網(wǎng)絡(luò)模型和損失函數(shù)設(shè)置的合理性和缺失信號(hào)重建的有效性。
4)本文方法在訓(xùn)練過程中計(jì)算時(shí)間較長,如何在保證高精度的條件下提高計(jì)算效率也是另一個(gè)研究方向。
參考文獻(xiàn)(References):
[1] Fomel S. Seismic Reflection Data Interpolation with Differential Offset and Shot Continuation[J]. Geophysics, 2003, 68(2): 733744.
[2] Ma J W, Plonka G, Chauris H. A New Sparse Representation of Seismic Data Using Adaptive Easy-Path Wavelet Transform[J]. IEEE Geoscience and Remote Sensing Letters, 2010, 7(3): 540544.
[3] Naghizadeh M, Sacchi D. Beyond Alias Hierarchical Scale Curvelet Interpolation of Regularly and Irregularly Sampled Seismic Data[J]. Geophysics, 2010, 75(6): 189202.
[4] 楊帆,王長鵬,張春霞,等. 基于聯(lián)合加速近端梯度和對數(shù)加權(quán)核范數(shù)最小化的地震數(shù)據(jù)重建[J]. 吉林大學(xué)學(xué)報(bào)(地球科學(xué)版),2023,53(5):15821592.
Yang Fan, Wang Changpeng, Zhang Chunxia, et al. Seismic Data Reconstruction Based on Joint Accelerated Proximal Gradient and Log-Weighted Nuclear Norm Minimization[J]. Journal of Jilin University (Earth Science Edition), 2023, 53 (5): 15821592.
[5] Naghizadeh M, Sacchi M. Multidimensional De-Aliased Cadzow Reconstruction of Seismic Records[J]. Geophysics, 2013, 78(1): 15.
[6] Yu J, Wu B. Attention and Hybrid Loss Guided Deep Learning for Consecutively Missing Seismic Data Reconstruction[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 60: 18.
[7] Wang B, Zhang N, Lu W, et al. Deep-Learning-Based Seismic Data Interpolation: A Preliminary Result[J]. Geophysics, 2019,84(1): 1120.
[8] 張巖,劉小秋,李杰,等. 基于時(shí)頻聯(lián)合深度學(xué)習(xí)的地震數(shù)據(jù)重建[J]. 吉林大學(xué)學(xué)報(bào)(地球科學(xué)版),2023,53(1):283296.
Zhang Yan, Liu Xiaoqiu, Li Jie, et al. Seismic Data Reconstruction Based on Joint Time-Frequency Deep Learning[J]. Journal of Jilin University (Earth Science Edition), 2023, 53 (1): 283296.
[9] Fang W, Fu L, Zhang M, et al. Seismic Data Interpolation Based on UNet with Texture Loss[J]. Geophysics, 2021, 86(1): 4154.
[10] Wu X, Yan S, Bi Z, et al. Deep Learning for Multidimensional Seismic Impedance Inversion[J]. Geophysics, 2021, 86(5): 735745.
[11] Chen H, Gao J, Zhang W, et al. Seismic Acoustic Impedance Inversion via Optimization-Inspired Semisupervised Deep Learning[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 60: 111.
[12] Wu X, Shi Y, Fomel S, et al. FaultNet3D: Predicting Fault Probabilities,Strikes,and Dips with a Single Convolutional Neural Network[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 57(11): 91389155.
[13] Liu N, He T, Tian Y, et al. Common-Azimuth Seismic Data Fault Analysis Using Residual Unet[J]. Interpretation, 2020, 8(3): 2537.
[14] 李盼池,石彤,李學(xué)貴. 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的微地震數(shù)據(jù)降噪方法[J]. 吉林大學(xué)學(xué)報(bào)(理學(xué)版),2022,60(3):685696.
Li Panchi, Shi Tong, Li Xuegui. Denoising Method for Microseismic Data Based on Recurrent Neural Network[J].Journal of Jilin University (Science Edition), 2022, 60(3): 685696.
[15] 劉霞,孫英杰. 基于融合殘差注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)地震信號(hào)去噪[J]. 吉林大學(xué)學(xué)報(bào)(地球科學(xué)版),2023,53(2):609621.
Liu Xia, Sun Yingjie. Seismic Signal Denoising Based on Convolutional Neural Network with Residual and Attention Mechanism[J]. Journal of Jilin University (Earth Science Edition), 2023, 53 (2): 609621.
[16] Wang Y, Wang B, Tu N, et al. Seismic Trace Interpolation for Irregularly Spatial Sampled Data Using Convolutional Autoencoder[J]. Geophysics, 2020, 85(2): 119130.
[17] Wang B F, Lu W K, Geng J H, et al. Seismic Data Interpolation Using Deep Learning Based Residual Networks[C]//80th EAGE Conference and Exhibition. [S. l.]: EAGE, 2018: 15.
[18] Chai X T, Gu H M, Li F, et al. Deep Learning for Irregularly and Regularly Missing Data Reconstruction[J]. Scientific Reports, 2020, 10(1): 118.
[19] Chang D K, Yang W Y, Yong X S, et al. Generative Adversarial Networks for Seismic Data Interpolation[C]//2018 SEG Maximizing Asset Value Through Artificial Intelligence and Machine Learning Workshop. Beijing: China University of Geosicences, 2018: 4043.
[20] Yu J X, Wu B Y. Attention and Hybrid Loss Guided Deep Learning for Consecutively Missing Seismic Data Reconstruction[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5902108. Doi: 10.1109/TGRS. 2021.3068279.
[21] Liu P J, Zhang H Z, Zhang K, et al. Multi-Level Wavelet-CNN for Image Restoration[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Salt Lake: Institute of Electrical and Electronics Engineers, 2018. doi: 10.1109/CVPRW.2018. 00121.
[22] Ronneberger O, Fischer P, Brox T. UNet: Convolutional Net-Works for Biomedical Image Segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin: Springer International Publishing, 2015: 234241.
[23] Zhang R. Making Convolutional Networks Shift- Invariant Again[C]//Proceedings of the 36th International Conference on Machine Learing.
Long Beach:[s.n.], 2019: 73247334.
[24] Zhao H, Gallo O, Frosio I, et al. Loss Functions for Image Restoration with Neural Networks[J]. IEEE Trans Comput Imag, 2017, 3(1): 4757.
[25] Yi Z, Tang Q, Azizi S, et al. Contextual Residual Aggregation for Ultra High-Resolution Image Inpainting[C]//Computer Vision and Pattern Recognition. Seattle: Institute of Electrical and Electronics Engineers, 2020: 75087517.
[26] Yu J, Lin Z, Yang J, et al.Generative Image Inpainting with Contextual Attention[C]// Computer Vision and Pattern Recognition. Salt Lake: Institute of Electrical and Electronics Engineers, 2018: 55055514.
[27] Yu J, Lin Z, Yang J, et al.Free-Form Image Inpainting with Gated Convolution[C]// International Conference on Computer Vision. Seoul: Institute of Electrical and Electronics Engineers, 2019: 44714480.
[28] He T, Wu B, Zhu X. Seismic Data Consecutively Missing Trace Interpolation Based on Multistage Neural Network Training Process[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 15.
[29] Wang Z, Bovik C, Sheikh R, et al. Image Quality Assessment: From Error Visibility to Structural Similarity[J]. IEEE Trans Image Process, 2004, 13(4): 600612.