DOI:10.16601/j.cnki.issn2096-7330.2024.01.005"文章編號:2096-7330(2024)01-0021-11
摘"要:該文將截?cái)嗪朔稊?shù)應(yīng)用到子空間恢復(fù)問題中,通過構(gòu)造對應(yīng)的優(yōu)化模型,結(jié)合兩步迭代算法、線性化技術(shù)、乘子預(yù)測步和自適應(yīng)罰參數(shù)等技術(shù)方法,給出了一個(gè)求解該優(yōu)化模型的算法.數(shù)值實(shí)驗(yàn)的結(jié)果表明該算法是可行且有效的.
關(guān)鍵詞:子空間恢復(fù)問題;截?cái)嗪朔稊?shù);乘子預(yù)測步;自適應(yīng)罰參數(shù)
中圖分類號:O221.2""""文獻(xiàn)標(biāo)志碼:AHK1.5mm
1"問題背景
在圖像處理中,對于受到損壞或噪聲污染的數(shù)據(jù)矩陣X∈m×n,利用低維結(jié)構(gòu)特征可將其分解為一個(gè)低秩矩陣Z∈m×n與一個(gè)稀疏噪聲矩陣E∈m×n之和,從而使受損數(shù)據(jù)得到修復(fù).此類矩陣恢復(fù)問題也稱為低秩稀疏矩陣分解問題[1].如果用矩陣的核范數(shù)來近似反映矩陣秩的大小,則低秩稀疏矩陣分解問題可表示為凸優(yōu)化模型
HL(1:1,ZminDD(XZ∈m×n,E∈m×n=Z=*+λ=E=1,""s.t.""X=Z+E,HL)JY,2(1.1)
其中=·=表示矩陣的核范數(shù),=·=1表示矩陣所有元素的絕對值之和,λ是正加權(quán)參數(shù).近年來許多學(xué)者對優(yōu)化問題(1.1)進(jìn)行了研究,并獲得了相關(guān)理論和算法上的成果.
在上述矩陣恢復(fù)問題中,一般假設(shè)數(shù)據(jù)矩陣近似來自單個(gè)子空間,而在實(shí)際問題中,數(shù)據(jù)集往往來自多個(gè)子空間.把數(shù)據(jù)集分割到相應(yīng)的子空間并同時(shí)修正各子空間中可能受到的噪聲影響,即為子空間恢復(fù)問題[2],它對應(yīng)凸優(yōu)化問題
HL(1minDD(XZ∈n×n,E∈m×n=Z=*+λ=E=2,1,""s.t.""X=MZ+E,HL)JY,2(1.2)
其中λ>0,M∈m×n是一個(gè)子空間線性展開,它的每一列都來自獨(dú)立的低秩子空間,并且數(shù)據(jù)X的每個(gè)樣本都可通過M由Z的線性組合表示;=·=2,1表示l2,1-混合范數(shù),即矩陣各個(gè)列向量的l2-范數(shù)之和.當(dāng)(1.2)取得最小值(Z,E)時(shí),通過計(jì)算X-E(或MZ),便可恢復(fù)出原始數(shù)據(jù)X0.與(1.1)相比,模型(1.2)將損壞數(shù)據(jù)的恢復(fù)從單個(gè)子空間擴(kuò)展到多個(gè)子空間,這有利于充分考慮各子空間的結(jié)構(gòu)特征,從而能更精確地恢復(fù)子空間結(jié)構(gòu)并同時(shí)糾正可能存在的噪聲.
關(guān)于對模型(1.2)的求解,最早的解決方法是2010年Liu等[2]提出的低秩表示(LRR)方法,隨后Xiao等[3]給出原始分裂線性化增廣拉格朗日(PSLAL)算法,用較少的迭代次數(shù)和較短的計(jì)算時(shí)間便能獲得與LRR方法相似的恢復(fù)結(jié)果.2021年Shen等[4]提出了交替方向乘子法的三種變體——嵌套最小化方法(NMM),其中后兩個(gè)變形算法能以較少的迭代次數(shù)獲得與PSLAL方法相似的恢復(fù)結(jié)果,但算法的運(yùn)行時(shí)間有所增加.除算法的改進(jìn)外,模型的改進(jìn)及其相關(guān)應(yīng)用也備受人們關(guān)注.2018年Zhang等[5]考慮了LRR的兩種變體,一種是基于Schatten p-范數(shù)最小化的LRR(SpNM_LRR),另一種是基于Schatten p-范數(shù)因子分解的LRR(SpNF_LRR),并在約束中引入兩個(gè)或多個(gè)輔助變量,通過具有多個(gè)更新變量的交替方向乘子法來求相應(yīng)模型.2021年Zhang和Ren[6]將現(xiàn)有的單層潛在低秩模型擴(kuò)展到多層場景中,提出了一種新的漸進(jìn)式深度潛在低秩融合網(wǎng)絡(luò)(DLRF-Net).2022年Ishfaq和Manzoor[7]將分類字典學(xué)習(xí)方法和強(qiáng)制塊對角正則化策略引入子空間恢復(fù)模型中,得到了強(qiáng)制塊對角低秩表示(EBDLRR)模型,并用來識別醫(yī)學(xué)成像模式和恢復(fù)損壞樣本的數(shù)據(jù).
另一方面,不同于矩陣的秩算子同等地對待各非零奇異值,帶核范數(shù)的優(yōu)化模型在計(jì)算中對非零奇異值采用了不同等地位的處理,因而在實(shí)際應(yīng)用中,核范數(shù)不能精確地反映矩陣秩運(yùn)算,影響了矩陣恢復(fù)效果.2012年Zhang等[8]提出采用截?cái)嗪朔稊?shù)(TNN)的形式,它是矩陣Z的min(m,n)-r個(gè)最小奇異值的和,即=Z=r=∑min(m,n)i=r+1σi(Z),其中σi為Z的由大到小排列的奇異值;他們注意到TNN是矩陣秩算子的一種更精確、更穩(wěn)健的近似,于是將TNN應(yīng)用于矩陣補(bǔ)全問題,并用數(shù)值實(shí)驗(yàn)證明了TNN比一般的核范數(shù)更為有效,因此,近些年來截?cái)嗪朔稊?shù)受到了人們的大量關(guān)注和研究.2016年Cao等[9]將截?cái)嗪朔稊?shù)引入到低秩稀疏矩陣分解(LRSD)問題中,提出了一種有效的迭代方案來解決新的非凸優(yōu)化模型,之后討論并證明了該算法的收斂性.2018年Qian和Cao[10]利用奇異值估計(jì)(SVE)方法,提出了一種帶有TNN的LRSD自適應(yīng)算法,并通過大量的實(shí)驗(yàn)驗(yàn)證了該算法相對于其他方法的優(yōu)越性.2021年Wen等[11]將Schatten p-范數(shù)與截?cái)嗪朔稊?shù)相結(jié)合,提出了截?cái)郤chatten p-范數(shù)(TSPN),并將其應(yīng)用到低秩稀疏分解模型中;同年Liu[12]將截?cái)嗪朔稊?shù)與圖拉普拉斯算子相結(jié)合,提出了截?cái)嗪朔稊?shù)與圖拉普拉斯正則化低秩表示模型(TGLRR),并通過帶自適應(yīng)罰參數(shù)的線性化交替方向乘子法求解該優(yōu)化問題,之后將該模型應(yīng)用于腫瘤聚類和基因選擇方面.2022年Liang等[13]將截?cái)嗪朔稊?shù)作為秩近似函數(shù),lp范數(shù)作為誤差函數(shù),引入矩陣完備問題中,提出了新的優(yōu)化模型lp-TNN.
受此啟發(fā),本文將TNN應(yīng)用于子空間恢復(fù)問題,構(gòu)造帶截?cái)嗪朔稊?shù)的子空間數(shù)據(jù)恢復(fù)模型如下:
HL(1minDD(XZ∈n×n,E∈m×n=Z=r+λ=E=2,1,""s.t.""X=MZ+E,HL)JY,2(1.3)
其中=·=r表示矩陣的截?cái)嗪朔稊?shù),參數(shù)λ>0.
Zhang等[8]證明了=Z=r==Z=*-maxDD(XAAT=Ir,BBT=IrTr(AZBT),
故(1.3)可改寫為HL(1minDD(XZ∈n×n,E∈m×n=Z=*-maxDD(XAAT=Ir,BBT=IrTr(AZBT)+λ=E=2,1""s.t.""X=MZ+E,HL)JY,2(1.4)
假設(shè)其解集非空,則非凸優(yōu)化問題(1.3)轉(zhuǎn)化為一個(gè)相對易于求解的凸優(yōu)化問題(1.4).本文將給出一個(gè)求解(1.4)的有效解法.
2"預(yù)備知識
對于矩陣X,Y∈m×n,以XT表示X的轉(zhuǎn)置,〈X,Y〉=Tr(XTY)表示X與Y的Frobenius內(nèi)積,其中Tr(·)表示矩陣的跡.=XJB)=F=KF(Tr(XXT)KF)表示X的Frobenius范數(shù).[X]:,i表示X的第i列.
記{·}+=max(0,·),則以下矩陣范數(shù)優(yōu)化問題具有閉形式解.
性質(zhì)2.1[14]"設(shè)矩陣Y∈m×n的奇異值分解為Y=UΣVT,其中U∈m×r,V∈n×r,Σ=diag(σ1,σ2,…,σr),σ1>σ2>…>σr,則對任意μ>0,優(yōu)化問題
minDD(XZ∈m×nμ=Z=+SX(12SX)=Z-Y=2F
的解為Dμ(Y)=UΣμVT,其中Σμ=diag({σi-μ}+).
性質(zhì)2.2[15]"給定矩陣Y∈m×n,對任意μ>0,優(yōu)化問題
minDD(XE∈m×nμ=E=2,1+SX(12SX)=E-Y=2F
的最優(yōu)解為Sμ(Y),其中Sμ(Y)的第i列是
[Sμ(Y)]:,i={=[Y]:,i=2-μ}+SX([Y]:,i‖[Y]:,i‖2SX).
3"帶乘子預(yù)測的截?cái)嗪朔稊?shù)線性化自適應(yīng)算法
BT53.1"優(yōu)化問題(1.4)的自適應(yīng)兩步迭代算法1.65mm
首先做外循環(huán)步,令初始值Zre=X并作奇異值截?cái)嗔抗烙?jì),確定適合的截?cái)嗥娈愔祩€(gè)數(shù)r;然后是內(nèi)循環(huán)步,在第l次迭代對Zl作奇異值分解,得到Al和Bl,并求解凸優(yōu)化子問題
HL(1:1,ZminDD(XZ∈n×n,E∈m×n=Z=*-Tr(AlZBTl)+λ=E=2,1,""s.t.""X=MZ+E,HL)JY,2(3.1)
以此來更新Z和E;不斷重復(fù)以上兩個(gè)步驟,直到r值穩(wěn)定.算法框架如下:
算法1:自適應(yīng)兩步迭代算法
輸入"X∈m×n,M∈m×n,ε0>0,λ>0.
(外循環(huán))初始化"Zre=X,Z1=XTX,r0=rank(X);令k∶=1.
步1"通過對Zre做奇異值估計(jì)來確定截?cái)嗔縭k.若rk穩(wěn)定,則停止迭代,輸出Zre和Ere.
(內(nèi)循環(huán))步2"初始化X1=X;令l∶=1.
步2.1"對Zl做奇異值分解,得到[Ul,∑l,Vl]=SVD(Zl),其中Ul=(u1,…,un)∈Rn×n,Vl=(v1,…,vn)∈Rn×n,令A(yù)l=(u1,…,ur)T∈Rr×n,Bl=(v1,…,vr)T∈Rr×n.
步2.2"求解優(yōu)化子問題
HL(1[Zl+1,El+1]=argminDD(XZ,E=Z=*-Tr(AlZBTl)+λ=E=2,1,""s.t.""X=MZ+E,HL)JY,2(3.2)
令Xl+1:=MZl+1+El+1.
步2.3"檢驗(yàn)內(nèi)循環(huán)終止條件.若‖Xl+1-Xl‖F(xiàn)≤ε0,則停止內(nèi)循環(huán)迭代,并令Zre:=Zl+1,Ere:=El+1,k:=k+1,轉(zhuǎn)步1;否則,令l∶=l+1,轉(zhuǎn)步2.1.
在算法1中,主要的兩步是確定矩陣奇異值的截?cái)嗔縭和凸優(yōu)化子問題(3.2)的求解,下面分別對這兩步給出具體的解決方案.
3.2"奇異值截?cái)嗔康墓烙?jì)
如何選取截?cái)嗪朔稊?shù)的截?cái)嗔縭是一個(gè)非常重要的問題.Wang和Yin在[16]中提出了一種奇異值估計(jì)(SVE)方法,用于快速得到奇異值截?cái)嚓I值的估計(jì),其具體過程如下.
首先,對于給定的低秩矩陣Z∈m×n,由奇異值分解得到奇異值向量ΣTX~=(σ1,…,σmin(m,n))T,其分量由大到小排列.
然后,給定κ的值,取使得不等式
ΣTX~i:=|Δσi+1-Δσi|>κ
成立的最大的i,其中Δσi=|σi-σi+1|為σi的一階差分,便可得到截?cái)喙烙?jì)闕值ε~=σi.通過Θ:={i:σi>ε~}獲得截?cái)嗥娈愔档奈恢?,即算?中需要估計(jì)的截?cái)嗔縭為Θ的基數(shù)或其近似值.
2SVE方法可以使算法以最快的速度自適應(yīng)地找到合適的截?cái)嗥娈愔祩€(gè)數(shù),大大降低了時(shí)間成本,Qian和Cao[10]在合成數(shù)據(jù)和真實(shí)視覺數(shù)據(jù)的實(shí)驗(yàn)結(jié)果中也表明了引入SVE方法的算法比原算法更有效.
BT53.3"優(yōu)化子問題(3.2)的求解
為了更好地求解凸優(yōu)化子問題(3.2),我們將PSLAL算法[3]的思想、乘子預(yù)測步和自適應(yīng)罰參數(shù)相結(jié)合,以提高算法的效率.
優(yōu)化子問題(3.2)的增廣拉格朗日函數(shù)為
Lμ(E,Z,Λ,μ)==Z=*-Tr(AlZBTl)+λ=E=2,1+
〈Λ,X-MZ-E〉+SX(μ2SX)=X-MZ-EJB)=2F,JY,2(3.3)
其中Λ∈KX(RKX)m×n為拉格朗日乘子,μ>0為罰參數(shù).若給定(Ek,Zk,Λk,μk),考慮由帶乘子預(yù)測步的交替方向乘子迭代格式
KG13{HL(5:2,ZEk+1=argminDD(XE∈Rm×n Lμ(E,Zk,Λk,μk),KG6(3.4a)
Λk+SX(12SX)=Λk+μk(X-MZk-Ek+1),KG6(3.4b)
Zk+1=argminDD(XZ∈Rn×n Lμ(Ek+1,Z,Λk+SX(12SX),μk),KG6(3.4c)
Λk+1=Λk+μk(X-MZk+1-Ek+1),KG6(3.4d)
μk+1=min(ρμk,μmax),(ρ>1)KG6(3.4e)HL)
得到下一個(gè)迭代點(diǎn)(Ek+1,Zk+1,Λk+1,μk+1).易見算法主要的計(jì)算在于(3.4a)和(3.4c).利用性質(zhì)2.2可推出
Ek+1=argminDD(XE∈KX(RKX)m×n Lμ(E,Zk,Λk,μk)=
argminDD(XE∈KX(RKX)m×n λ=EJB)=2,1+〈Λk,X-MZk-E〉+SX(μk2SX)=X-MZk-E=2F=
argminDD(XE∈KX(RKX)m×n λ=E=2,1+SX(μk2SX)=X-MZk-E+Λk/μk=2F=
SSX(λμkSX)(X-MZk+Λk/μk),JY,2(3.5)
而對給定μk和最新的Ek+1,Λk+SX(12SX),(3.4c)可改寫為
Zk+1=argminDD(XZ∈KX(RKX)n×n Lμ(Ek+1,Z,Λk+SX(12SX),μk)=
argminDD(XZ∈KX(RKX)n×n=Z=-Tr(AlZBTl)+〈Λk+SX(12SX),X-MZ-Ek+1〉+SX(μk2SX)=X-MZ-Ek+1=2F=
argminDD(XZ∈KX(RKX)n×n=Z=+SX(μk2SX)=X-MZ-Ek+1+SX(1μkSX)(Λk+SX(12SX)+(M)TATlBl)=2F,JY,2(3.6)
其中M表示矩陣M的廣義逆.由于(36)難以精確求解,我們利用PSLAL算法[3]的思想,對(36)中的第二項(xiàng)在Zk處做線性化近似,即令
Gk=MT(MZk+Ek+1-X-SX(1μkSX)(Λk+SX(12SX)+(M)TATlBl)),
則有
SX(12SX)=X-MZ-Ek+1+SX(1μkSX)(Λk+SX(12SX)+(M)TATlBl)=2F≈
SX(12SX)=X-MZk-Ek+1+SX(1μkSX)(Λk+SX(12SX)+(M)TATlBl)=2F+〈Gk,Z-Zk〉+SX(12τSX)=Z-Zk=2F,JY,2(3.7)
其中τ>0.將上式代入(3.6),利用性質(zhì)2.1得
Zk+1≈argminDD(XZ∈KX(RKX)n×n=Z=+SX(μk2SX)=X-MZk-Ek+1+SX(1μkSX)(Λk+SX(12SX)+(M)TATlBl)=2F+
μk〈Gk,Z-Zk〉+SX(μk2τSX)=Z-Zk=2F=
argminDD(XZ∈KX(RKX)n×n=Z=+μk〈Gk,Z-Zk〉+SX(μk2τSX)=Z-Zk=2F=
argminDD(XZ∈KX(RKX)n×n=Z=+SX(μk2τSX)=Z-(Zk-τGk)=2F=
DSX(τμkSX)(Zk-τGk).JY,2(3.8)
于是迭代子問題(3.4a)和(3.4c)分別具有閉形式解(3.5)和(3.8).由此給出求解(3.2)的帶乘子預(yù)測的線性化自適應(yīng)(LAMP)算法如下.
算法2:帶乘子預(yù)測的線性化自適應(yīng)算法(LAMP)
輸入"X∈m×n,M∈m×n,Al∈r×n,Bl∈r×n,λ>0,τ>0,μ0>0,μmax>0,ρ>1,maxiter>0,eps>0.
初始化"Z0=zeros(n,n),E0=zeros(m,n),Λ0=zeros(m,n);令k:=0.
步1"固定其他,計(jì)算Ek+1=SSX(λμkSX)(X-MZk+Λk/μk).
步2"更新乘子Λk+SX(12SX)=Λk+μk(X-MZk-Ek+1).
步3"固定其他,計(jì)算Zk+1=DSX(τμkSX)(Zk-τGk).
步4"更新乘子Λk+1=Λk+μk(X-MZk+1-Ek+1).
步5"更新參數(shù)μk+1=min(ρμk,μmax).
步6"若=Zk+1-Zk=F≤eps,=Λk+1-Λk=F≤eps,則停止迭代,令E=Ek+1,Z=Zk+1,Λ=Λk+1,輸出E,Z,Λ;否則,令k∶=k+1,轉(zhuǎn)步1.
4"數(shù)值實(shí)驗(yàn)
+1為了驗(yàn)證所提出算法的可行性和有效性,我們分別使用合成數(shù)據(jù)和真實(shí)數(shù)據(jù)對本文帶乘子預(yù)測的線性化自適應(yīng)(LAMP)算法進(jìn)行測試,并與文獻(xiàn)[2]提出的低秩表示(LRR)算法和文獻(xiàn)[3]中提出的原始分裂線性化增廣拉格朗日(PSLAL)算法做了數(shù)值結(jié)果比較.所有實(shí)驗(yàn)采用配置8GB內(nèi)存、160GHz、Intel(R)Core(TM)i5-8250U CPU的聯(lián)想電腦,在Windows 11系統(tǒng)的Matlab R2017B編碼運(yùn)行.
4.1"合成數(shù)據(jù)的數(shù)值實(shí)驗(yàn)比較
4.1.1 參數(shù)設(shè)置
在測試中,X∈m×n為受到噪聲污染的數(shù)據(jù)矩陣,LAMP算法參數(shù)設(shè)置為
M=X,"τ=SX(12λmax(MTM)SX),"ρ=1.1,"μ0=10-4,"λ=1,"μmax=1010,
κ=SX(s×KF(m×nKF)30SX),其中s=1,2,3.
規(guī)定迭代終止準(zhǔn)則為:當(dāng)=Zk+1-Zk=F≤10-6,=Λk+1-Λk=F≤10-6時(shí)或迭代次數(shù)超過500時(shí),算法2停止迭代;當(dāng)=Xk+1-Xk=F≤10-5時(shí)或迭代次數(shù)超過100時(shí),算法1內(nèi)循環(huán)迭代停止;當(dāng)r取值穩(wěn)定或r=0時(shí),算法1外循環(huán)迭代停止.用于數(shù)值實(shí)驗(yàn)比較的LRR算法[2]使用了原文獻(xiàn)的參數(shù)設(shè)置、迭代終止準(zhǔn)則及作者提供的軟件包;而在PSLAL算法[3]中,我們設(shè)置參數(shù)μ0=10-4,并將原文獻(xiàn)的參數(shù)值λ=01以及另一組相對數(shù)值結(jié)果更好的參數(shù)設(shè)置λ=1(見表2)一起進(jìn)行比較.
我們通過比較恢復(fù)誤差
Totalerr=SX(=X-re-X=F=XJB)=FSX)
來檢驗(yàn)算法的有效性(其中X_re是通過算法得到的重構(gòu)矩陣),通過比較分割精度來判斷子空間分割的效果(分割精度是成功把數(shù)據(jù)向量分割到相應(yīng)的子空間的百分比).
4.1.2 數(shù)據(jù)合成處理
實(shí)驗(yàn)數(shù)據(jù)來自文獻(xiàn)[2]提供的自帶噪聲數(shù)據(jù)集yaleb10.mat,我們從中截取前320行320列的數(shù)據(jù)矩陣,這個(gè)數(shù)據(jù)矩陣分別來自五個(gè)獨(dú)立的子空間{Si∈320}5i=1,從每個(gè)子空間中隨機(jī)抽取4個(gè)線性無關(guān)的列向量,記為X0i∈320×4(i=1,…5),再通過Xi=X0iUi(1≤i≤5)生成64個(gè)數(shù)據(jù)向量樣本,其中Ui是各元素獨(dú)立、服從標(biāo)準(zhǔn)正態(tài)分布的4×64維隨機(jī)矩陣.由此可以構(gòu)造得到一個(gè)秩r0為20、來自五個(gè)獨(dú)立子空間、受噪聲污染的數(shù)據(jù)矩陣X=[X1,X2,X3,X4,X5]∈320×320.
4.1.3 數(shù)值實(shí)驗(yàn)
如前所述,在兩步迭代算法中截?cái)嗔縭的不同取值計(jì)算效率有影響,用奇異值估計(jì)方法能使算法以最快的速度自適應(yīng)地找到合適的截?cái)嗥娈愔祩€(gè)數(shù).為了比較用奇異值估計(jì)方法得到的截?cái)嗔縭的有效性,我們將帶有奇異值估計(jì)的自適應(yīng)算法1與采用固定截?cái)嗔縭的計(jì)算結(jié)果逐一列在表1中.其中用奇異值估計(jì)方法得到的合適截?cái)嗔繛?.顯然,相較于r取其他值的情形,此時(shí)算法的分割精度高且恢復(fù)誤差低,由此表明用奇異值估計(jì)方法得到的截?cái)嗔縭是最合適的截?cái)嘀?,即奇異值估?jì)方法可以在兩步迭代算法中起到自適應(yīng)作用且可以獲得最好的子空間恢復(fù)效果.
接著將本文帶乘子預(yù)測的線性化自適應(yīng)(LAMP)算法與文獻(xiàn)[2]的低秩表示(LRR)算法和文獻(xiàn)[3]的原始分裂線性化增廣拉格朗日(PSLAL)算法的數(shù)值結(jié)果進(jìn)行比較.圖1~3分別展示了三個(gè)算法的親和矩陣,相對應(yīng)的數(shù)值結(jié)果在表2中給出.結(jié)果表明,在相同的數(shù)據(jù)下,LAMP算法能保留更多的數(shù)據(jù)信息,并且以更少的迭代次數(shù)獲得與LRR算法一樣高的分割精度和與PSLAL算法一樣少的恢復(fù)誤差.
在參數(shù)λ的取值對算法穩(wěn)健性影響方面,我們分別給出LAMP算法、PSLAL算法與LRR算法在參數(shù)λ的不同取值下的分割精度(Segmentation accuracy)、恢復(fù)誤差(Totalerr)和迭代次數(shù)(Iterations).圖4~6顯示,當(dāng)0.05≤λ≤1時(shí),隨著λ的增大,LAMP算法和PSLAL算法的分割精度和迭代次數(shù)逐漸增大,恢復(fù)誤差逐漸減小,并且LAMP算法在分割精度上略優(yōu)于PSLAL算法.
圖7~9直接使用數(shù)據(jù)集yaleb10.mat中的前320行320列作為測試矩陣.在λ較小時(shí),LAMP算法的迭代次數(shù)少,但分割精度和恢復(fù)誤差都不如LRR算法;但在λ>0.2后,LAMP算法在分割精度、恢復(fù)誤差和迭代次數(shù)上均明顯優(yōu)于LRR算法.
圖10和圖11是LAMP算法和LRR算法在上述觀測數(shù)據(jù)下恢復(fù)的低秩圖和噪聲圖.在本次測試中,LAMP算法的分割精度為0953,恢復(fù)誤差為18289e-13,迭代次數(shù)為209;LRR算法的分割精度0950,恢復(fù)誤差為22837e-10,迭代次數(shù)為198.LAMP算法提取出來的噪聲圖更清晰,分割精度略高,恢復(fù)誤差更小.實(shí)驗(yàn)表明,LAMP算法在恢復(fù)子空間結(jié)構(gòu)和校正可能的噪聲方面是有效的.
在圖像處理中將數(shù)據(jù)矩陣X分解為低秩部分X0和稀疏部分E,其中低秩部分X0對應(yīng)于整個(gè)數(shù)據(jù)集的主要特征.而稀疏部分E對應(yīng)于不能由低秩子空間建模的稀有特征.這意味著可以使用LAMP算法來提取主體特征和顯著區(qū)域.為了可視化LAMP算法的有效性,我們使用擴(kuò)展的Yale B數(shù)據(jù)庫[17]中受試者yaleB05的任意五張?jiān)诓煌h(huán)境光照條件下的圖像進(jìn)行實(shí)驗(yàn).這些圖片的像素均是192×168.我們采用的測試參數(shù)為μ0=10-3,λ=101.圖12展示了應(yīng)用LAMP算法產(chǎn)生的恢復(fù)效果圖.可以發(fā)現(xiàn),即使在不同的光照條件下,LAMP算法在提取主體特征和顯著區(qū)域上都可以取得良好的效果.
5"結(jié)束語
由于秩函數(shù)是非凸且不連續(xù)的,+1所以含有矩陣秩函數(shù)的模型難以直接求解,通常用核范數(shù)近似代替秩函數(shù).然而,當(dāng)矩陣奇異值元素的值較大時(shí),核范數(shù)因其不平等地對待每個(gè)奇異值元素,故不能準(zhǔn)確地估計(jì)矩陣的秩.因此,核范數(shù)可能不是秩算子的良好近似,從而影響矩陣恢復(fù)效果.相比之下,截?cái)嗪朔稊?shù)是秩函數(shù)的一個(gè)更精確、更穩(wěn)健的近似,表現(xiàn)出比標(biāo)準(zhǔn)核范數(shù)更好的性質(zhì),因而近年來受到了學(xué)者們的廣泛關(guān)注和研究.本文將截?cái)嗪朔稊?shù)模型應(yīng)用到子空間恢復(fù)問題中,構(gòu)造出一個(gè)新的優(yōu)化模型——帶截?cái)嗪朔稊?shù)的子空間恢復(fù)模型,該模型可以充分考慮各子空間的結(jié)構(gòu)特征,從而能改善矩陣恢復(fù)的效果.
為了更好地求解新的優(yōu)化模型,我們在兩步迭代算法的基礎(chǔ)上結(jié)合了奇異值估計(jì)方法,該方法可以自適應(yīng)地找到最合適的奇異值截?cái)嗔浚档蜁r(shí)間成本;然后,在對自適應(yīng)兩步迭代算法中的凸優(yōu)化子問題求解過程中,我們將乘子預(yù)測步、線性化技術(shù)和自適應(yīng)罰參數(shù)這三種策略進(jìn)行有效結(jié)合,并在交替方向乘子法中實(shí)現(xiàn),由此得到帶乘子預(yù)測的線性化自適應(yīng)(LAMP)算法.相較于傳統(tǒng)的交替方向乘子法,LAMP算法通過線性化技術(shù)可以對不易求解的子問題進(jìn)行模擬并得到一個(gè)閉形式解,并且通過乘子預(yù)測步和自適應(yīng)罰參數(shù)策略來提高算法的收斂速度.最后,我們用數(shù)值實(shí)驗(yàn)驗(yàn)證了本文所提出模型及算法的可行性及有效性.
在上述算法進(jìn)行改進(jìn)的研究中還有一些問題尚未解決:(1)因多次使用奇異值分解,算法消耗的時(shí)間較大,因此如何提高算法的收斂速度有待進(jìn)一步研究.(2)尚未涉及算法的收斂性,我們將在后續(xù)工作中討論這個(gè)問題.
參考文獻(xiàn):
[1]"Tao Min, Yuan Xiaoming. Recovering low-rank and sparse components of matrices from incomplete and noisy observations[J]. Society for Industrial and Applied Mathematics, 2011,21(1):57-81.
[2]"Liu Guangcan, Lin Zhouchen, Yu Yong. Robust subspace segmentation by low-rank representation[J]. Proceedings of the 27th International Conference on Machine Learning, 2010:663-670.
[3]"Xiao Yunhai, Wu Soon-Yi, Li Donghui. Splitting and linearizing augmented Lagrangian algorithm for subspace recovery from corrupted observations[J]. Advances in Computational Mathematics,2013,38(4):837-858.
[4]"Shen Nan, Jin Zhengfen, Wang Qiuyu. Nested alternating direction method of multipliers to low-rank and sparse-column matrices recovery[J]. Chinese Quarterly Journal of Mathematics, 2021,36(1):90-110.
[5]"Zhang Hengmin, Yang Jian, Shang Fanhua,et al. LRR for subspace segmentation via tractable Schatten-p norm minimization and factorization[J]. IEEE Transactions on Cybernetics, 2019,49(5):2168-2267.
[6]"Zhang Zhao, Ren Jiahuan, Zhang Haijun,et al. DIRF-Net: A progressive deep latent low-rank fusion network for hierarchical subspace discovery[J].ACM Transactions on Multimedia Computing Communications and Applications, 2021,17(1s):1-24.
[7]"Ishfaq Majeed Sheikh, Manzoor Ahmad Chachoo. An enforced block diagonal low-rank representation method for the classification of medical image patterns[J].International Journal of Information Technology, 2022,14(3):1221-1228.
[8]"Zhang Debing, Hu Yao, Ye Jieping, et al. Matrix completion by truncated nuclear norm regularization[J]. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2012:2192-2199.
[9]"Cao Feilong, Chen Jiaying, YeHailiang, et al. Recovering low-rank and sparse matrix based on the truncated nuclear norm[J]. Neural Networks,2017,85:10-20.
[10]Qian Wenchao, Cao Feilong. Adaptive algorithms for low-rank and sparse matrix recovery with truncated nuclear norm[J]. International Journal of Machine Learning and Cybernetics, 2018,10:1341-1355.
[11]Wen Chenglin, Qian Wenchao, Zhang Qinghua, et al. Algorithms of matrix recovery based on truncated Schatten p-norm[J]. International Journal of Machine Learning and Cybernetics,2021,12(5):1557-1570.
[12]Liu Qi. A truncated nuclear norm and graph-Laplacian regularized low-rank representation method for tumor clustering and gene selection[J]. BMC Bioinformatics, 2022,22(Suppl 12):436.
[13]Liang Hao, Kang Li, Huang Jianjun. A robust low-rank matrix completion based on truncated nuclear norm and lp-norm[J]. The Journal of Supercomputing, 2022,78(11):12950-12972.
[14]Ma Shiqian, Goldfarb Donald, Chen Lifeng. Fixed point and Bregman iterative methods for matrix rank minimization[J]. Mathematical Programming, 2011,128(1-2):321-353.
[15]John Duchi, Singer Yoram. Efficient online and batch learning using forward backward splitting[J]. The Journal of Machine Learning Research,2009,10:2899-2934.
[16]Wang Yilun, Yin Wotao. Sparse signal reconstruction via iterative support detection[J].SIAM Journal on Imaging Sciences, 2010,3(3):462-491.
[17]Xue Zhichao, Dong Jing, Zhao Yuxin, et al. Low-rank and sparse matrix decomposition via the truncated nuclear norm and a sparse regularizer[J]. The Visual Computer, 2019,35(11):1549-1566.
[責(zé)任編輯:彭喻振]
收稿日期:2023-09-06
*基金項(xiàng)目:廣西自然科學(xué)基金項(xiàng)目(2022GXNSFAA035618)
第一作者簡介:王文靜(1999—),女,河南新鄭人,碩士研究生,研究方向:最優(yōu)化理論與算法。
通信作者簡介:陸莎(1974—),女,廣西南寧人,副教授,博士,研究方向:最優(yōu)化理論與算法。