国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于生成式對抗網絡的聯(lián)邦學習后門攻擊方案

2021-11-05 12:04陳大衛(wèi)付安民周純毅陳珍珠
計算機研究與發(fā)展 2021年11期
關鍵詞:觸發(fā)器后門攻擊者

陳大衛(wèi) 付安民 周純毅 陳珍珠

1(南京理工大學計算機科學與工程學院 南京 210094) 2(信息安全國家重點實驗室(中國科學院信息工程研究所) 北京 100093) (894346698@qq.com)

聯(lián)邦學習[1]將深度學習模型與分布式訓練相結合,使得多方用戶在不共享數(shù)據(jù)的情況下,協(xié)同參與訓練全局模型,降低了傳統(tǒng)集中式學習中的用戶隱私泄露風險和通信開銷[2],從技術層面可以打破數(shù)據(jù)孤島,明顯提高深度學習的性能,能夠實現(xiàn)多個領域的落地應用,比如智慧醫(yī)療、智慧金融、智慧零售和智慧交通等[3-4].聯(lián)邦學習作為大數(shù)據(jù)使用的新范式,是破解數(shù)據(jù)隱私保護與數(shù)據(jù)孤島難題的新思路,一經提出就成為國際學術界和產業(yè)界關注的焦點.

海量的用戶數(shù)據(jù)、豐富的應用場景促進了聯(lián)邦學習技術的蓬勃發(fā)展,但聯(lián)邦學習數(shù)以萬計的用戶中可能存在惡意用戶,并且用戶的本地訓練過程對于服務器不可見,服務器無法驗證用戶更新的正確性[5-7],特別是服務器采用加權平均算法對參數(shù)進行更新,限制了異常檢測的使用,這些缺陷的存在使得聯(lián)邦學習框架極易遭受投毒攻擊[8]、對抗樣本攻擊[9-11]和后門攻擊[12].

后門攻擊通過在攜帶觸發(fā)器的數(shù)據(jù)上訓練模型,使得模型能夠在不包含觸發(fā)器的場景下正常進行分類任務.但當模型識別到觸發(fā)器的特征時,后門被激發(fā),模型會定向分類攻擊者指定的標簽.后門攻擊的本質在于模型對于觸發(fā)器的特征過擬合,當神經網絡中神經元同時遇到普通特征與觸發(fā)器特征時,會優(yōu)先分類為觸發(fā)器特征對應的標簽.Yao等人[13]在網絡上發(fā)布植入后門的預訓練模型,并通過遷移學習感染用戶模型,提高了后門攻擊的隱蔽性.Liu等人[14]研究不同觸發(fā)器與神經網絡中內在神經元之間的聯(lián)系,建立起觸發(fā)器與關鍵神經元之前的強聯(lián)系,模型識別觸發(fā)器時,所選神經元就會觸發(fā),導致偽裝式輸出.這使得后門攻擊的隱蔽性與危害性得到了顯著的提升.

后門攻擊在集中式學習與聯(lián)邦學習中的實現(xiàn)方式有所差異,集中式學習中攻擊者一般在本地訓練后門模型,將其上傳至云端服務器,供用戶下載,從而實現(xiàn)后門攻擊.而在聯(lián)邦學習中,攻擊者在本地將觸發(fā)器植入訓練數(shù)據(jù)生成后門樣本數(shù)據(jù)集,在每個訓練批次內同時訓練本地樣本以及后門樣本,從而訓練后門模型.后門模型經過參數(shù)聚合過程,逐漸影響整個聯(lián)邦環(huán)境下用戶的本地模型,因此危害面更廣.Bagdasaryan等人[15]首次提出了針對聯(lián)邦學習的后門攻擊,攻擊者上傳植入后門的模型,并通過優(yōu)化算法縮放本地模型權重,進而替換全局模型.當全局模型在執(zhí)行分類任務時,會按照攻擊者指定的目標標簽進行分類.Xie等人[16]在現(xiàn)有的攻擊方式上,提出了分布式后門攻擊(distributed backdoor attack, DBA),該方案采用多個觸發(fā)器植入后門,多個局部觸發(fā)器組合成全局觸發(fā)器,提升了后門攻擊的精度.

針對存在的后門攻擊,研究人員也提出了不同防御手段[17],包括神經元檢測、觸發(fā)器重構技術等.Liu等人[18]采用人工腦刺激(artificial brain stimula-tion, ABS)技術識別對特定標簽有較高異常值的關鍵神經元,能成功檢測出模型中是否存在隱藏的后門.Wang等人[19]通過重構觸發(fā)器來識別后門模型.針對所有輸出標簽類,使用反向工程重構觸發(fā)器以識別后門樣本,以修剪與觸發(fā)器相關的神經元的方式防御后門攻擊.由于目前后門攻擊方案需要執(zhí)行多輪后門訓練才能使后門模型收斂,造成了額外的計算開銷,并且后門方案中的觸發(fā)器采用隨機性圖片或像素點,與訓練數(shù)據(jù)集中樣本存在較大的差異,使觸發(fā)器容易被檢測、重構,影響了后門攻擊的效果.

因此,針對后門攻擊中收斂速率較慢以及觸發(fā)器與干凈樣本差異較大而易被檢測等問題,本文提出了一種新型聯(lián)邦學習后門攻擊方案Bac_GAN,通過采用生成式對抗網絡(generative adversarial networks, GAN)技術[20-22]設計了1個觸發(fā)器生成算法Trig_GAN,能夠降低觸發(fā)器樣本與訓練樣本間的差異,從而提升觸發(fā)器的隱蔽性.并且通過良性特征混合訓練以及縮放后門模型大幅縮短模型的收斂速率,從而顯著提升后門攻擊成功率.本文的主要貢獻有3個方面:

1) 設計了1個新的基于生成式對抗網絡的觸發(fā)器生成算法Trig_GAN,從聯(lián)邦學習樣本中直接生成觸發(fā)器,將觸發(fā)器以水印[23]的形式植入干凈樣本,明顯降低了觸發(fā)器樣本與訓練樣本的差異,從而提升了觸發(fā)器的隱蔽性.

2) 基于設計的觸發(fā)器算法,提出了一種新型聯(lián)邦學習后門攻擊方案Bac_GAN,該方案通過良性特征混合訓練保證了后門任務與正常分類任務的精度.特別是,通過縮放后門模型,避免了參數(shù)聚合過程中后門貢獻被抵消的問題,使得后門模型能夠短時間內達到收斂,進而提升后門攻擊成功率.

3) 通過從觸發(fā)器生成、水印系數(shù)、縮放系數(shù)等后門攻擊核心要素進行了實驗測試,給出了影響后門攻擊性能的最佳參數(shù),并與在MNIST與CIFAR-10數(shù)據(jù)集上對比現(xiàn)有典型后門攻擊方案,實驗證明Bac_GAN能夠顯著提升后門攻擊的收斂速率與攻擊成功率.

1 相關技術

1.1 聯(lián)邦學習框架

圖1顯示了聯(lián)邦學習的框架,用戶首先下載初始的全局模型參數(shù),根據(jù)服務器提供的學習算法在本地進行訓練并上傳本地模型參數(shù),服務器對用戶上傳的參數(shù)采用加權平均算法更新全局模型,然后用戶即可下載新的全局模型參數(shù)進行下一輪訓練.

Fig.1 The architecture of federated learning圖1 聯(lián)邦學習框架

具體來說,聯(lián)邦學習目的在于將用戶本地模型聚合成1個全局模型,將深度學習任務分配給n個用戶.首先,在每輪t中,服務器隨機挑選m個用戶,并向他們分發(fā)初始的全局模型Gt.每個被選中的用戶對其本地數(shù)據(jù)進行訓練,然后將該模型更新為新的本地模型Lt+1,并將差異Lt+1-Gt返回服務器.服務器對接收到的更新進行聚合,以獲得新的全局模型:

(1)

1.2 生成式對抗網絡

生成式對抗網絡GAN是2014年Goodfellow等人[24]首次提出,旨在解決如何從現(xiàn)有樣本中訓練新樣本的問題,從而達到拓展數(shù)據(jù)集的目的.GAN技術的關鍵在于學習訓練樣本的數(shù)據(jù)分布,從而發(fā)現(xiàn)隨機變量演變到訓練樣本的映射函數(shù).GAN主要包含2部分,即生成器模型與判別器模型.生成器是1個由多層感知器組成的神經網絡模型,其作用在于將隨機的一維噪聲轉換為新的數(shù)據(jù)樣本.判別器則是判斷樣本是真實樣本還是生成網絡產生的假樣本的概率.首先,生成器通過輸入滿足先驗概率分布的隨機噪聲z,生成偽造的數(shù)據(jù).其目的在于使偽造的數(shù)據(jù)與真實數(shù)據(jù)無差別,即判別器識別數(shù)據(jù)G(z,θg)為真的概率盡可能大.目標函數(shù)為

(2)

θd,θg分別為判別器與生成器的模型參數(shù),x為真實樣本,F(xiàn)(·)表示x來自于真實數(shù)據(jù)分布的概率,H(·)表示將輸入的噪聲z映射成數(shù)據(jù).判別器的功能是判斷生成的樣本是否為真,即使輸出為真實數(shù)據(jù)x的概率盡可能高,而使輸出為生成器生成的假樣本H(z,θg)的概率盡可能低,其目標函數(shù)為

(3)

2 基于生成式對抗網絡的后門攻擊

為了降低觸發(fā)器特征與原樣本特征之間的差異同時提高后門模型的收斂速率,我們利用GAN技術生成接近真實樣本的觸發(fā)器,進而實現(xiàn)了Bac_GAN后門攻擊方案.下面我們先闡述聯(lián)邦學習后門攻擊模型,然后給出觸發(fā)器算法Trig_GAN的設計,最后詳細說明構建的后門攻擊方案Bac_GAN.

2.1 聯(lián)邦學習后門攻擊模型

圖2顯示了聯(lián)邦學習場景下的后門攻擊模型.攻擊者偽裝成良性用戶參與聯(lián)邦學習,在本地訓練過程中,攻擊者在攜帶觸發(fā)器的數(shù)據(jù)集上訓練后門模型,上傳的后門模型通過加權平均等算法進一步改變原始數(shù)據(jù)的原始分布和學習算法邏輯,從而試圖控制聯(lián)邦學習系統(tǒng)產生1個全局模型,使得全局模型在帶有觸發(fā)器的目標輸入上實現(xiàn)較高的攻擊成功率,同時在其主要分類任務上保持較高的精度.在分類任務的背景下,我們定義3個指標來評價后門攻擊性能:

1) 后門攻擊準確率.即攻擊成功率,指帶有觸發(fā)器樣本的分類置信度,使全局模型將帶有觸發(fā)器的圖像分類為攻擊者指定的標簽;

2) 主要任務準確率.表示全局模型對干凈樣本應具有較高的分類精度,以防止全局模型被丟棄;

3) 收斂速率.達到相同準確精度,模型訓練的輪數(shù).

Fig.2 The Backdoor attack model of federated learning圖2 聯(lián)邦學習后門攻擊模型

通常,我們假設攻擊者具有4種能力:

1) 攻擊者控制本地訓練數(shù)據(jù);

2) 控制本地訓練過程和模型結構以及超參數(shù),如epoch數(shù)和學習率;

3) 在將生成的本地模型提交聚合之前,可以對本地模型參數(shù)進行修改;

4) 可以自適應地逐輪改變模型的局部訓練.

2.2 觸發(fā)器算法Trig_GAN設計

實施后門攻擊的關鍵在于建立隱蔽、巧妙的觸發(fā)器生成算法,而使用其他良性用戶的真實訓練樣本作為觸發(fā)器,不僅能增加觸發(fā)器的隱蔽性,同時能使得后門模型在相同的訓練輪數(shù)下更快收斂.為了使攻擊者獲得其他用戶多個類的部分真實訓練樣本,同時判斷出真實訓練樣本中的主要標簽,本文提出了一種基于生成對抗網絡的觸發(fā)器生成算法Trig_GAN.該算法利用GAN模型生成其他用戶的真實樣本作為觸發(fā)器.

GAN模型中需要真實樣本作為判別器的輸入,而在聯(lián)邦學習模式下全局模型參數(shù)是通過在每個參與者的上傳數(shù)據(jù)進行模型訓練后加權平均生成,因此可以用來更新判別器的模型參數(shù).這相當于直接在其他用戶的真實訓練樣本上訓練判別器.這種巧妙的方式使得生成器可以很容易地產生與真實訓練樣本相似的偽樣本.圖3為聯(lián)邦學習模式下GAN模型示意圖,其中判別器與全局模型有著相同的結構(網絡層數(shù)相同,輸出不同),并且隨著用戶與服務器迭代次數(shù)的增加而更新其網絡參數(shù).在聯(lián)邦學習過程中,一方面本地用戶模型的更新會促進全局模型的收斂,另一方面判別器模型作為全局模型的更新也會通過全局模型參數(shù)進行同步更新.同時,生成器以噪聲Znoise為輸入,有條件地生成特定的樣本.

Fig.3 GAN model of federated learning mode圖3 聯(lián)邦學習模式下GAN模型

本文將生成的偽樣本反向輸入全局模型中,選擇準確率最高的一類作為觸發(fā)器.算法1給出了觸發(fā)器生成算法的形式化描述.在每輪迭代中,攻擊者首先下載全局模型Gt并且初始化判別器的模型參數(shù).生成器接受隨機噪聲后產生偽樣本xfake,并且將這些樣本發(fā)送到判別器.如果判別器將xfake的標簽判斷屬于樣本空間的一類,將xfake賦值于xm,否則更新式(1).最后攻擊者將選擇的標簽ym分配給xm并將其添加到觸發(fā)器集合中.如果攻擊者在聯(lián)邦學習中不斷加入,生成器可以生成大量的偽樣本集合,進而生成大量的觸發(fā)器集合.將觸發(fā)器集合按照標簽進行分類,反向輸入模型進行預測,最后輸出準確值最高的樣本作為本文選擇的觸發(fā)器.

在整個聯(lián)邦學習訓練過程中,由于觸發(fā)器的樣本占所有用戶樣本的絕大部分,因此全局模型在某種程度上,對于觸發(fā)器的特征過擬合.將觸發(fā)器加入到攻擊者的訓練樣本上,能夠使得后門模型在短時間內達到收斂.同時觸發(fā)器的特征接近真實樣本的特征,避免觸發(fā)器被檢測、重構,提升了觸發(fā)器的隱蔽性.

算法1.觸發(fā)器生成算法Trig_GAN.

輸入:全局模型參數(shù)Gt、噪聲樣本Znoise、標簽分布Y;

輸出:觸發(fā)器樣本Dtrigger.

① 初始化判別器與生成器;

Repeat

② 使用Gt更新判別器的模型參數(shù);

Repeat

③ 運行生成器生成偽樣本xfake,并將其發(fā)送至判別器;

④ 如果偽樣本屬于目標標簽ym,使得xm=xfake,否則基于式(2)更新生成器;

⑤ 如果xm的標簽等于ym,分配標簽ym給樣本xm,并將樣本(xm,ym)添加到Dtrigger;

Untilepoch周期結束;

Repeat

⑥ 將觸發(fā)器集合Dtrigger按照標簽分類,反向輸模型,記錄準確率較高的一類;

UntilDtrigger集合全部遍歷;

Until通信結束;

Return觸發(fā)器樣本Dtrigger.

2.3 后門攻擊Bac_GAN構建

基于Trig_GAN觸發(fā)器生成算法,我們提出了一種新的后門攻擊方案Bac_GAN,圖4描述了該后門攻擊方案的架構圖.攻擊者首先下載全局模型參數(shù)更新判別器,進而生成觸發(fā)器集合,然后將觸發(fā)器以水印的方式植入訓練樣本生成后門訓練數(shù)據(jù),最后攻擊者訓練本地后門模型上傳攻擊全局模型.攻擊者具體按照5個步驟實施后門攻擊:

1) 攻擊者從服務器下載初始全局模型參數(shù),更新本地模型以及判別器模型.攻擊者偽裝成良性用戶訓練模型,并上傳模型參數(shù);

2) 攻擊者正常參與聯(lián)邦學習的過程中,根據(jù)觸發(fā)器生成算法Trig_GAN,生成觸發(fā)器集合直到觸發(fā)器準確率達到期望閾值;

3) 攻擊者按照算法2將觸發(fā)器以水印的方式植入本地樣本,并修改其標簽,生成后門訓練集Dbackdoor.原樣本的特征與觸發(fā)器的特征進行重疊,同時保持視覺上的不同.觸發(fā)器的特征會融入到本地訓練樣本中,即使經過再訓練,也會使觸發(fā)器保持在目標實例的特征空間附近;

4) 攻擊者通過混合良性特征訓練,訓練后門模型,如算法3所示.其中良性特征混合訓練即相同批次內在干凈樣本(正常訓練的樣本)、后門樣本(觸發(fā)器樣本與干凈樣本的混合樣本)和觸發(fā)器樣本(攜帶觸發(fā)器的樣本)中共同訓練;

5) 攻擊者采用后門模型B替換全局模型Gt,并通過縮放系數(shù)C放大全局模型,使得后門模型能在加權平均期間保留后門模型的貢獻.

B=C(B-Gt)+Gt.

(4)

在Bac_GAN后門攻擊方案的構建過程中,利用GAN模型生成了接近真實訓練樣本的觸發(fā)器集合,降低了觸發(fā)器與訓練數(shù)據(jù)之間的差異.在訓練后門模型階段,我們通過良性特征混合訓練以及縮放后門模型,能夠使得后門模型短時間內達到收斂.

Fig.4 The architecture diagram of Bac_GAN圖4 Bac_GAN方案架構圖

算法2.Dbackdoor生成算法.

輸入:本地訓練樣本Dlocal、觸發(fā)器Dtrigger、水印系數(shù)S、攻擊標簽yattack、觸發(fā)器樣本標簽ytrigger;

輸出:后門訓練集Dbackdoor.

Repeat

① 如果Dlocal中樣本的標簽等于攻擊者想要攻擊的標簽yattack,將攻擊樣本加上觸發(fā)器×水印系數(shù)S,賦值于xbac;

② 將(xbac,ytrigger)添加到Dbackdoor;

Until集合遍歷結束;

Return后門訓練集Dbackdoor.

算法3.Bac_GAN后門攻擊方案訓練算法.

輸入:本地訓練樣本Dlocal、后門訓練樣本Dbackdoor、觸發(fā)器樣本Dtrigger;

輸出:上傳的本地后門模型B.

① 初始化后門模型B與損失函數(shù)

Repeat

② 判斷后門模型B是否收斂,收斂則退出循環(huán);

Repeat

③ 在訓練批次中同時訓練本地樣本Dlocal、后門樣本Dbackdoor、觸發(fā)器樣本Dtrigger,并更新攻擊模型B;

Until batch_size結束

④ 根據(jù)模型梯度更新學習率;

Until epoch結束

⑤ 通過式(4)縮放本地模型參數(shù);

Return后門模型B.

3 實驗分析

我們在MNIST[25],CIFAR-10[26]數(shù)據(jù)集上實現(xiàn)生成式對抗網絡的后門攻擊方案,從觸發(fā)器生成、水印系數(shù)、縮放系數(shù)等后門攻擊核心要素進行了實驗測試,探討和分析影響后門攻擊性能的最佳參數(shù),并與現(xiàn)有典型后門攻擊方案進行對比,分析后門攻擊方案Bac_GAN的有效性.

Fig.5 Simulation of trigger generation圖5 模擬觸發(fā)器生成結果

3.1 實驗設置

我們模擬了真實聯(lián)邦學習場景下的實驗環(huán)境,通過socket技術實現(xiàn)服務器與用戶端的模型參數(shù)上傳下載過程.其中服務器端硬件為:Intel的i5-9300H(2.40 GHz)CPU和64 GB內存.用戶端硬件為:Intel的i5-6500CPU和16 GB內存.服務器和用戶端軟件使用的是:Windows10操作系統(tǒng),Python 3.7.3和PyTorch 1.4.0+cu92.

本實驗選擇不同規(guī)模的數(shù)據(jù)集進行訓練,表1中包含了MNIST數(shù)據(jù)集與CIFAR-10數(shù)據(jù)集的信息摘要.其中MNIST:包含10個類別的手寫數(shù)字數(shù)據(jù)集,本實驗將采用2層卷積2層全連接的卷積神經網絡[27]進行訓練.CIFAR-10數(shù)據(jù)集:包含10個類別普適物體的彩色圖像數(shù)據(jù)集,該數(shù)據(jù)集較為復雜,本實驗將采用Rsnet18模型進行訓練.

Table 1 Dataset Summary表1 數(shù)據(jù)集摘要

3.2 觸發(fā)器生成實驗

我們首先在MNIST與CIFAR-10數(shù)據(jù)集對GAN生成的樣本進行可視化,按照觸發(fā)器生成算法生成觸發(fā)器集合.其中判別器的網絡模型在每輪迭代過程中都通過全局模型進行更新.攻擊者將在全局模型的準確度達到85%時進行迭代,生成偽樣本集合.在樣本總和與參與用戶總數(shù)不變的情況下,實驗對于2種數(shù)據(jù)集分別迭代200次,從而利用生成器GAN生成偽樣本.

圖5分別顯示了MNIST與CIFAR10數(shù)據(jù)集隨聯(lián)邦學習迭代生成的偽樣本.由圖5可以看出,100輪左右重建結果已經逐漸靠近真實的MNIST與CIFAR10數(shù)據(jù)集樣本,而在150輪到200輪左右,由于生成器的性能隨著更新逐漸提升,因此產生的樣本更加清晰.其中MNIST數(shù)據(jù)集由于圖片簡單、特征少,已經接近真實樣本,而CIFAR10中的數(shù)據(jù)更加復雜,需要更多的訓練輪數(shù).

圖6顯示了將生成的偽樣本集合反向輸入模型得到的各種標簽的準確率.由圖6可知,利用Trig_GAN算法生成的圖像分別在MNSIT與CIFAR-10分類模型中都有較高的準確率.特別是,從圖6可以看出,得到“4”與“car”標簽的準確率最高.原因在于聯(lián)邦學習中“4”與“car”標簽的樣本在訓練數(shù)據(jù)集中占絕大多數(shù),模型對于這些標簽的樣本的分類逐漸達到收斂.因此,我們將在后續(xù)實驗中分別選擇“4”與“car”標簽的樣本作為觸發(fā)器.

Fig.6 Accuracy results of trigger collection圖6 觸發(fā)器集合準確率

3.3 水印系數(shù)實驗分析

水印系數(shù)是影響觸發(fā)器隱蔽的關鍵因素,本節(jié)將討論不同水印系數(shù)S對于觸發(fā)器的顯示效果以及對于后門任務攻擊準確率的影響.

圖7顯示了后門數(shù)據(jù)樣本分別在水印系數(shù)S為0.1,0.3,0.5,0.7下的重構圖像.以圖7(a)MNIST數(shù)據(jù)集為例,我們重建了不同水印系數(shù)S情況下標簽“4”做為觸發(fā)器的后門數(shù)據(jù)集.其中在水印系數(shù)為0.1情形下的觸發(fā)器幾乎不可見,隱蔽性較高,但其特征不明顯.而在水印為0.5以及0.7的情況下,觸發(fā)器與原樣本的特征開始重疊,此時觸發(fā)器的特征會融入訓練樣本,從而達到后門植入的目的.

Fig.7 Reconstructed samples under different watermark coefficients圖7 不同水印系數(shù)下的重構樣本

為進一步驗證水印系數(shù)對于方案性能的影響,我們對不同水印系數(shù)下后門攻擊準確率隨訓練樣本的變化情況進行了測試.圖8給出了實驗在MNIST與CIFAR-10數(shù)據(jù)集中后門攻擊方案準確率的結果.由圖8可以看出,在水印系數(shù)0.1與0.3時,準確率較低,而在水印系數(shù)為0.5與0.7時準確率相差不大,這是因為觸發(fā)器的特征在水印系數(shù)為0.5時就已經逐漸與普通樣本重疊,此時提升水印系數(shù)的效果已經逐漸接近閾值.因此,我們在后續(xù)實驗中采用水印系數(shù)為0.5,以便同時保證后門準確率與隱蔽性.

3.4 縮放系數(shù)實驗分析

在聯(lián)邦學習中,由于服務器端采用加權平均算法導致后門模型的貢獻被抵消,全局模型很快會遺忘后門,攻擊者持續(xù)參與模型聚合才能夠成功.因此攻擊者會通過縮放后門模型,使得后門模型能在加權平均期間保留后門模型的貢獻.

Fig.8 Accuracy results of backdoor attack schemes under different watermark coefficients圖8 不同水印系數(shù)下的后門攻擊方案準確率結果

圖9顯示了設置不同縮放系數(shù)對后門任務與主要任務的準確率影響.為更準確地說明實驗結果,我們選取并運行200輪聯(lián)邦學習迭代,并取不同縮放系數(shù)情況下(C=20,40,60,80,100)準確率的平均值作為評判依據(jù).

由圖9可以看出,縮放系數(shù)越高對于后門任務的準確性有著相應地提升,特別是圖9(a)中在縮放系數(shù)為80時,后門模型性能的提升開始放緩,并基本接近100%.而由于CIFAR-10數(shù)據(jù)集過于復雜,攻擊者擁有著較少的訓練樣本,從而限制了后門的性能,但我們的Bac_GAN方案的攻擊成功率也達到了80%.

Fig.9 Accuracy results of backdoor attack schemes under different scaling factors圖9 不同縮放系數(shù)下的后門攻擊方案準確率結果

3.5 后門攻擊方案對比分析

為了進一步評估方案Bac_GAN的有效性,我們與現(xiàn)有典型后門攻擊方案進行了實驗對比.為了顯示后門攻擊的效果,我們將在多輪迭代中,同時以縮放系數(shù)為100實施完整的后門樣本訓練.

圖10給出了Bac_GAN方案與現(xiàn)有典型后門攻擊方案的準確率對比結果.由圖10可以看出,Bac_GAN攻擊方案的成功率一直優(yōu)于經典后門攻擊方案.即使在MNSIT數(shù)據(jù)集中與方案[16]同時達到了100%,方案Bac_GAN依然保證了更快的收斂速率,比方案[16]提高了10輪.而在CIFAR-10數(shù)據(jù)集上,方案Bac_GAN的成功率總是在所有情況下都優(yōu)于現(xiàn)有后門攻擊方案,同時保證更高的收斂速率.例如,方案Bac_GAN在70輪左右就達到收斂,而方案[16]需要100輪左右.

Fig.10 Comparison results of the accuracy of backdoor attack schemes under different rounds圖10 不同輪數(shù)下的后門攻擊方案準確率對比結果

3.6 討 論

經過在MNIST與CIFAR-10數(shù)據(jù)集中的多輪對比實驗,我們發(fā)現(xiàn)在相同的后門樣本數(shù)量下,水印系數(shù)越高攻擊成功率越高,但此時的觸發(fā)器隱蔽性逐漸降低.因此在實現(xiàn)后門攻擊時,我們應權衡隱蔽性與成功率之間的取舍.在選擇合適的水印系數(shù)狀況下,模型的縮放系數(shù)成為實現(xiàn)攻擊的關鍵因素.縮放系數(shù)越高后門攻擊全局模型的速率越快,但這將導致與正常用戶更新差異增加,增加被檢測和識別的可能性.最后通過與現(xiàn)有典型后門攻擊方案比較分析來看,本文所提方案Bac_GAN實現(xiàn)了更高的攻擊成功率以及更快的模型收斂速率.歸根結底在于Trig_GAN觸發(fā)器來源于聯(lián)邦學習中的絕大多數(shù)樣本,全局模型對于采用的觸發(fā)器已經從某種程度過擬合,從而能縮短后門模型的收斂速率.

4 結束語

本文提出一種基于生成式對抗網絡的聯(lián)邦學習后門攻擊方案Bac_GAN,方案使用Trig_GAN算法重構聯(lián)邦學習中樣本數(shù)據(jù),作為攻擊者的候選觸發(fā)器,降低了觸發(fā)器特征與干凈樣本特征之間的差異,并通過以水印的方式添加至干凈樣本,提升了觸發(fā)器的隱蔽性.同時,通過縮放模型技術使得后門模型在短時間內達到收斂,從而提升了攻擊成功率.與現(xiàn)有典型后門攻擊方案相比,所提方案Bac_GAN在短時間內使得后門模型收斂,同時有效提升后門攻擊的成功率.在未來工作中,我們將進一步研究觸發(fā)器特征與樣本特征之間的聯(lián)系,從特征層面植入后門觸發(fā)器,以便設計更加隱蔽的后門攻擊方案.

猜你喜歡
觸發(fā)器后門攻擊者
基于貝葉斯博弈的防御資源調配模型研究
基于65 nm 體硅CMOS 技術的DICE-DFF 和TMR-DFF SEU 輻射硬化方法分析
配置觸發(fā)器有條件啟動Windows服務
觸發(fā)器在酒店管理系統(tǒng)中的應用
正面迎接批判
正面迎接批判
別的班也沒有
這個班還不錯
沒睡醒
考駕照
凌云县| 沙河市| 天津市| 清苑县| 涪陵区| 伊宁市| 灌云县| 六盘水市| 麻阳| 海淀区| 南昌市| 柘城县| 高台县| 鄢陵县| 郁南县| 禹州市| 雷州市| 金溪县| 开鲁县| 沙河市| 张掖市| 宽甸| 壤塘县| 涟源市| 徐汇区| 隆德县| 云和县| 米林县| 克山县| 潼关县| 厦门市| 宣威市| 承德县| 东山县| 富顺县| 安国市| 象山县| 南丰县| 乌拉特中旗| 阿图什市| 青龙|