国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

自適應(yīng)量化權(quán)重用于通信高效聯(lián)邦學(xué)習(xí)

2022-02-28 09:54:28周治威劉為凱鐘小穎
控制理論與應(yīng)用 2022年10期
關(guān)鍵詞:參與率聯(lián)邦比特

周治威,劉為凱,鐘小穎

(武漢工程大學(xué)數(shù)理學(xué)院,湖北武漢 430205)

1 引言

在過去的幾十年里,機(jī)器學(xué)習(xí)興起,產(chǎn)生了許多與之相關(guān)的實(shí)際應(yīng)用,例如機(jī)器人、圖像識別、機(jī)器翻譯等等.這些現(xiàn)實(shí)應(yīng)用的開發(fā)在很大程度上依賴大數(shù)據(jù)嵌入的知識,機(jī)器學(xué)習(xí)模型訓(xùn)練需要大量的數(shù)據(jù).傳統(tǒng)的模型訓(xùn)練依靠大量的移動設(shè)備收集數(shù)據(jù),然后將數(shù)據(jù)傳輸?shù)揭粋€(gè)云服務(wù)器進(jìn)行統(tǒng)一訓(xùn)練.這種訓(xùn)練模式不僅要消耗大量的帶寬,還存在隱私泄露的風(fēng)險(xiǎn)[1].

基于以上考慮,未來的機(jī)器學(xué)習(xí)任務(wù)盡可能在網(wǎng)絡(luò)邊緣(即設(shè)備),以分布式方式執(zhí)行的模型共享訓(xùn)練,稱為聯(lián)邦學(xué)習(xí)(federated learning,FL)[2-4].在提出的聯(lián)邦學(xué)習(xí)算法中有個(gè)經(jīng)典聯(lián)邦平均算法(federated averaging algorithm,FedAvg)[5],在這個(gè)算法中,客戶端使用本地?cái)?shù)據(jù)集更新局部模型,然后將更新好的模型參數(shù)上傳到服務(wù)器,服務(wù)器聚集所有客戶端的模型參數(shù),更新全局模型,再將全局模型參數(shù)廣播回所有客戶端.重復(fù)執(zhí)行上述步驟若干次或者達(dá)到一定的精度為止[1].這種訓(xùn)練模式由于數(shù)據(jù)存儲在客戶端本地,不用和其他設(shè)備共享數(shù)據(jù),減少了隱私泄露的風(fēng)險(xiǎn).同時(shí)FL也為數(shù)據(jù)孤島提供了新的思路.然而,FL在訓(xùn)練的過程中會產(chǎn)生巨大的通信開銷,在高層的神經(jīng)網(wǎng)絡(luò)模型[6]中尤其嚴(yán)重,關(guān)于神經(jīng)網(wǎng)絡(luò)的穩(wěn)定可參考文獻(xiàn)[7],到現(xiàn)在,通信延遲已經(jīng)成為了加速FL訓(xùn)練的瓶頸.

在這種背景下,各種通信高效的FL算法開始興起[5,8].研究人員研究出了大量通信高效的FL算法,介紹如下.文獻(xiàn)[9]提出梯度量化加速并行式分布學(xué)習(xí),文獻(xiàn)[10]提出了梯度稀疏化,文獻(xiàn)[11-14]提出了梯度量化來減小模型的尺寸,文獻(xiàn)[15]使用梯度差量化,使用誤差補(bǔ)償降低壓縮損失[16-17],梯度累積是將多次迭代的小梯度累加再上傳[18],文獻(xiàn)[19]做了自適應(yīng)梯度量化,文獻(xiàn)[20]證明了自適應(yīng)線性收斂.在文獻(xiàn)[21-22]使用通信審查減少通信傳輸?shù)谋忍財(cái)?shù),與稀疏化和量化算法不同是,只有當(dāng)客戶端的最新梯度達(dá)到設(shè)定的閾值才會上傳.文獻(xiàn)[23]使用了三元權(quán)重壓縮的方法,在上游通信壓縮取得了不錯(cuò)的效果,但是在下游通信壓縮的時(shí)候有時(shí)會發(fā)生模型崩潰,引起較大的誤差.文獻(xiàn)[24]使用壓縮感知重建信號,甚至使用1 比特傳輸數(shù)據(jù).神經(jīng)網(wǎng)絡(luò)修剪是文獻(xiàn)[25]中提出的模型壓縮的早期方法.文獻(xiàn)[4]做了進(jìn)一步研究,令人吃驚的是,即使模型壓縮了90%,模型依然保持著很高的準(zhǔn)確率,聯(lián)邦學(xué)習(xí)在實(shí)際應(yīng)用場景中可能會遭受到模型攻擊[26-27].聯(lián)邦學(xué)習(xí)比較全面的綜述可參考文獻(xiàn)[28],聯(lián)邦學(xué)習(xí)設(shè)計(jì)理念以及未來的研究方向可參考文獻(xiàn)[3,29].

上述方法雖然壓縮了數(shù)據(jù)減少了傳輸?shù)谋忍財(cái)?shù),但是同時(shí)也引入了噪聲[30],壓縮算法不能收斂到最優(yōu)解附近,導(dǎo)致算法性能下降幅度比較大.文獻(xiàn)[19]中的自適應(yīng)算法收斂結(jié)果比較好,但是所提出算法需要時(shí)時(shí)通信,保證梯度更新,這消耗了大量的通信資源,現(xiàn)在網(wǎng)絡(luò)設(shè)備計(jì)算能力較強(qiáng),利用增加計(jì)算開銷,還能更進(jìn)一步節(jié)省通信開銷.

受文獻(xiàn)[19-20]啟發(fā),針對在保證算法性能的情況下,降低通信成本這一問題展開了研究.在聯(lián)邦平均算法和文獻(xiàn)[19]的基礎(chǔ)上,本文提出了自適應(yīng)量化權(quán)重算法,該算法能在訓(xùn)練過程中自適應(yīng)調(diào)節(jié)量化因子,不斷縮小量化誤差,壓縮數(shù)據(jù)的同時(shí)并保證算法的性能.模型訓(xùn)練達(dá)到一定輪次時(shí),會發(fā)生不穩(wěn)定波動,這個(gè)時(shí)候客戶端的每一次更新并非都對全局更新有用[8],為了避免不必要的更新上傳,提出了權(quán)重復(fù)用控制算法,重用上一次的權(quán)重更新全局模型,進(jìn)一步減少上傳的比特?cái)?shù),節(jié)省通信資源.

本文結(jié)構(gòu)安排如下,第2節(jié)介紹FL模型和方法;第3節(jié)詳細(xì)介紹自適應(yīng)量化權(quán)重算法和權(quán)重復(fù)用控制算法;第4節(jié)給出仿真結(jié)果和結(jié)論;第5節(jié),總結(jié)和未來計(jì)劃.

2 聯(lián)邦學(xué)習(xí)模型和常用方法

本節(jié)主要介紹經(jīng)典聯(lián)邦學(xué)習(xí)的工作流程,然后介紹自適應(yīng)量化權(quán)重方法的定義和主要特點(diǎn).

2.1 聯(lián)邦學(xué)習(xí)模型

首先聯(lián)邦學(xué)習(xí)模型如圖1所示,整個(gè)模型由1個(gè)服務(wù)器,n個(gè)客戶端組成,在正式訓(xùn)練之前,服務(wù)器會廣播初始模型參數(shù)θ0,所有客戶端需要下載初始模型參數(shù)到本地,然后使用本地?cái)?shù)據(jù)集訓(xùn)練模型[29],更新局部模型參數(shù)(權(quán)重),然后將更新好的模型參數(shù)上傳服務(wù)器,服務(wù)器聚集所有客戶端的局部更新后,進(jìn)行加權(quán)平均更新全局模型參數(shù)θ1,再將更新好的全局模型再次廣播給客戶端,重復(fù)上述步驟M次.

圖1 聯(lián)邦學(xué)習(xí)模型Fig.1 Federated Learning model

在第k個(gè)客戶端上的局部損失函數(shù)具體如下:

其中:θ是模型參數(shù)(權(quán)重),假設(shè)訓(xùn)練使用的是監(jiān)督學(xué)習(xí),(xi,yi)(i1,2,...,n),x代表數(shù)據(jù)的輸入(圖像的像素),y代表模型的期望輸出(圖像標(biāo)簽),Dk代指客戶端本地?cái)?shù)據(jù)集,k為客戶端的編號,L為客戶端訓(xùn)練時(shí)使用的損失函數(shù).聯(lián)邦學(xué)習(xí)的訓(xùn)練目標(biāo)是構(gòu)建全局最小損失函數(shù)J(θ),全局損失函數(shù)定義如下:

其中:N表示客戶端的總數(shù),β表示客戶端的參與率,不是所有的客戶端都能參與訓(xùn)練.客戶端都是使用小批量隨機(jī)梯度下降進(jìn)行局部模型參數(shù)更新,隨機(jī)梯度下降為

其中:m代表客戶端本地迭代輪次,η表示學(xué)習(xí)率,客戶端一般會在本地進(jìn)行1-10次迭代更新,然后將更新好的模型參數(shù)上傳服務(wù)器,服務(wù)器進(jìn)行加權(quán)平均更新全局模型參數(shù),加權(quán)更新方式具體如下:

2.2 量化

量化作為數(shù)據(jù)壓縮最常用的手段,通過對矢量的位數(shù)加以限制,減少通信過程中傳輸?shù)谋忍財(cái)?shù)[31].現(xiàn)在的許多計(jì)算機(jī)都使用32或者64位全精度數(shù)據(jù)進(jìn)行運(yùn)算,使用全精度數(shù)據(jù)雖然準(zhǔn)確率高,但是消耗的通信資源非常大.為了緩解這個(gè)問題,設(shè)計(jì)了b位自適應(yīng)量化器[20].將32位全精度數(shù)據(jù)量化為b位,通過對全精度數(shù)據(jù)進(jìn)行壓縮,減少傳輸?shù)谋忍財(cái)?shù),節(jié)省通信資源.

圖2 b等于2的量化器Fig.2 b equals 2 quantizer

2.3 提出的算法

在本節(jié)中首先提出了自適應(yīng)量化算法,并在此算法的基礎(chǔ)上提出了權(quán)重復(fù)用控制算法[4,8],前者壓縮傳輸?shù)谋忍財(cái)?shù),后著減少了上傳的比特?cái)?shù).算法1總結(jié)了自適應(yīng)量化更新的規(guī)則,壓縮了傳輸數(shù)據(jù)的位數(shù),同時(shí)在迭代過程中,自適應(yīng)調(diào)整量化因子,保證了算法的性能.

算法2總結(jié)了客戶端在更新完局部模型參數(shù)之后,對模型參數(shù)壓縮的過程.算法1總結(jié)了訓(xùn)練的全部過程,在每一輪全局更新中,客戶端負(fù)責(zé)用本地?cái)?shù)據(jù)集更新局部模型參數(shù),然后將更新好的局部模型壓縮上傳到服務(wù)器,服務(wù)器負(fù)責(zé)聚合客戶端的局部模型參數(shù),更新全局模型參數(shù),然后將更新好的全局模型參數(shù)廣播給所有客戶端.

在實(shí)驗(yàn)過程中發(fā)現(xiàn),隨著模型精度達(dá)到一定數(shù)值之后,模型會出現(xiàn)不穩(wěn)定的波動,部分客戶端上傳的模型參數(shù)對全局模型更新沒有太大的幫助,這時(shí)候筆者決定阻止這些不必要的更新上傳,直接重用上一次上傳的模型參數(shù).判斷客戶端是否上傳的依據(jù)是客戶端損失值[32].用當(dāng)前客戶端的損失值與上一輪的損失值作比較,比上一次小就上傳,并把本次損失值替換上一次的損失值.作為下一輪比較的依據(jù),否則就直接告訴服務(wù)器值為空,服務(wù)器直接復(fù)用上一次上傳的權(quán)重.服務(wù)器需要多耗費(fèi)一部分空間來存儲客戶端上傳的權(quán)重,具體的更新規(guī)則總結(jié)在算法3中.

3 仿真結(jié)果與結(jié)論

本節(jié)中評估了所提出算法的性能.本文設(shè)置了多個(gè)實(shí)驗(yàn),比較本文提出的算法在測試精度和通信成本方面的性能.下面介紹實(shí)驗(yàn)設(shè)置和結(jié)果.

3.1 實(shí)驗(yàn)設(shè)置

為了評估所提出的自適應(yīng)量化和權(quán)重復(fù)用控制算法在聯(lián)邦學(xué)習(xí)系統(tǒng)中的性能,一臺筆記本電腦充當(dāng)中央服務(wù)器和10個(gè)通過局域網(wǎng)無線連接的筆記本充當(dāng)客戶[29],假設(shè)客戶端不會對整個(gè)模型發(fā)起攻擊,也沒有外部病毒惡意攻擊客戶端,詳細(xì)配置如下.

3.1.1 比較的算法

1) baseline a: 集中式算法,所有數(shù)據(jù)集中到一臺計(jì)算機(jī)上進(jìn)行訓(xùn)練,使用隨機(jī)梯度下降進(jìn)行訓(xùn)練.

2) baseline b: 標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)算法[2],沒有對模型參數(shù)進(jìn)行過處理,使用的是全精度模型參數(shù)進(jìn)行訓(xùn)練.

3) A-FVG:本文提出的自適應(yīng)量化聯(lián)邦學(xué)習(xí)算法,對客戶端的上傳的局部模型參數(shù)進(jìn)行量化.

4) WA-FVG:加了權(quán)重復(fù)用控制的自適應(yīng)量化算法,在對模型參數(shù)進(jìn)行壓縮前進(jìn)行判斷,是否要進(jìn)行量化上傳.

3.1.2 模型

為了評估算法的有效性,選擇了3個(gè)深度神經(jīng)網(wǎng)絡(luò)進(jìn)行仿真實(shí)驗(yàn)(MLP,CNN,CNN5).

1) MLP:該模型包含兩個(gè)隱層,神經(jīng)元數(shù)量分別為30個(gè)和20個(gè),無偏置,選擇ReLU作為激活函數(shù).第一層和最后一層的大小分別是784和10.

2) CNN:該模型是個(gè)淺層卷積神經(jīng)網(wǎng)絡(luò),由兩個(gè)卷積層和兩個(gè)全連層組成,卷積核大小為5×5.使用ReLU函數(shù)激活,每個(gè)卷積層后加了一個(gè)最大池化層,經(jīng)過兩個(gè)卷積層后進(jìn)行dropout策略,dropout參數(shù)設(shè)置為0.5,第一層神經(jīng)元320個(gè),最后一層神經(jīng)元為10個(gè).

3) CNN5: 該模型是一個(gè)卷積神經(jīng)網(wǎng)絡(luò),由5個(gè)卷積層和2個(gè)全連接層組成.第1個(gè)卷積層使用ReLU 函數(shù),其余的卷積層后面是批處理規(guī)范化層、ReLU函數(shù)和最大池化層,全連接層第一層4096 個(gè)神經(jīng)元,第二層10個(gè)神經(jīng)元.

3.1.3 數(shù)據(jù)

本文選擇使用標(biāo)準(zhǔn)檢測數(shù)據(jù)集MINST[25]和CIFAR10[10]做仿真.

1) MNIST:它包含60 000個(gè)用于訓(xùn)練和10 000個(gè)用于測試的10類灰度手寫圖像樣本,其中每幅圖像的維數(shù)為28×28.所有數(shù)據(jù)都是獨(dú)立同分布的數(shù)據(jù).

2) CIFAR10: 它包含了貓、狗、飛機(jī)等10種物體的60000個(gè)彩色RGB圖像,其中每幅圖像的維數(shù)為32×32,50000個(gè)用于訓(xùn)練,10000個(gè)用于測試,數(shù)據(jù)類型屬于非獨(dú)立同分布數(shù)據(jù).

3.1.4 其他配置

客戶端總數(shù)N設(shè)置了10個(gè),客戶端本地循環(huán)次數(shù)E設(shè)置為5,迭代總輪次M設(shè)置為500,客戶端參與率設(shè)置為1,數(shù)據(jù)的批處理大小設(shè)置為64,學(xué)習(xí)率設(shè)置為0.01.

3.2 仿真結(jié)果分析

對于客戶端的數(shù)據(jù)來源,因?yàn)榭蛻舳说臄?shù)據(jù)應(yīng)該是獨(dú)立的,所以本文把下載的數(shù)據(jù)集平分給所有的客戶端.以cifar10數(shù)據(jù)集為例,每個(gè)客戶端可以分到6000個(gè)數(shù)據(jù),在全局模型聚合后用10000個(gè)測試數(shù)據(jù)測試模型的學(xué)習(xí)效果,表1展示了4種算法在mnist數(shù)據(jù)集上的測試結(jié)果.本文比較了算法達(dá)到穩(wěn)定后,標(biāo)準(zhǔn)聯(lián)邦平均算法baseline b,自適應(yīng)量化算法A-FVG和權(quán)重復(fù)用控制算法WA-FVG所需要的通信成本,本文將客戶端模型參數(shù)做6位量化處理.

表1 Mnist數(shù)據(jù)集測試結(jié)果Table 1 Mnist data set test results

圖3是4種算法在mnist數(shù)據(jù)集上的通信輪次對比圖,從中可以看出A-FVG和WA-FVG兩種算法的收斂速度比標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)算法的收斂速度更快.集中式學(xué)習(xí)算法達(dá)到了0.962準(zhǔn)確度,標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)算法達(dá)到了0.940,本文的A-FVG和WA-FVG算法準(zhǔn)確度分別達(dá)到了0.941和0.927.A-FVG和標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)算法基本達(dá)到了一樣的精度,但是本文的WA-FVG算法相比A-FVG算法有大約1.4%精度損失,筆者推測是本文使用平均損失值作為是否復(fù)用的依據(jù)引起的.在客戶端進(jìn)行多次局部迭代時(shí),可能有某次迭代對于全局模型更新是有用的,但是因?yàn)槠渌麕状蔚牡聦θ指聼o用,從而導(dǎo)致將有用的更新平均掉了,沒有上傳.但是從圖3中算法達(dá)到收斂需要上傳的比特?cái)?shù)對比圖可以看出,本文的權(quán)重復(fù)用算法相比經(jīng)典聯(lián)邦算法要節(jié)省大概75%~80%的通信資源,A-FVG相比經(jīng)典聯(lián)邦學(xué)習(xí)算法要節(jié)約70%的通信資源.

圖3 Mnist數(shù)據(jù)集MLP網(wǎng)絡(luò)通信成本Fig.3 Mnist dataset MLP network communication cost

在CNN網(wǎng)絡(luò)中,集中式和標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)算法準(zhǔn)確度分別達(dá)到了0.990,0.986.A-FVG和WA-FVG 算法分別達(dá)到了0.986,0.982.4種算法都到了驚人的準(zhǔn)確度.從圖4的通信輪數(shù)對比圖看不出優(yōu)勢,但是從圖4達(dá)到收斂需要上傳比特?cái)?shù)對比圖可以看出,本文的算法還是很有效,節(jié)約了70%以上的通信資源的同時(shí)沒有引起太大的性能下降.

圖4 Mnist數(shù)據(jù)集CNN網(wǎng)絡(luò)通信成本Fig.4 Mnist dataset CNN network communication cost

為了證明本文算法的穩(wěn)定性,在非獨(dú)立同分布數(shù)據(jù)集上也進(jìn)行了同樣的實(shí)驗(yàn).只是在非獨(dú)立同分布數(shù)據(jù)集上(Cifar10)進(jìn)行聯(lián)邦學(xué)習(xí)性能下降仍然是個(gè)巨大的挑戰(zhàn)[33],因?yàn)楫?dāng)數(shù)據(jù)是非獨(dú)立同分布的時(shí)候,局部隨機(jī)梯度不能被認(rèn)為是全局梯度的無偏估計(jì)[34].為了提高識別的準(zhǔn)確度,本文選擇CNN和CNN5這兩個(gè)更為復(fù)雜的模型進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)參數(shù)不變.

表2展示了4種算法在Cifar10數(shù)據(jù)集上達(dá)到穩(wěn)定所需要的訓(xùn)練輪數(shù)和上傳的比特?cái)?shù),圖5為CNN網(wǎng)絡(luò)實(shí)驗(yàn)結(jié)果,在CNN網(wǎng)絡(luò)中集中式算法準(zhǔn)確度能達(dá)到0.617,標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)與A-FVG算法能達(dá)到0.594和0.592,準(zhǔn)確度幾乎一樣,說明本文自適應(yīng)量化是有效的,WA-FVG算法能達(dá)到0.586,與A-FVG相比只降低了不到1%的性能,4種算法的收斂速度在CNN網(wǎng)絡(luò)中幾乎一樣,但是WA-FVG 算法比A-FVG算法節(jié)省了5%~10%的通信資源,比標(biāo)準(zhǔn)聯(lián)邦平均算法減少了75%以上的通信資源.

表2 Cifar10數(shù)據(jù)集測試結(jié)果Table 2 Cifar10 dataset test results

圖5 Cifar10數(shù)據(jù)集CNN網(wǎng)絡(luò)通信成本Fig.5 Cifar10 dataset CNN network communication cost

圖6展示了更為復(fù)雜的CNN5網(wǎng)絡(luò)實(shí)驗(yàn)結(jié)果,集中式算法準(zhǔn)確度能達(dá)到0.785,標(biāo)準(zhǔn)聯(lián)邦學(xué)習(xí)與A-FVG算法分別能達(dá)到0.767和0.766,WA-FVG算法達(dá)到了0.758,與CNN網(wǎng)絡(luò)所得到結(jié)論幾乎一致,這表明了本文的算法在更為復(fù)雜的模型上依然能保持很好的穩(wěn)定性.

圖6 Cifar10數(shù)據(jù)集CNN5網(wǎng)絡(luò)通信成本Fig.6 Cifar10 dataset CNN5 network communication cost

3.3 參與率的影響

這一節(jié)測試了客戶端在不同的參與率下,對AFVG算法精度的影響,這里的參與率指的是客戶端參與通信的比例,所有客戶端都參與訓(xùn)練,服務(wù)器根據(jù)參與率隨機(jī)選擇一部分客戶端參與通信.

選用MLP網(wǎng)絡(luò)和Mnist數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),其他實(shí)驗(yàn)參數(shù)不變.從圖7通信輪數(shù)圖可以看出,參與率的改變對模型的最終穩(wěn)定性沒有太大的影響,但是低參與率的情況下,模型的收斂速度反而更快,需要的通信輪次也相應(yīng)的減少,能減少大量的通信資源,再結(jié)合圖7在不同的參與率下,需要上傳的比特?cái)?shù)對比圖,從中可以看出,隨著參與率越小,算法達(dá)到收斂時(shí)需要上傳的比特?cái)?shù)也在減少,這個(gè)結(jié)果非常的令人振奮,因?yàn)樵趯?shí)際的環(huán)境中,客戶端的基數(shù)非常龐大,如果使用較低的參與率就能達(dá)到一個(gè)滿意的效果,那么可以減少大量的通信資源.

圖7 參與率通信成本Fig.7 Participation rate communication cost

3.4 量化位數(shù)的影響

在這一節(jié)研究了量化位數(shù)b對A-FVG算法精度的影響,其他實(shí)驗(yàn)參數(shù)不變,依然使用MLP網(wǎng)絡(luò)和Mnist數(shù)據(jù)集.

圖8的通信輪數(shù)對比圖顯示了A-FVG在不同量化位數(shù)b下所能達(dá)到的精度以及需要的通信輪數(shù),可以看出,除了使用2位量化會導(dǎo)致性能下降比較大以外,其他量化位數(shù)對最后的準(zhǔn)確度影響比較小,但是在通信輪數(shù)上的結(jié)果很明顯,使用6位量化收斂速度最快.使用的量化位數(shù)越少,收斂的反而更快一些.再結(jié)合圖8不同量化位數(shù)下需要上傳比特?cái)?shù)對比圖,可以看出使用的量化位數(shù)越少,算法達(dá)到收斂時(shí)需要傳輸?shù)谋忍財(cái)?shù)也更少.這個(gè)結(jié)果很讓人高興的,在現(xiàn)實(shí)環(huán)境中,數(shù)據(jù)量非常龐大,如果使用低位量化也能得到比較好的結(jié)果,那么就可以節(jié)省大量的通信資源,降低通信成本.

圖8 量化位數(shù)通信成本Fig.8 Quantify the cost of bit communication

4 結(jié)論和未來的工作

本文針對聯(lián)邦學(xué)習(xí)訓(xùn)練過程中通信資源有限的問題,提出了自適應(yīng)量化權(quán)重算法和權(quán)重復(fù)用控制算法,自適應(yīng)量化算法在迭代過程中,能自適應(yīng)調(diào)節(jié)量化因子,從而使得量化后的權(quán)重與真實(shí)權(quán)重之間的誤差越來越小.通過仿真實(shí)驗(yàn)表明,本文提出的算法有效,在沒有引起性能大幅度下降的同時(shí),壓縮了傳輸?shù)谋忍財(cái)?shù),降低了70%以上的通信成本.權(quán)重復(fù)用算法根據(jù)客戶端損失函數(shù)的損失值來判斷是否上傳,因?yàn)榭刂品绞降脑?導(dǎo)致會引起1%~2%的性能下降,但是能減少75%~80%的通信成本,在未來工作中計(jì)劃找出一種更有效的控制策略,并且為算法的性能提供更多的理論論證.

猜你喜歡
參與率聯(lián)邦比特
我國勞動參與率的趨勢、結(jié)構(gòu)與國際比較
一“炮”而紅 音聯(lián)邦SVSound 2000 Pro品鑒會完滿舉行
"一帶一路"沿線國家與其他國家女性勞動參與率發(fā)展現(xiàn)狀對比分析
新生代(2019年7期)2019-10-25 01:14:16
303A深圳市音聯(lián)邦電氣有限公司
比特幣還能投資嗎
海峽姐妹(2017年10期)2017-12-19 12:26:20
比特幣分裂
比特幣一年漲135%重回5530元
銀行家(2017年1期)2017-02-15 20:27:20
我國勞動參與率的對比與分析
蘋果封殺比特幣應(yīng)用另有隱情?
20年后捷克與斯洛伐克各界對聯(lián)邦解體的反思
宁化县| 正蓝旗| 辽宁省| 廊坊市| 若尔盖县| 长子县| 玉林市| 方正县| 扎囊县| 乌鲁木齐县| 平利县| 镇江市| 成都市| 黄骅市| 封丘县| 称多县| 通渭县| 黔南| 商河县| 临朐县| 滨海县| 柘城县| 宝丰县| 邹城市| 荆州市| 汤阴县| 姜堰市| 体育| 仙桃市| 邹平县| 油尖旺区| 中江县| 赞皇县| 资源县| 松桃| 芮城县| 长泰县| 沐川县| 慈利县| 临湘市| 舞阳县|