国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種基于可用性的動態(tài)云數(shù)據(jù)副本管理機制

2018-03-27 03:42陶永才
小型微型計算機系統(tǒng) 2018年3期
關(guān)鍵詞:副本存儲系統(tǒng)可用性

陶永才,巴 陽,石 磊,衛(wèi) 琳

1(鄭州大學(xué) 信息工程學(xué)院,鄭州 450001) 2(鄭州大學(xué) 軟件技術(shù)學(xué)院,鄭州 450002)

1 引 言

近年來隨著科學(xué)技術(shù)的快速發(fā)展,云計算、物聯(lián)網(wǎng)、社會網(wǎng)絡(luò)等新技術(shù)應(yīng)運而生,數(shù)據(jù)的類型和數(shù)量呈現(xiàn)爆炸式增長,大數(shù)據(jù)時代已經(jīng)到來.

云存儲把互聯(lián)網(wǎng)上大量地理上分散的存儲設(shè)備整合到一個存儲池中,應(yīng)用虛擬化技術(shù),基于低成本、不可靠的節(jié)點和網(wǎng)絡(luò)資源,為用戶提供大容量和高性能的云存儲服務(wù)[1].云存儲是云計算的基礎(chǔ),其規(guī)模正以驚人的速度擴大.目前比較流行的云存儲系統(tǒng)有RAID 1,GFS[1],Ceph[2]和HDFS[3].

在云存儲中,為提高性能,數(shù)據(jù)分塊是一種廣泛采用的技術(shù)[4].除了最后一個塊,文件被分割成多個大小相同的塊.這些塊分布存儲在各數(shù)據(jù)節(jié)點中,通過并行傳輸數(shù)據(jù),提高數(shù)據(jù)帶寬.然而,由于云存儲系統(tǒng)的動態(tài)性、分布性和異構(gòu)性,節(jié)點軟硬件故障、電源故障和網(wǎng)絡(luò)故障時常發(fā)生,導(dǎo)致數(shù)據(jù)塊無法訪問[16].因此,一個數(shù)據(jù)塊訪問故障可能會導(dǎo)致整個文件不可用.為了避免由節(jié)點故障引起的訪問失敗和數(shù)據(jù)丟失,數(shù)據(jù)副本被廣泛采用,通過在不同節(jié)點上放置數(shù)據(jù)副本來保證云存儲中數(shù)據(jù)的可靠性和可用性[5].數(shù)據(jù)副本保證如果一個數(shù)據(jù)節(jié)點失效,數(shù)據(jù)仍然可用,服務(wù)將不中斷.除了提高數(shù)據(jù)可靠性和可用性之外,如果副本的分布和請求合理,副本機制將能改善系統(tǒng)負載平衡和總體性能.

現(xiàn)有的云存儲系統(tǒng)(如Amazon S3[6]、GFS和HDFS)主要采用靜態(tài)副本管理策略,副本因子一般為3,放置策略是將一個副本放置在本地機架上的節(jié)點,另一個副本放在同一機架上的其他節(jié)點,最后一個副本放在不同機架上的任意一個節(jié)點[7].這種機制存在一些缺點.首先,在可靠性高的云存儲系統(tǒng)中,副本會占用大量的存儲空間,提高云存儲系統(tǒng)的可靠性成本,最終轉(zhuǎn)嫁給用戶.其次,該機制無法適應(yīng)動態(tài)變化的數(shù)據(jù)訪問量和節(jié)點性能變化,導(dǎo)致系統(tǒng)負載不均衡和性能低.

為解決上述問題,本文提出一種動態(tài)副本管理機制DRM(Dynamic Replica Management scheme),DRM主要貢獻如下:

1)研究確定數(shù)據(jù)可用性和副本數(shù)之間的關(guān)系模型,并利用此模型來動態(tài)計算和維護給定可用性要求的最小副本數(shù).

2)基于節(jié)點性能和用戶訪問特性確定副本放置位置.

本研究在HDFS上實現(xiàn)了DRM,實驗結(jié)果表明DRM在成本、負載平衡和性能都優(yōu)于現(xiàn)有HDFS副本管理機制.

2 相關(guān)工作

現(xiàn)有的GFS和HDFS的副本管理使用默認數(shù)量,通過數(shù)據(jù)遷移實現(xiàn)負載均衡,消耗較多的帶寬資源[3].

副本放置對于存儲系統(tǒng)的數(shù)據(jù)可用性和容錯至關(guān)重要[12].一個好的副本放置策略可以提高數(shù)據(jù)可靠性、可用性和網(wǎng)絡(luò)帶寬利用率.因此,如果副本分布和請求合理,優(yōu)化副本策略不僅可以提高可用性,還可以提高負載均衡和總體性能.文獻[8]提出面向用戶的副本放置策略,把副本放置在距離用戶較近的節(jié)點上,使得訪問數(shù)據(jù)時能夠較快地獲取數(shù)據(jù).文獻[9]提出面向請求的副本放置策略,對經(jīng)常訪問的數(shù)據(jù)創(chuàng)建較多的副本,并把副本放置到用戶訪問密集的區(qū)域.此方法能夠明顯減少查找路徑長度,從而提高查詢效率.文獻[10]提出面向業(yè)務(wù)的副本放置策略在具有最多轉(zhuǎn)發(fā)流量的節(jié)點上進行副本放置,與面向請求的方法相比,其副本可以為大多數(shù)請求者服務(wù),使得利用率更高.文獻[11]提出了一種改進的數(shù)據(jù)放置策略,該策略基于數(shù)據(jù)負載和結(jié)點網(wǎng)絡(luò)距離計算各個結(jié)點的調(diào)度評價值,依據(jù)此調(diào)度評價值選擇一個最佳的遠程數(shù)據(jù)副本的放置結(jié)點.

上述研究都是采用類似HDFS中的靜態(tài)副本管理策略.在很多情況下,僅僅使用三個副本放置策略會引起巨大的空間資源的浪費,它無法適應(yīng)動態(tài)變化的數(shù)據(jù)訪問和節(jié)點性能,并會導(dǎo)致糟糕的性能和負載不均衡,本文提出的動態(tài)副本管理機制,根據(jù)可用性來決定副本的數(shù)量,基于節(jié)點性能和用戶訪問特性確定副本放置位置.不僅節(jié)省了大量的存儲空間,也提高了大規(guī)模云存儲的性能.

3 問題分析

數(shù)據(jù)副本一定程度上滿足了數(shù)據(jù)可靠性的要求,但是需要更多的存儲空間.在云存儲中,如果采用一些適當(dāng)?shù)牟呗?數(shù)據(jù)副本機制仍可以減少對存儲空間的占用.數(shù)據(jù)副本機制必須面臨兩個挑戰(zhàn):副本數(shù)量和副本放置.

在實際應(yīng)用中,數(shù)據(jù)訪問是高度不規(guī)則的,呈現(xiàn)時間局部性和空間局部性,數(shù)據(jù)時間局部性是一些數(shù)據(jù)在一定時間段內(nèi)被訪問頻率很高,數(shù)據(jù)空間局部性是用戶對數(shù)據(jù)的訪問主要集中一些熱點區(qū)域[17].因此,熱點區(qū)副本訪問量通常偏高,節(jié)點負載過大,無法滿足用戶的訪問質(zhì)量.相反,一些數(shù)據(jù)副本很少被訪問,而且有些熱點區(qū)副本隨著時間的推移會被冷卻,所以,過多的副本將浪費存儲資源,并導(dǎo)致不必要的維護開銷.

Hadoop[7]采用3副本策略,存儲1 GB數(shù)據(jù)需要3 GB的數(shù)據(jù)空間,這將導(dǎo)致200%的額外成本.對于一些數(shù)據(jù)密集型應(yīng)用程序,額外的花費可能是巨大的.然而,在實際中,有些數(shù)據(jù)不需要可靠性保證,比如一些應(yīng)用的中間結(jié)果數(shù)據(jù).對于這類數(shù)據(jù),可以不采用副本機制.此外,對于有高可靠性保證要求的關(guān)鍵數(shù)據(jù),固定的3副本策略并不能保證.在爆炸性訪問突發(fā)的情況下應(yīng)該始終保持最大數(shù)量的副本,還是保持較少副本以犧牲性能為代價來節(jié)省資源?因此,系統(tǒng)應(yīng)保留多少個副本以滿足可用性要求是云存儲需要解決的一個難題?

另一方面,與小規(guī)模同構(gòu)系統(tǒng)相比,分布式大規(guī)模異構(gòu)存儲系統(tǒng)中的副本放置更復(fù)雜,其中每個數(shù)據(jù)節(jié)點可能具有不同的處理能力(包括CPU、存儲、網(wǎng)絡(luò)帶寬等),并且只能提供有限數(shù)量的訪問請求.在這種異構(gòu)存儲系統(tǒng)中平均的副本分配策略不能達到負載均衡和優(yōu)化總體性能.相反,可能會發(fā)生訪問傾斜,使得熱數(shù)據(jù)節(jié)點的請求被拒絕,而其他數(shù)據(jù)節(jié)點處于空閑,從而導(dǎo)致系統(tǒng)負載不均衡和低性能[18].

為了降低存儲成本,提高存儲性能和負載均衡,上述問題必須予以考慮.

4 動態(tài)副本管理機制DRM

本文提出一種動態(tài)副本管理機制DRM,旨在優(yōu)化如何基于可用性來確定副本數(shù)目和副本放置位置問題.

4.1 基于可用性的副本創(chuàng)建模型

DRM研究數(shù)據(jù)可用性和副本數(shù)之間的關(guān)系,設(shè)計基于可用性的副本創(chuàng)建模型,并利用此模型來動態(tài)計算和維護給定可用性要求的最小副本數(shù)[13].

符號定義如表1所示.

表1 符號的定義
Table 1 Definition of symbols

符號定義P(NAi)數(shù)據(jù)節(jié)點Ai的可用概率P(NAi)數(shù)據(jù)節(jié)點Ai的不可用概率P(BAi)數(shù)據(jù)塊Bi的可用概率P(BAi)數(shù)據(jù)塊Bi的不可用概率P(FA)文件F的可用概率P(FA)文件F的不可用概率Aexcept期望文件F的可用性

在云存儲系統(tǒng)中,假設(shè)文件F由m個數(shù)據(jù)塊組成,標記為{b1,b2,…,bm},并存放到不同的數(shù)據(jù)節(jié)點中.假設(shè)塊bi有rj個副本,如果這個塊的所有節(jié)點都是不可用的,說明這個塊是不可用的,所以塊bi不可用的概率如式(1)所示.

(1)

因為所有節(jié)點都是獨立的,所以可以得到:

(2)

云存儲數(shù)據(jù)可靠性服從指數(shù)分布.根據(jù)經(jīng)典理論[14],假設(shè)一個云存儲節(jié)點的可靠性在時間T內(nèi)服從指數(shù)分布:

F(T)=e-λ T

(3)

其中λ是云存儲節(jié)點的故障率,F(T)表示在某時間段內(nèi)云存儲節(jié)點故障的期望值.

假設(shè)多個副本存儲在不同的存儲節(jié)點中.根據(jù)云存儲節(jié)點可靠性,數(shù)據(jù)的可靠性與多個副本的關(guān)系可以由式(4)計算.

(4)

Trj為rj個副本的存儲生命期時間.

要保證文件的可用性就必須要求所有的塊可用,一個不可用的塊會導(dǎo)致整個文件不可用,如式(5)所示.

(5)

DRM假設(shè)數(shù)據(jù)塊相互獨立,即塊bj的不可用不會影響塊bk.可以獲得:

(6)

由式(4)和(5)可計算得式(7).

(7)

則文件F的可用性如式(8)所示.

(8)

如果要滿足文件F的可用性Aexcept,則式(9)應(yīng)滿足成立.

(9)

DRM使用式(9)計算最小副本數(shù)rmin以滿足具有平均數(shù)據(jù)節(jié)點故障率的預(yù)期可用性.在數(shù)據(jù)節(jié)點失效或者數(shù)據(jù)塊的當(dāng)前副本數(shù)量小于rmin的情況下,額外的副本將被創(chuàng)建到云存儲的數(shù)據(jù)節(jié)點中.

此外,對于不是關(guān)鍵的并且僅用于短期的數(shù)據(jù)類型,可以采用相對低的可靠性保證,并且不需要必要的數(shù)據(jù)回復(fù),因此副本的數(shù)量可以設(shè)置為1.

4.2 智能副本放置機制

大型云存儲系統(tǒng)的存儲節(jié)點通常分布在集群的多個機架中,節(jié)點間通過交換機互連.不同機架節(jié)點間的通信必須經(jīng)過交換機.通常情況下,同一機架節(jié)點間的網(wǎng)絡(luò)帶寬大于不同機架節(jié)點間的網(wǎng)絡(luò)帶寬.

目前的云存儲系統(tǒng)(HDFS)采用靜態(tài)副本管理機制,不考慮節(jié)點異構(gòu)性,地理分布性.這將導(dǎo)致副本成本增加、負載不均衡和低性能.因此,在智能副本放置機制應(yīng)考慮一些重要因素,例如:訪問熱點變化、網(wǎng)絡(luò)帶寬、阻塞概率、節(jié)點異構(gòu)性、負載不均衡等.

為解決上述問題,DRM采用智能副本放置機制,采用三種不同的副本放置策略(面向用戶,面向請求和面向業(yè)務(wù))適應(yīng)不同的應(yīng)用場景.副本放置機制可以分為如下兩個步驟:

1.副本創(chuàng)建階段.在此階段,DRM使用面向用戶的副本放置策略.在初始階段,副本創(chuàng)建的目的是保證數(shù)據(jù)可用性,而不是增加訪問量.在開始階段,系統(tǒng)不能確定用戶訪問密集的區(qū)域,訪問量低難以判斷轉(zhuǎn)發(fā)業(yè)務(wù)量大的節(jié)點,并且難以預(yù)測未來的訪問速率和訪問來源.因此,面向請求和面向業(yè)務(wù)的副本放置策略不適合.此外,由于復(fù)制成本較低,因此復(fù)制失敗的可能性也較低,所以使用面向用戶的策略更優(yōu).DRM采用的面向用戶策略的算法如下.

首先,系統(tǒng)將客戶端作為起始點,其標記為0.最靠近客戶端的機架標記為1,需要通過標記1機架的其他機架標記為2,以此類推.系統(tǒng)選擇具有最小標記機架中的節(jié)點來放置副本.

第二,在同一機架中,根據(jù)四個性能指標選擇節(jié)點:(1)自由空間存儲,(2)CPU性能,(3)I/O性能,(4)網(wǎng)絡(luò)帶寬.

2.副本運行時調(diào)整.在系統(tǒng)運行期間,數(shù)據(jù)的訪問率高度不規(guī)則.如果數(shù)據(jù)塊訪問量增加并成為熱分區(qū),則將創(chuàng)建新的副本以保證負載均衡,并且在指定的時間內(nèi)對客戶端做出響應(yīng).因此,系統(tǒng)采用面向業(yè)務(wù)的策略,在具有最多轉(zhuǎn)發(fā)流量的節(jié)點(許多必要的路由路徑的連接節(jié)點)上放置副本數(shù)據(jù).與面向請求策略相比,面向業(yè)務(wù)策略下的副本可以為大多數(shù)請求者服務(wù),保證更高的利用率.

在路由轉(zhuǎn)發(fā)過程中,轉(zhuǎn)發(fā)查詢根據(jù)不同的路由算法產(chǎn)生的流量也不同.在此,只計算直接到目的地的有效流量,不包括向所有鄰居轉(zhuǎn)發(fā)信息.每個請求者j到副本Bi存在路由路徑,該路徑中的所有節(jié)點的集合被表示為Aij.

Aij={Nk|Nk表示此節(jié)點在節(jié)點Ni到節(jié)點Nj的路由路徑上}

在單位時間t內(nèi),假設(shè)trijkt表示節(jié)點Nk從請求者j到副本Bi的業(yè)務(wù)負載,trikt表示節(jié)點Nk用于副本Bi的轉(zhuǎn)發(fā)流量.節(jié)點Nk的處理能力和副本數(shù)分別為Cikl(0

(10)

在單位時間t內(nèi)將來自請求者j到副本Bi的查詢數(shù)量定義為qijt,假設(shè)節(jié)點Nkx是路由路徑中節(jié)點Nk之前的任何一個節(jié)點,因此Nkx∈Aij.節(jié)點Nkx的處理能力和副本數(shù)分別為Cikxl(0

(11)

(12)

對于轉(zhuǎn)發(fā)節(jié)點,如果其流量大于系統(tǒng)平均查詢的γ倍,則認為它是過載的并且被標記為流量中心節(jié)點,即:

(13)

DRM采用文獻[15]提出的動態(tài)副本調(diào)整策略,利用灰色預(yù)測技術(shù),根據(jù)最近數(shù)據(jù)的訪問特征來預(yù)測未來數(shù)據(jù)塊的訪問熱度,并且動態(tài)調(diào)整副本數(shù)目.當(dāng)數(shù)據(jù)塊訪問增加成為熱點時,動態(tài)增加副本數(shù)目,以提高數(shù)據(jù)訪問效率.如果數(shù)據(jù)塊為非熱點訪問數(shù)據(jù),則動態(tài)刪除最近訪問頻數(shù)最少的副本,以節(jié)省系統(tǒng)存儲空間.

4.3 DRM控制策略

算法1為動態(tài)副本控制算法.首先是基于可用性的副本創(chuàng)建模型,使用式(9)根據(jù)用戶給定的文件可用性算出最小副本數(shù)rmin(第2-6行).其次是智能副本放置機制,在副本創(chuàng)建階段,采用面向用戶的策略將副本放置在離用戶最近的機架上,以保證數(shù)據(jù)的可用性(第11-12行);而在副本運行調(diào)整階段,采用面向業(yè)務(wù)的策略,在具有最多轉(zhuǎn)發(fā)流量的節(jié)點放置副本,保證為大多數(shù)請求者服務(wù),有效的提高利用率(第14-15行).最后是動態(tài)副本調(diào)整策略,數(shù)據(jù)塊的訪問頻率并不總是保持很高,根據(jù)文獻[13]提出的算法,如果當(dāng)前副本數(shù)大于rmin并且數(shù)據(jù)塊平均訪問頻率下降到刪除閾值thdel,則根據(jù)文獻[15]提出的LFU算法計算出數(shù)據(jù)塊各個副本i在當(dāng)前時刻之前的N個單位時間段T內(nèi)的總訪問頻數(shù)VNi,刪除最近訪問頻數(shù)最少的副本,調(diào)整副本數(shù)目以節(jié)省存儲空間(第18-22行).

算法1.動態(tài)副本控制算法

輸入:Aexcept,文件的可用性;

trk,路由路徑上節(jié)點k用于副本的轉(zhuǎn)發(fā)流量;

q,副本的平均查詢;

thdel,刪除閾值.

輸出:data nodel k,副本放置的流量中心節(jié)點.

1.foreach time window Tdo

2.foreachfile

3.ifavailability reset by user

4. Calculate rmin

5.endif

6.endfor

7.foreach block do

8. rj=current replica number of block j

9. aj=Access frequency of block j

10.ifr < rmin

11.ifr=0 //副本創(chuàng)建階段

12. add rminreplicas to the nearest data nodes

13.else

14.iftrk>= γq

15. add one replica to the data node k

16.endif

17.else

18.ifaj< thdelthen

19.fori=1 to rjdo

20. calculate VNi

21.endfor

22. delete the replicas of smallest VNito the data nodes

23.endif

24.endfor

25.endfor

該算法可以很好的解決靜態(tài)副本策略無法適應(yīng)云計算的動態(tài)性特征,算法中提出的動態(tài)副本控制策略可以根據(jù)資源環(huán)境的變化而動態(tài)調(diào)整副本的數(shù)目與位置,以適應(yīng)資源環(huán)境不穩(wěn)定的情況.該算法雖然會增加一些額外的開銷,但是計算主要集中在系統(tǒng)CPU空閑時間,對整體性能影響很小.

5 DRM實現(xiàn)

除了默認的副本管理策略,HDFS還提供了靈活的API方便擴展和實施高效的副本管理.副本因子在HDFS中按文件進行配置.應(yīng)用程序可以指定文件的副本數(shù).副本因子可以在文件創(chuàng)建時被指定,以后可以更改.但是,HDFS不提供確定副本因子的策略.本文可用于確定給定可用性要求下的最小副本數(shù).HDFS還為Datanode之間的數(shù)據(jù)遷移提供接口,以平衡工作負載.因此,HDFS是實現(xiàn)和評估DRM的良好平臺.

為了在HDFS中實現(xiàn)本文提出的DRM,使用副本因子來表示Namenode的元數(shù)據(jù)中的最小副本數(shù).圖1顯示了HDFS中DRM的框架.由于DRM需要塊數(shù)來計算給定可用性需求的最小副本數(shù),因此修改HDFS客戶端以將整個文件數(shù)據(jù)緩存到本地文件而不是第一塊.將整個中間文件緩存在本地文件中是合理的,其大小范圍從幾百兆字節(jié)到千兆字節(jié).這簡化了在HDFS中的原型實現(xiàn),但可能不適用于大型(太字節(jié))的文件.找到將DRM有效地集成到HDFS中的最佳方式是未來工作的一個重要方向.

圖1 動態(tài)副本管理框架Fig.1 Dynamic replication management framework

將整個數(shù)據(jù)寫入本地文件后,客戶端通過可用性設(shè)置和塊號聯(lián)系NameNode.NameNode將文件名插入到文件系統(tǒng)層次結(jié)構(gòu)中,基于式(9)計算副本因子,并利用面向用戶的策略獲得每個數(shù)據(jù)塊的DataNode的列表.NameNode使用每個塊的DataNode列表,目標數(shù)據(jù)塊和副本因子來響應(yīng)客戶機請求.然后客戶端以流水線方式將每個數(shù)據(jù)塊從本地臨時文件刷新到指定的DataNode及其副本到選定的DataNode.

系統(tǒng)運行期間,在數(shù)據(jù)節(jié)點不可達或者當(dāng)前副本數(shù)小于最小副本數(shù)rmin的情況下,新副本將被動態(tài)地添加到數(shù)據(jù)節(jié)點以保證可用性要求.

6 性能評估

測試平臺建立在由一個NameNode節(jié)點和二十個DataNode節(jié)點的集群上.每個節(jié)點都有2.8GHz的Intel Pentium 4 CPU,1GB或2GB的內(nèi)存,80GB或160GB的SATA磁盤.操作系統(tǒng)是帶有內(nèi)核2.6.20的Red Hat AS4.4.Hadoop版本為0.16.1,java版本為1.6.0.

6.1 可用性

為了評估式(9)的準確性,實驗隨時調(diào)整系統(tǒng)中存在的副本數(shù)目,并測量文件可用性.

在這個實驗中,文件被分割成4塊.圖2比較對應(yīng)于預(yù)期可用性的副本數(shù)目.例如,假設(shè)數(shù)據(jù)節(jié)點失效率為0.1和用戶期望的文件可用性為0.8,基于式(9)的計算,最小副本數(shù)為2.當(dāng)系統(tǒng)將每個塊的副本數(shù)保持為2時,我們測量文件的平均可用性為0.93左右.雖然模型預(yù)測在圖中的坐標可能都不是特別準確,但這驗證了模型指向的總趨勢.

為了評估DRM作為動態(tài)算法的優(yōu)勢,測量實驗中運行的副本數(shù)目.結(jié)果如圖3所示,將Aexcept設(shè)置為0.8,開始階段每個塊設(shè)置一個副本.從結(jié)果中可以看到,在實驗開始時副本數(shù)目不斷增加.達到一定程度后,實驗中副本的數(shù)目維持在一個恒定的水平.這表明如果當(dāng)前副本數(shù)目不滿足可用性需求,DRM便會動態(tài)添加更多副本.

圖2 可用性模型的準確性比較Fig.2 Accuracy comparison of availability model

圖3 數(shù)據(jù)節(jié)點故障率為0.1和0.2,期望值為0.8的動態(tài)復(fù)制Fig.3 Dynamic replication with data node failure rate of 0.1 and 0.2,Aexcept=0.8

6.2 訪問延遲

在不同的訪問流行度和訪問率下比較DRM和HDFS的平均訪問延遲.HDFS靜態(tài)維護配置系統(tǒng)中的副本數(shù)目,并采用機架感知副本放置策略.當(dāng)副本因子為3時,HDFS將兩個副本放置在同一機架中,將一個副本放置在不同的機架中.然而,在同一機架中的Datanode是隨機選擇的,而不考慮Datanode之間的性能和工作負載差異.假設(shè)有20個數(shù)據(jù)節(jié)點,訪問率為 δ(0<δ<1),設(shè)置Aexcept= 0.8,數(shù)據(jù)節(jié)點失效率為0.1,系統(tǒng)最初每塊保持2個副本.測試結(jié)果繪制在圖4中.

由圖4可以看出,隨著訪問流行度的增加,DRM和HDFS的訪問延遲都會降低.但是,當(dāng)訪問流行度很小時,DRM的性能比HDFS的性能好.這是因為DRM可以通過增加流行塊的副本數(shù)目并根據(jù)面向業(yè)務(wù)的策略調(diào)整副本位置,在數(shù)據(jù)節(jié)點之間動態(tài)分配工作負載.從實驗結(jié)果還可以發(fā)現(xiàn),當(dāng)將訪問率從0.2增加到0.6時,DRM的性能優(yōu)于HDFS.這表明DRM利用面向業(yè)務(wù)的策略在數(shù)據(jù)節(jié)點集群之間分配繁重的工作負載,并利用整個集群的資源來實現(xiàn)整體性能的提高.

實驗結(jié)果表明,DRM可以適應(yīng)環(huán)境的變化,保持一個合理數(shù)量的副本,這不僅滿足可用性,而且還提高了訪問延遲,負載均衡,并保持整個存儲系統(tǒng)穩(wěn)定.

7 結(jié) 論

目前的分布式系統(tǒng)都是采用數(shù)據(jù)副本的方法來提高數(shù)據(jù)的可用性,但是當(dāng)前的數(shù)據(jù)副本方法大多都是靜態(tài)地提供固定個數(shù)的數(shù)據(jù)副本,無法適應(yīng)動態(tài)變化的數(shù)據(jù)訪問和節(jié)點性能,并會導(dǎo)致糟糕的性能和負載不均衡,本文提出的DRM策略充分考慮到了這些問題,該策略能根據(jù)可用性計算得到合適的數(shù)據(jù)副本個數(shù),不僅考慮到數(shù)據(jù)可靠性還避免了不必要的數(shù)據(jù)復(fù)制,基于節(jié)點性能和用戶訪問特性確定副本放置位置.實驗結(jié)果表明DRM在成本、負載平衡和性能都優(yōu)于現(xiàn)有HDFS副本管理機制.

[1] Ghemawat S,Gobioff H,Leung S T.The google file system[J].Acm Sigops Operating Systems Review,2003,37(5):29-43.

[2] Weil S A,Brandt S A,Miller E L,et al.Ceph:a scalable,high-performance distributed file system[C].Symposium on Operating Systems Design and Implementation,USENIX Association,2006:307-320.

[3] Konstantin Shvachko K,Hairong Kuang,Radia S,et al. The hadoop distributed file system[C].In Proc.of the 26th Mass Storage System and Technologies,2010:1-10.

[4] Rahman R M,Barker K,Alhajj R.Replica placement strategies in data grid[J].Journal of Grid Computing,2008,6(1):103-123.

[5] Xu Jing,Yang Shou-bao,Wang Shu-ling,et al.CDRS:an adaptive cost-driven replication strategy in cloud storage[J].Journal of the Graduate School of the Chinese Academy of Sciences,2011,28(6):759-767.

[6] Amazon simple storage service website[EB/OL].http://aws.amazon.com/s3/,Jan,2017.

[7] Melorose J,Perroy R,Careas S.Hadoop definitive guide[M].Hadoop:The Definitive Guide.Yahoo! Press,2015:1-4.

[8] Chandy J A.A generalized replica placement strategy to optimize latency in a wide area distributed storage system[M].Proceedings of the 2008 International Workshop on Data-aware Distributed Computing (DADC′08),Boston,USA,New York NY,USA,ACM,2008:49-54.

[9] Ding Y,Lu Y.Automatic data placement and replication in grids[C].High Performance Computing (HiPC),2009 International Conference on.IEEE,2009:30-39.

[10] Qu Y,Xiong N.RFH:a resilient,fault-tolerant and high-efficient replication algorithm for distributed cloud storage[C].International Conference on Parallel Processing,IEEE,2012:520-529.

[11] Lin Wei-wei.An improved data placement strategy for hadoop[J].Journal of South China University of Technology,2012,40(1):152-158.

[12] Ibrahim I A,Wei D,Bassiouni M.Intelligent data placement mechanism for replicas distribution in cloud storage systems[C].IEEE International Conference on Smart Cloud,IEEE Computer Society,2016:134-139.

[13] Wei Q,Veeravalli B,Gong B,et al.CDRM:a cost-effective dynamic replication management scheme for cloud storage cluster[C].IEEE International Conference on CLUSTER Computing.IEEE,2010:188-196.

[14] Deng J L.Control problems of grey systems[J].Systems & Control Letters,1982,1(5):288-294.

[15] Tao Yong-cai,Zhang Ning-ning,Shi Lei,et al.Researching on dynamic management of data replicas of cloud computing in heterogeneous environments[J].Journal of Chinese Computer Systems,2013,34(7):1487-1492.

[16] Lin Chang-hang,Guo Wen-zhong,Chen Huang-ning.Node-capability-aimed data distribution strategy in heterogeneous hadoop cluster[J].Journal of Chinese Computer Systems,2015,36(1):83-88.

[17] Xun Ya-ling,Zhang Ji-fu,Qin Xiao.Data placement strategy for MapReduce cluster environment[J].Journal of Software,2015,26(8):2056-2073.

[18] Qu K,Meng L,Yang Y.A dynamic replica strategy based on Markov model for hadoop distributed file system (HDFS)[C].Cloud Computing and Intelligence Systems (CCIS),2016 4th International Conference on.IEEE,2016:337-342.

附中文參考文獻:

[5] 徐 婧,楊壽保,王淑玲,等.CDRS:云存儲中一種代價驅(qū)動的自適應(yīng)副本策略[J].中國科學(xué)院大學(xué)學(xué)報,2011,28(6):759-767.

[11] 林偉偉.一種改進的Hadoop數(shù)據(jù)放置策略[J].華南理工大學(xué)學(xué)報:自然科學(xué)版,2012,40(1):152-158.

[15] 陶永才,張寧寧,石 磊,等.異構(gòu)環(huán)境下云計算數(shù)據(jù)副本動態(tài)管理研究[J].小型微型計算機系統(tǒng),2013,34(7):1487-1492.

[16] 林常航,郭文忠,陳煌寧.針對Hadoop異構(gòu)集群節(jié)點性能的數(shù)據(jù)分配策略[J].小型微型計算機系統(tǒng),2015,36(1):83-88.

[17] 荀亞玲,張繼福,秦 嘯.MapReduce集群環(huán)境下的數(shù)據(jù)放置策略[J].軟件學(xué)報,2015,26(8):2056-2073.

猜你喜歡
副本存儲系統(tǒng)可用性
分層式大數(shù)據(jù)存儲系統(tǒng)緩存調(diào)度策略與性能優(yōu)化
核電站DCS可用性測試應(yīng)用研究
機構(gòu)知識庫網(wǎng)站可用性評價指標的計量學(xué)分析
一種基于3 階段實現(xiàn)的高性能云存儲計算*
使用卷影副本保護數(shù)據(jù)
面向流媒體基于蟻群的副本選擇算法①
天河超算存儲系統(tǒng)在美創(chuàng)佳績
面向4K/8K的到來 存儲該怎么辦?
云科學(xué)工作流中任務(wù)可完成性預(yù)測方法
關(guān)于數(shù)字圖書館網(wǎng)站的可用性框架研究