張萌 周華春 羅洪斌
摘要:介紹一種有效支持緩存協(xié)作的未來網(wǎng)絡(luò)體系架構(gòu):智慧協(xié)同網(wǎng)絡(luò),然后提出了一種高效的協(xié)作緩存機(jī)制,稱為CoLoRCache。CoLoRCache的主要目標(biāo)是減小緩存冗余和建立緩存共享機(jī)制。我們通過仿真結(jié)果來驗(yàn)證CoLoRCache。仿真數(shù)據(jù)表明,相比較于其他緩存機(jī)制,CoLoRCache能夠產(chǎn)生更高的緩存命中率和有著最小的請(qǐng)求命中距離。
關(guān)鍵詞: 智慧協(xié)同網(wǎng)絡(luò);網(wǎng)絡(luò)緩存;協(xié)作緩存
Abstract: In this paper, we propose a possible future network architecture that supports cache cooperation. We also propose intra-domain cache cooperation, called CoLoRCache, to increase cache efficiency. Our main goals in CoLoRCache are to reduce the caching redundancy significantly and construct a novel cache-sharing mechanism. We use trace-driven simulations to analyze the quantitative benefits. The simulation results show that, compared with other caching mechanisms, CoLoRCache provides a higher cache hit ratio and achieves the minimum hit distance.
Key words: smart and cooperative networks; in-network caching; cache cooperation
對(duì)服務(wù)內(nèi)容命名成為了未來網(wǎng)絡(luò)體系架構(gòu)研究者們的共識(shí)。目前,研究者們提出了諸多未來網(wǎng)絡(luò)體系架構(gòu),例如面向數(shù)據(jù)的網(wǎng)絡(luò)結(jié)構(gòu)(DONA)[1]、內(nèi)容中心網(wǎng)絡(luò)(CCN)[2](后來被命名為命名數(shù)據(jù)網(wǎng)絡(luò)[3](NDN))、4WARD [4] (后來被命名為可擴(kuò)展和可適應(yīng)的網(wǎng)絡(luò)方案(SAIL)[5])、基于發(fā)布-訂閱的互聯(lián)網(wǎng)路由模式(PSIRP) [6](后來被命名為基于發(fā)布-訂閱的互聯(lián)網(wǎng)技術(shù)(PURSUIT)[7]),以及智慧協(xié)同網(wǎng)絡(luò)[8]。不同于傳統(tǒng)網(wǎng)絡(luò)利用網(wǎng)絡(luò)節(jié)點(diǎn)地址,這些未來網(wǎng)絡(luò)架構(gòu)依靠與位置分離的內(nèi)容名字完成服務(wù)內(nèi)容的獲取。
盡管這些未來網(wǎng)絡(luò)體系架構(gòu)有著不同的設(shè)計(jì)目標(biāo)和細(xì)節(jié),他們均提出利用網(wǎng)絡(luò)緩存來提高未來網(wǎng)絡(luò)的服務(wù)質(zhì)量。
緩存機(jī)制要求有限的緩存資源能夠響應(yīng)更多的服務(wù)請(qǐng)求,同時(shí)產(chǎn)生更小的服務(wù)請(qǐng)求命中距離。而傳統(tǒng)的網(wǎng)絡(luò)緩存機(jī)制[9]面臨著兩個(gè)需要解決的問題:緩存冗余和緩存內(nèi)容可用性限制。
這兩個(gè)問題降低了緩存機(jī)制的效率。為了實(shí)現(xiàn)高效的緩存機(jī)制,研究者們提出了諸多緩存優(yōu)化機(jī)制。這些緩存優(yōu)化機(jī)制都試圖減小緩存冗余,或者提高緩存可用性,或者兩者兼有。例如,Probcache[10]要求內(nèi)容路由器概率性地緩存轉(zhuǎn)發(fā)的內(nèi)容數(shù)據(jù)包,以減小緩存冗余。在Breadcrumbs[11]中,內(nèi)容路由器建立路由軌跡,以提高緩存內(nèi)容可用性。而最近研究界提出的緩存優(yōu)化機(jī)制[12-13]均采用了緩存信息通告來實(shí)現(xiàn)緩存協(xié)作。
需要注意的是,已提出的緩存協(xié)作機(jī)制都是基于NDN體系架構(gòu)。考慮一個(gè)由V個(gè)內(nèi)容路由器組成的NDN網(wǎng)絡(luò),我們假設(shè)一段時(shí)間內(nèi)該NDN網(wǎng)絡(luò)中所有內(nèi)容路由器的平均緩存命中率為R,每一個(gè)內(nèi)容路由器收到的服務(wù)請(qǐng)求數(shù)量為N。如果每一個(gè)內(nèi)容路由器在緩存服務(wù)數(shù)據(jù)包的時(shí)候,向網(wǎng)絡(luò)中其他的內(nèi)容路由器通告緩存信息。那么該NDN網(wǎng)絡(luò)中每一個(gè)內(nèi)容路由器都需要處理(V-1)×(1-R) ×N個(gè)緩存通告消息。由此可見,當(dāng)網(wǎng)絡(luò)規(guī)模擴(kuò)大時(shí),協(xié)作緩存機(jī)制產(chǎn)生的通告開銷也相應(yīng)地增加。所以,NDN網(wǎng)絡(luò)體系無法兼顧協(xié)作緩存機(jī)制的效率和可擴(kuò)展性。
為了解決這個(gè)問題,我們?cè)谖闹惺紫冉榻B一種有效支持緩存協(xié)作的未來網(wǎng)絡(luò)體系架構(gòu):智慧協(xié)同網(wǎng)絡(luò)。同時(shí),基于智慧協(xié)同網(wǎng)絡(luò),我們提出了一種高效的緩存協(xié)作機(jī)制,稱為CoLoRCache。
1智慧協(xié)同網(wǎng)絡(luò)
作為研究基礎(chǔ),我們?cè)谶@一節(jié)中簡單介紹智慧協(xié)同網(wǎng)絡(luò),更多的細(xì)節(jié)請(qǐng)參考文獻(xiàn)[8], [14-15]。智慧協(xié)同網(wǎng)絡(luò)是一種全新的未來網(wǎng)絡(luò)體系架構(gòu),其核心思想是通過動(dòng)態(tài)感知網(wǎng)絡(luò)狀態(tài)并智能匹配服務(wù)需求,進(jìn)而選擇合理的網(wǎng)絡(luò)族群及其內(nèi)部組件來提供智慧化的服務(wù),并通過引入行為匹配、行為聚類、網(wǎng)絡(luò)復(fù)雜行為博弈決策等機(jī)制來實(shí)現(xiàn)資源的動(dòng)態(tài)適配以及協(xié)同調(diào)度。
智慧協(xié)同網(wǎng)絡(luò)的“三層”、“兩域”總體系架構(gòu)模型,如圖1所示。三層即智慧服務(wù)層、資源適配層和網(wǎng)絡(luò)組件層;兩域即實(shí)體域和行為域。在三層、兩域新體系結(jié)構(gòu)模型中,智慧服務(wù)層主要負(fù)責(zé)服務(wù)的標(biāo)識(shí)與描述,以及服務(wù)的智慧查找與動(dòng)態(tài)匹配等;資源適配層通過感知服務(wù)需求與網(wǎng)絡(luò)狀態(tài),動(dòng)態(tài)地適配網(wǎng)絡(luò)資源并構(gòu)建網(wǎng)絡(luò)族群,以充分滿足服務(wù)需求進(jìn)而提升用戶體驗(yàn),并提高網(wǎng)絡(luò)資源利用率;網(wǎng)絡(luò)組件層主要負(fù)責(zé)數(shù)據(jù)的存儲(chǔ)與傳輸,以及網(wǎng)絡(luò)組件的行為感知與聚類等。使用服務(wù)標(biāo)識(shí)(SID)來標(biāo)記一次智慧服務(wù),實(shí)現(xiàn)服務(wù)的資源和位置分離;使用族群標(biāo)識(shí)(FID)來標(biāo)記一個(gè)族群功能模塊;使用組件標(biāo)識(shí)(NID)來標(biāo)記一個(gè)網(wǎng)絡(luò)組件設(shè)備,實(shí)現(xiàn)網(wǎng)絡(luò)的控制和數(shù)據(jù)分離及身份與位置分離。
在智慧協(xié)同網(wǎng)絡(luò)中每個(gè)自治域維護(hù)一個(gè)資源管理器(RM),并用來管理網(wǎng)絡(luò)資源和服務(wù)資源。如圖2中實(shí)線所示,當(dāng)某個(gè)網(wǎng)絡(luò)組件(例如位于自治域Dc的用戶A)需要獲取某個(gè)服務(wù)內(nèi)容時(shí)(例如SIDA,由網(wǎng)絡(luò)組件Server發(fā)布),用戶A向其本地RM(例如RMA)發(fā)送服務(wù)請(qǐng)求消息。該服務(wù)請(qǐng)求消息包含該網(wǎng)絡(luò)組件的組件身份標(biāo)識(shí)、所需服務(wù)的服務(wù)標(biāo)識(shí)等信息,如圖2中(1)所示。RMA收到該服務(wù)請(qǐng)求后,如果本地有其他網(wǎng)絡(luò)組件(例如某個(gè)內(nèi)容路由器)能夠提供所需服務(wù),則直接將該請(qǐng)求轉(zhuǎn)發(fā)給該內(nèi)容路由器。否則,將該請(qǐng)求發(fā)送給其某個(gè)鄰域(如provider)的RM(即RMF)。此時(shí),自治域DA和DF之間的域間路徑P2為一個(gè)域間路由族群。RMA在請(qǐng)求包頭中添加對(duì)應(yīng)的路徑信息,并將服務(wù)請(qǐng)求轉(zhuǎn)發(fā)給RMF,如圖2中(2)所示。類似地,RMF將服務(wù)請(qǐng)求轉(zhuǎn)發(fā)給RMG,如圖2中(3)所示。此時(shí),RMG可以在其服務(wù)注冊(cè)表中查到該服務(wù)標(biāo)識(shí)的條目,因此向RME轉(zhuǎn)發(fā)該服務(wù)請(qǐng)求,如圖2中(4)所示。RME收到該服務(wù)請(qǐng)求后,根據(jù)其本地策略決定將該服務(wù)請(qǐng)求并轉(zhuǎn)發(fā)給RMC,如圖2中(5)所示。此時(shí),RMC知道網(wǎng)絡(luò)組件Server提供所需服務(wù),于是將服務(wù)請(qǐng)求轉(zhuǎn)發(fā)給Server,如圖2中(6)所示。當(dāng)每個(gè)RM向其鄰域轉(zhuǎn)發(fā)服務(wù)請(qǐng)求的時(shí)候,該RM根據(jù)其本地策略,選擇一條該域與其鄰域的域間路由族群,并附加在服務(wù)請(qǐng)求后面,發(fā)送給其鄰域的RM,從而完成服務(wù)標(biāo)識(shí)到族群標(biāo)識(shí)的映射。
數(shù)據(jù)包轉(zhuǎn)發(fā)流程示意如圖3[8]所示。網(wǎng)絡(luò)組件Server收到服務(wù)請(qǐng)求后,知道去往服務(wù)請(qǐng)求者A的域間路由族群。此時(shí),它將收到的域間路由族群、所需服務(wù)的服務(wù)標(biāo)識(shí)、服務(wù)請(qǐng)求者的組件身份標(biāo)識(shí)等放在分組頭部。然后,它將服務(wù)數(shù)據(jù)包發(fā)送至本地RM。RM收到數(shù)據(jù)包后,查找其本地域間路由表,發(fā)現(xiàn)路由族群P4在該域的端點(diǎn)為R1。假定域DC利用IP做域內(nèi)路由,則RM為數(shù)據(jù)包封裝一個(gè)IP報(bào)頭,報(bào)頭的目的地址為R1的IP地址(IP1)。然后RM將數(shù)據(jù)包發(fā)送給R1。R1收到數(shù)據(jù)包后,剝?nèi)P報(bào)頭,知道數(shù)據(jù)包應(yīng)該沿著路由族群P4轉(zhuǎn)發(fā)出去,于是將數(shù)據(jù)包向路由族群P4轉(zhuǎn)發(fā)。當(dāng)數(shù)據(jù)包到達(dá)路由族群P4的另一個(gè)端點(diǎn)R2時(shí),R2剝?nèi)?shù)據(jù)包頭部的路由族群P4,并將數(shù)據(jù)包發(fā)送至RME。RME收到數(shù)據(jù)包后,知道數(shù)據(jù)包應(yīng)該沿著路由族群P3轉(zhuǎn)發(fā)。于是,RME查找其域間路由表,了解到路由族群P3在該域的端點(diǎn)為R5,并采用該域的路由機(jī)制(圖3中假設(shè)該域采用多協(xié)議標(biāo)簽交換MPLS)將分組轉(zhuǎn)發(fā)給R5。同理,R5將該分組向路徑P3轉(zhuǎn)發(fā)。如此繼續(xù),服務(wù)數(shù)據(jù)包將被發(fā)送給服務(wù)請(qǐng)求者A。
由此可見,智慧協(xié)同網(wǎng)絡(luò)能夠解決現(xiàn)有互聯(lián)網(wǎng)中存在的服務(wù)的“資源和位置綁定”、網(wǎng)絡(luò)的“控制和數(shù)據(jù)綁定”及“ 身份與位置綁定”等問題。這種全新的網(wǎng)絡(luò)體系與機(jī)制的設(shè)計(jì),能夠在有效解決網(wǎng)絡(luò)可擴(kuò)展性、移動(dòng)性、安全性等問題的基礎(chǔ)上,大幅度提高網(wǎng)絡(luò)資源利用率,降低網(wǎng)絡(luò)能耗,顯著提升用戶體驗(yàn)。同時(shí),智慧協(xié)同網(wǎng)絡(luò)能夠有效支持協(xié)作緩存機(jī)制,提高緩存效率。
2 CoLoRCache
2.1 CoLoRCache緩存協(xié)作機(jī)制設(shè)計(jì)
在智慧協(xié)同網(wǎng)絡(luò)中,由RM負(fù)責(zé)管理本域的緩存資源。每個(gè)RM均建立緩存摘要表,表中每一條條目記錄了域內(nèi)的某個(gè)內(nèi)容路由器的信息,包括:該內(nèi)容路由器的組件標(biāo)識(shí)、緩存命中次數(shù)、偏心度(Ec)、被該內(nèi)容路由器緩存的數(shù)據(jù)包的服務(wù)標(biāo)識(shí)。其中,內(nèi)容路由器(例如Rn)的偏心度由公式(1)計(jì)算得到:
[EcRn= max?Ri\Rnc(Rn,Ri)] (1)
其中,Ri是域內(nèi)的某個(gè)內(nèi)容路由器,而c(Rn, Ri)是Rn到Ri之間最短路徑的代價(jià)。
以圖4中的RMA為例,說明服務(wù)內(nèi)容的檢索過程。在RMA的緩存摘要表中一條條目包含了域內(nèi)的一個(gè)內(nèi)容路由器的組件標(biāo)識(shí)(標(biāo)記為Rn)、命中次數(shù)、偏心度和已緩存數(shù)據(jù)包的服務(wù)標(biāo)識(shí)。圖4為一個(gè)資源管理器RMA在收到來自客戶端的服務(wù)請(qǐng)求包完整的處理流程,主要可以分為4個(gè)步驟。
步驟1:服務(wù)請(qǐng)求者Client發(fā)送針對(duì)一個(gè)服務(wù)內(nèi)容的服務(wù)請(qǐng)求,如圖4中(1)所示;
步驟2:RMA收到該服務(wù)請(qǐng)求時(shí),首先查詢緩存摘要表,如圖4中(2)所示。如果緩存摘要表中有該服務(wù)標(biāo)識(shí)對(duì)應(yīng)的條目,則進(jìn)入步驟3;如果沒有,則進(jìn)入步驟4;
步驟3:根據(jù)緩存摘要表中對(duì)應(yīng)條目記錄的組件標(biāo)識(shí),RMA將服務(wù)請(qǐng)求發(fā)送至該組件標(biāo)識(shí)對(duì)應(yīng)的內(nèi)容路由器處,同時(shí)將對(duì)應(yīng)條目的緩存命中次數(shù)加1,如圖4中(3)所示;
步驟4:RMA查詢注冊(cè)表,并根據(jù)注冊(cè)表將服務(wù)請(qǐng)求發(fā)送至下一跳RM,如圖4中(4)所示。
當(dāng)收到服務(wù)數(shù)據(jù)包時(shí),RM將決定是否在域內(nèi)緩存該數(shù)據(jù)包的副本。如果需要緩存,CoLoRCache在域內(nèi)對(duì)相同的服務(wù)數(shù)據(jù)包只保留一份副本。RM則使用內(nèi)容放置算法在域內(nèi)選擇內(nèi)容路由器作為該副本的緩存位置,并向該內(nèi)容路由器發(fā)送數(shù)據(jù)包的副本。資源管理器在緩存摘要表中記錄該緩存信息。內(nèi)容路由器將發(fā)送至本地的數(shù)據(jù)包副本緩存在本地。
2.2 CoLoRCache內(nèi)容放置算法
我們用Go= (Vo, Eo)代表某個(gè)自治域的網(wǎng)絡(luò)拓?fù)?,其中包含了|Vo|個(gè)內(nèi)容路由器,|Eo|條鏈路。V是網(wǎng)絡(luò)中命中次數(shù)最低的內(nèi)容路由器的集合,當(dāng)資源管理器收到數(shù)據(jù)包時(shí),調(diào)用下述的內(nèi)容放置算法在域內(nèi)選擇某個(gè)特定的內(nèi)容路由器來緩存該數(shù)據(jù)包的副本,如算法1所示。
算法1包含4個(gè)步驟。
步驟1:根據(jù)緩存摘要表,選出集合Vo中當(dāng)前命中數(shù)量最小的內(nèi)容路由器放入集合V中;
步驟2:根據(jù)|V|值,進(jìn)行判定,如果|V|>1,進(jìn)入步驟3;如果|V|=1,進(jìn)入步驟4;
步驟3:選擇集合V中的元素,結(jié)束算法;
步驟4:選擇集合V中的偏心度最小的元素,結(jié)束算法。
CoLoRCache內(nèi)容放置算法的增益效果是將數(shù)據(jù)包優(yōu)先緩存在緩存命中次數(shù)最低的內(nèi)容路由器,以提高緩存效率。當(dāng)多個(gè)內(nèi)容路由器緩存命中次數(shù)相同時(shí),該算法能夠?qū)?shù)據(jù)包優(yōu)先緩存在更加位于拓?fù)渲行牡膬?nèi)容路由器處,以降低獲取該數(shù)據(jù)包的成本。
3仿真實(shí)驗(yàn)
為了驗(yàn)證緩存性能,我們?cè)贠MNeT++上對(duì)CoLoRCache進(jìn)行了仿真實(shí)現(xiàn),基于一個(gè)實(shí)際的拓?fù)浜鸵粋€(gè)生成的拓?fù)?。?shí)際的拓?fù)錇锳S-3967,其拓?fù)湫畔碜訰ocketfuel [16]。同時(shí),我們利用Tier [17]生成一個(gè)分層的拓?fù)洌?個(gè)骨干網(wǎng)和3個(gè)接入網(wǎng)組成。我們?cè)诒?中列出了詳細(xì)的拓?fù)鋮?shù)。
我們?cè)贠MNeT++中部署了目前已提出的其他緩存優(yōu)化機(jī)制:
·All-Cache。All-Cache是傳統(tǒng)的緩存機(jī)制,它要求每一個(gè)內(nèi)容路由器在轉(zhuǎn)發(fā)數(shù)據(jù)包的同時(shí),都在本地緩存保留一份數(shù)據(jù)包的副本。
·Prob-Cache。Prob-Cache是概率性緩存機(jī)制,主要分為Prob(p)[18]和Probcache。在Prob(p)中,內(nèi)容路由器以某個(gè)固定的概率緩存轉(zhuǎn)發(fā)的數(shù)據(jù)包。在仿真中Prob(p)要求內(nèi)容路由器緩存一個(gè)轉(zhuǎn)發(fā)的數(shù)據(jù)包的概率為0.75,只轉(zhuǎn)發(fā)該數(shù)據(jù)包的概率為0.25。而在Probcache,內(nèi)容路由器根據(jù)其在下載路徑上的位置計(jì)算緩存概率。同樣的,在Prob-Cache中,每一個(gè)內(nèi)容路由器都只知道本地的緩存狀態(tài)。
·Ran-Cache。Ran-Cache的原型是CATT。兩者不同的地方在于,我們將Ran-Cache部署在了智慧協(xié)同網(wǎng)絡(luò)中,目的在于驗(yàn)證內(nèi)容放置算法。除了不同的內(nèi)容檢索和轉(zhuǎn)發(fā)方法,與CATT相比,Ran-Cache中每一個(gè)域的資源管理器能感知本域的緩存狀態(tài)。
·Cop-Cache。Cop-Cache的原型是CPHR[19]。兩者不同的地方在于Cop-Cache被部署在了智慧協(xié)同網(wǎng)絡(luò),因此每一個(gè)域的資源管理器能夠感知本域的緩存狀態(tài)。
在仿真中我們驗(yàn)證了多個(gè)緩存性能參數(shù),包括緩存命中率和平均命中距離。同時(shí),在仿真中服務(wù)內(nèi)容的訪問頻率模型符合Zipf分布,并將Zipf參數(shù)設(shè)定為0.73。
3.1緩存命中率優(yōu)化
一次緩存命中意味著服務(wù)請(qǐng)求包被緩存所直接響應(yīng),而不需要被路由到內(nèi)容源。緩存命中率是緩存命中的服務(wù)請(qǐng)求數(shù)占所有服務(wù)請(qǐng)求數(shù)量的比重。緩存命中率能夠直觀地體現(xiàn)緩存效率。命中率越高,則意味著緩存機(jī)制越高效。
圖5(a)展示了在AS-3967拓?fù)湎?,不同的緩存機(jī)制對(duì)于緩存命中率的優(yōu)化。如圖所示,我們將緩存空間大小表示為網(wǎng)絡(luò)中緩存容量與仿真中所有服務(wù)內(nèi)容大小的比值。在仿真中,我們逐步提高緩存容量并統(tǒng)計(jì)緩存命中率。隨著緩存空間大小增加,緩存命中率也相應(yīng)增加。其中,CoLoRCache的緩存命中率最高。舉例來說,當(dāng)緩存空間大小為5%時(shí),All-Cache、Prob(p)、Probcache、Ran-Cache、Cop-Cache和CoLoRCache的緩存命中率分別為20.56%、32.25%、51.83%、60.56%、66.75%和70.06%。由此可見,跟其他的緩存優(yōu)化機(jī)制相比,CoLoRCache對(duì)緩存命中率的優(yōu)化效果更加顯著。
圖5(b)展示了利用Tier生成的拓?fù)湎?,不同緩存機(jī)制的緩存命中率。在相同的仿真環(huán)境下,CoLoRCache的緩存命中率更高。
3.2命中距離優(yōu)化
命中距離是測量服務(wù)時(shí)延的一個(gè)參數(shù),它被定義為請(qǐng)求找到所需內(nèi)容的平均距離。圖6展示了在不同仿真拓?fù)湎碌恼?qǐng)求命中距離減少程度。根據(jù)圖6,我們發(fā)現(xiàn)當(dāng)緩存空間大小增加時(shí),命中距離會(huì)相應(yīng)地減小,這意味著更短的服務(wù)獲取時(shí)延。同時(shí),與現(xiàn)有的優(yōu)化機(jī)制相比,CoLoRCache能夠更有效地減少請(qǐng)求命中距離。
4結(jié)束語
文章介紹了一種能夠有效支持協(xié)作緩存的未來網(wǎng)絡(luò)體系架構(gòu)——智慧協(xié)同網(wǎng)絡(luò),并提出了一種基于智慧協(xié)同網(wǎng)絡(luò)的協(xié)作緩存機(jī)制——CoLoRCache。CoLoRCache的基本思想是利用緩存共享來減小緩存冗余并提高緩存內(nèi)容可用性。仿真建立在一個(gè)實(shí)際的網(wǎng)絡(luò)拓?fù)銩S-3967和一個(gè)生成的網(wǎng)絡(luò)拓?fù)?。大量仿真?shí)驗(yàn)結(jié)果證明CoLoRCache在緩存命中率和平均命中距離上擁有更優(yōu)的緩存性能。
參考文獻(xiàn)
[1] KOPONEN T, CHAWLA M, CHUN B -G, ERMOLINSKIY A, KIM K H, SHENKER S, and STOICA I. A data-oriented (and beyond) network architecture [J]. ACM SIGCOMM Computer Communication Review, 2007, 37(4): 181-192
[2] Project CCNX [EB/OL]. [2015-04-30]. http://www.ccnx.org/
[3] Named Data Networking [EB/OL]. http://www.named-data.net/
[4] The FP7 4WARD Project [EB/OL]. http://www.4ward-project.eu/
[5] Scalable and Adaptive Internet Solutions (SAIL) [EB/OL]. http://www.sail-project.eu/
[6] Publish-subscribe Internet Routing Paradigm [EB/OL]. http://www.psirp.org/
[7] Publish-Subscribe Internet Technology [EB/OL]. http://www.fp7-pursuit.eu/PursuitWeb/
[8] LUO H, CHEN Z, CUI J, ZHANG H, ZUKERMAN M, and QIAO C. Color: an information-centric internet architecture for innovations [J]. IEEE Network, 2014, 28(3): 4-10. doi: 10.1109/MNET.2014.6843226
[9] JACOBSON V, SMETTERS D K, THORONTON J D, PLASS M F, BRIGGS N H, and BRAYNARD R L. Networking named content [C]// Proceedings of 2009 ACM CoNEXT conference, Rome, Italy, 2009: 1-12
[10] PSARAS I, CHAI W K, and PAVLOU G. Probabilistic in-network caching for information-centric networks [C]// Proceedings of the 2nd ACM SIGCOMM Workshop on Information-Centric Networking, Helsinki, Finland, 2012:55-60
[11] ROSENSWEIG E J and KUROSE J. Breadcrumbs: Efficient, best-effort content location in cache networks [C]// Proceedings of 2009 INFOCOM, Rio de Janeiro, Brazil, 2009: 2631-2635
[12] EUM S, NAKAUCHI K, MURATA M, SHOJI Y, and NISHINAGA N. Catt: potential based routing with content caching for icn [C]//Proceedings of the 2nd ACM SIGCOMM Workshop on Information-Centric Networking, Helsinki, Finland, 2012: 49-54
[13] WANG J M, ZHANG J, and BENSAOU B. Intra-as cooperative caching for content-centric networks[C]// Proceedings of the 3rd ACM SIGCOMM workshop on Information-Centric Networking, Hong Kong, China, 2013: 61-66
[14] 張宏科, 蘇偉. 新網(wǎng)絡(luò)體系基礎(chǔ)研究——體化網(wǎng)絡(luò)與普適服務(wù) [J]. 電子學(xué)報(bào), 2007, 35(4):593-598
[15] 張宏科, 羅洪斌. 智慧協(xié)同網(wǎng)絡(luò)體系基礎(chǔ)研究 [J]. 電子學(xué)報(bào), 2013, 41(7): 1249-1254
[16] CALVERT K L, DOAR M B, and ZEGURA E W. Modeling internet topology [J]. IEEE Communications Magazine, 1997, 35(6): 160-163
[17] SPRING N, MAHAJAN R, and WETHERALL D. Measuring isp topologies with rocketfuel [J]. ACM SIGCOMM Computer Communication Review, 2002, 32(4):133-145
[18] LAOUTARIS N, CHE H, and STAVRAKAKIS I. The lcd interconnection of lru caches and its analysis [J]. Performance Evaluation, 2006, 63(7): 609-634
[19] WANG S, BI J, and WU J. Collaborative caching based on hashrouting for information-centric networking [J]. ACM SIGCOMM Computer Communication Review, 2013, 43(4):535-536