国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于OpenMP 的多機(jī)集群并行計(jì)算系統(tǒng)架構(gòu)設(shè)計(jì)

2022-03-02 12:42李曉琳高獻(xiàn)偉韓妍妍
關(guān)鍵詞:報(bào)文服務(wù)中心客戶端

李曉琳 高獻(xiàn)偉 韓妍妍

北京電子科技學(xué)院,北京市 100070

引言

進(jìn)入21 世紀(jì)以來,物聯(lián)網(wǎng)、大數(shù)據(jù)等信息技術(shù)得到迅猛發(fā)展,引發(fā)重大的技術(shù)革新。 同時(shí),信息資源等也變得十分復(fù)雜,導(dǎo)致信息化系統(tǒng)不斷變得龐大、復(fù)雜,隨之而來的是海量、巨大的信息量和計(jì)算量。 截至當(dāng)前,數(shù)據(jù)量已經(jīng)從TB 躍升到PB、EB 甚至ZB 的級(jí)別,數(shù)據(jù)的爆炸式增長(zhǎng)以及其蘊(yùn)含的巨大價(jià)值將對(duì)企業(yè)未來的發(fā)展產(chǎn)生深遠(yuǎn)的影響,在此背景下,系統(tǒng)對(duì)數(shù)據(jù)的處理規(guī)模越來越大,傳統(tǒng)的軟件計(jì)算已經(jīng)無法滿足如此龐大數(shù)據(jù)處理規(guī)模,如何對(duì)數(shù)據(jù)進(jìn)行快速、高效的處理是未來信息技術(shù)發(fā)展道路上關(guān)注的重點(diǎn)。

隨著現(xiàn)代科技和經(jīng)濟(jì)的發(fā)展,基于多核處理器的高性能計(jì)算機(jī)出現(xiàn)在許多大型工程、科學(xué)實(shí)驗(yàn)的研究中,通過網(wǎng)絡(luò)將大量的服務(wù)器連接起來,具有超強(qiáng)的計(jì)算能力,能夠滿足大量計(jì)算的需求。 雖然如此,傳統(tǒng)的單機(jī)串行軟件編程方式無法充分利用多核處理器資源,計(jì)算機(jī)的性能無法得到充分地利用。 應(yīng)用程序要想充分發(fā)揮多核處理器的性能,必須采用并行計(jì)算的方式,提高軟件系統(tǒng)的運(yùn)行效率[1]。

近幾年來,國(guó)外許多高校和科研機(jī)構(gòu)對(duì)并行算法進(jìn)行設(shè)計(jì)、分析和實(shí)現(xiàn),并在并行優(yōu)化編譯、高性能I/O、通信技術(shù)等方面開展研究。 國(guó)內(nèi)一些高校和研究院投入了一些力量開展并行計(jì)算軟件應(yīng)用理論和方法的研究,并取得了一定的成果,到目前為止,并行計(jì)算技術(shù)已經(jīng)廣泛地應(yīng)用于計(jì)算數(shù)學(xué)、數(shù)字模擬、機(jī)械制造等領(lǐng)域。

本文基于《天地一體化網(wǎng)絡(luò)密碼按需服務(wù)關(guān)鍵技術(shù)及系統(tǒng)》,它是《天地一體化網(wǎng)絡(luò)信息安全保障技術(shù)的研究》中的一個(gè)子課題,它對(duì)天地一體化信息網(wǎng)絡(luò)中密碼資源跨域管理、海量密碼數(shù)據(jù)存儲(chǔ)等關(guān)鍵技術(shù)進(jìn)行研究[2]。 由于天地一體化網(wǎng)絡(luò)具有復(fù)雜、多樣、異構(gòu)的特點(diǎn),并包含多種多樣的密碼設(shè)備和資源,因此產(chǎn)生了海量的數(shù)據(jù),如何高效地處理海量的數(shù)據(jù)成為天地一體化信息網(wǎng)絡(luò)建設(shè)中研究的關(guān)鍵課題之一。

本文根據(jù)天地一體化跨域分層密碼按需服務(wù)的總體技術(shù)要求,基于OpenMP 技術(shù)開展多核并行程序設(shè)計(jì)方法的研究,并在此基礎(chǔ)上設(shè)計(jì)了一種多機(jī)集群并行計(jì)算系統(tǒng),旨在充分利用計(jì)算機(jī)性能,提高數(shù)據(jù)處理和計(jì)算的效率,解決天地一體化信息網(wǎng)絡(luò)對(duì)海量數(shù)據(jù)處理的需求。

1 關(guān)鍵技術(shù)研究

1.1 并行計(jì)算技術(shù)研究現(xiàn)狀

目前主流的并行計(jì)算技術(shù)主要有OpenMP、MPI(信息傳遞接口)和Spark(計(jì)算引擎)技術(shù),針對(duì)這幾種技術(shù)進(jìn)行了調(diào)研分析對(duì)比。

(1)OpenMP

OpenMP 是一種基于共享內(nèi)存多處理器體系結(jié)構(gòu)的多線程并行編程模型,也是在共享存儲(chǔ)下編寫并行程序的一組API。 OpenMP 的規(guī)范由SGI 提出,獲得了微軟、Sun、Intel、IBM、HP 等軟硬件行業(yè)巨頭的認(rèn)可和支持,目前支持的語(yǔ)言是C/C++和Fortran。

OpenMP1.0 標(biāo)準(zhǔn)誕生于1997 年。 2005 年,OpenMP 的結(jié)構(gòu)審議會(huì)(Architecture Review Board,ARB),推出了OpenMP2.5 標(biāo)準(zhǔn)。 2008年,OpenMP3.0 標(biāo)準(zhǔn)被退出,但目前使用最廣泛的還是2.5 標(biāo)準(zhǔn)。

OpenMP 中,CPU 中的多個(gè)處理單元(核)共享同一個(gè)內(nèi)存設(shè)備,所有的CPU 處理單元訪問相同的內(nèi)存空間地址,這些處理單元通過共享的內(nèi)存變量進(jìn)行通信。 OpenMP 編程方式十分方便,現(xiàn)已成為一個(gè)工業(yè)標(biāo)準(zhǔn),支持多種平臺(tái),包括大多數(shù)的類UNIX 系統(tǒng)和幾乎所有的Windows NT 系統(tǒng)等。 OpenMP 具有開發(fā)簡(jiǎn)單、抽象度高、通用性好、可擴(kuò)充性和可移植性強(qiáng)、支持并行的增量開發(fā)和數(shù)據(jù)并行等優(yōu)點(diǎn),廣泛應(yīng)用于多核PC 環(huán)境下的并行程序設(shè)計(jì)。

(2)MPI

MPI 是一個(gè)庫(kù),一種標(biāo)準(zhǔn)或規(guī)范的代表,一種消息傳遞編程模型。 MPI 是目前分布式內(nèi)存體系結(jié)構(gòu)中開發(fā)高性能計(jì)算應(yīng)用的標(biāo)準(zhǔn)。 它支持C,C++和Fortran 語(yǔ)言。 它采用將同一程序運(yùn)行在眾多進(jìn)程上的方式,這些進(jìn)程不僅可以處于同一個(gè)共享內(nèi)存架構(gòu)的計(jì)算機(jī)中,也可以運(yùn)行在眾多進(jìn)程上的方式來實(shí)現(xiàn)。 每個(gè)進(jìn)程都擁有各自的數(shù)據(jù),在不需要通訊時(shí),各個(gè)進(jìn)程異步地運(yùn)行相同的代碼,對(duì)不同的數(shù)據(jù)進(jìn)行相似的處理,在需要訪問其他進(jìn)程上的數(shù)據(jù)時(shí),通過MPI 標(biāo)準(zhǔn)中定義的數(shù)據(jù)通訊函數(shù)對(duì)數(shù)據(jù)進(jìn)行遷移和處理,也可以對(duì)操作進(jìn)行同步[3]。

MPI 是利用集群實(shí)現(xiàn)多節(jié)點(diǎn)并行計(jì)算,通過劃分任務(wù)進(jìn)程,達(dá)到數(shù)據(jù)并行處理的目的。 MPI是在網(wǎng)格計(jì)算中使用的較為傳統(tǒng)并行方法,主要應(yīng)用在對(duì)于通訊效率要求低,通訊數(shù)據(jù)的數(shù)量較小,利用MPI 來進(jìn)行集群并行計(jì)算。 相比于MPI 來說,OpenMP 是運(yùn)行在進(jìn)程上的并行處理模式,它將一個(gè)進(jìn)程劃分為多個(gè)線程并實(shí)現(xiàn)線程同步執(zhí)行,實(shí)現(xiàn)可視化的并行處理。

MPI 提供了可移植性、標(biāo)準(zhǔn)化包括點(diǎn)對(duì)點(diǎn)消息傳遞和集體的操作,所有的范圍用戶指定的組的過程。 MPI 提供了一個(gè)實(shí)體集編寫、調(diào)試、測(cè)試和性能分步程序庫(kù)。 MPI 庫(kù)通常用于并行編程中集群系統(tǒng),因?yàn)樗且粋€(gè)消息傳遞編程語(yǔ)言。

(3)Spark

美國(guó)加州大學(xué)伯克利分校AMP 實(shí)驗(yàn)室研發(fā)了Spark。 Spark 的性能可以超過Hadoop10 倍以上。 Spark 是基于Hadoop 的,并且構(gòu)建在HDFS之上,同時(shí)保留了MapReduce 的可擴(kuò)展性和容錯(cuò)性,但是,Spark MapReduce 不完全等同于Hadoop MapReduce。 Spark 主要由兩部分組成:第一部分是有很多執(zhí)行器的調(diào)度器,它可以進(jìn)行任務(wù)調(diào)度、任務(wù)監(jiān)控以及故障處理。 第二部分是執(zhí)行器,執(zhí)行實(shí)際的計(jì)算和數(shù)據(jù)處理任務(wù)[4]。

Hadoop MapReduce 是一種大規(guī)模數(shù)據(jù)處理的并行計(jì)算模型。 Hadoop 是一個(gè)Master--Slave架構(gòu)模式,由一臺(tái)主節(jié)點(diǎn)和若干臺(tái)Slave 節(jié)點(diǎn)組成。 其中主節(jié)點(diǎn)負(fù)責(zé)管理和監(jiān)控各個(gè)Slave 節(jié)點(diǎn)的任務(wù)執(zhí)行情況,包含一個(gè)Master 服務(wù)Job-Tracker(作業(yè)服務(wù)器)用于接收J(rèn)ob,它的任務(wù)是將作業(yè)分配給等待的節(jié)點(diǎn)。 Slave 節(jié)點(diǎn)負(fù)責(zé)具體的任務(wù)執(zhí)行,包含一個(gè)Slave 服務(wù)TaskTrack(任務(wù)服務(wù)器),它負(fù)責(zé)與JaoTracker 通信并接收作業(yè),再根據(jù)每個(gè)節(jié)點(diǎn)的拆分?jǐn)?shù)據(jù),進(jìn)行Map 和Reduce。 每個(gè)Slave 節(jié)點(diǎn)是并行執(zhí)行,提高了計(jì)算效率。 簡(jiǎn)單而言可以將MapReduce 編程模型抽象成“Map(映射)”和“Reduce(化簡(jiǎn))”兩個(gè)過程,Hadoop MapReduce 計(jì)算模式的流程圖見圖1[5-6]。

圖1 Hadoop MapReduce 計(jì)算模式的流程圖

具體過程為:程序從分布式文件系統(tǒng)讀入大數(shù)據(jù)集,并切分為Split(分片),Map 函數(shù)處理Split 并輸出中間結(jié)果,通過Shuffle 把中間結(jié)果分區(qū)排序整理后發(fā)送給Reduce 函數(shù),Reduce 完成具體計(jì)算任務(wù)并將最終結(jié)果寫入文件系統(tǒng)。

1.2 技術(shù)可行性分析

OpenMP 集成在C++中,與系統(tǒng)適配性好,開發(fā)簡(jiǎn)單,對(duì)軟件系統(tǒng)改造十分方便,可移植性強(qiáng),但是OpenMP 只支持單機(jī)并行計(jì)算,而且通過線程實(shí)現(xiàn)通信,多線程間資源共享;MPI 支持多機(jī)并行計(jì)算,通過進(jìn)程實(shí)現(xiàn)并行計(jì)算,具備資源隔離特點(diǎn);但是通訊效率要求低,通迅數(shù)據(jù)量較小;Spark 支持多機(jī)并行計(jì)算,可抗展性和容錯(cuò)能力強(qiáng),但是計(jì)算性能有待提高。

通過綜合分析,OpenMP、MPI、Spark 都能夠?qū)崿F(xiàn)并行計(jì)算,但是均不滿足海量數(shù)據(jù)的處理和計(jì)算的需求。 在天地一體化網(wǎng)絡(luò)中,網(wǎng)絡(luò)之間的數(shù)據(jù)通信量在百兆以上,而且數(shù)據(jù)的種類多,MPI 和Spark 技術(shù)均無法實(shí)現(xiàn),因此,在單機(jī)OpenMP 并行計(jì)算的基礎(chǔ)上開展多機(jī)集群并行計(jì)算架構(gòu)設(shè)計(jì),既能夠滿足大數(shù)據(jù)通信,又能夠保證計(jì)算性能。

2 平臺(tái)架構(gòu)設(shè)計(jì)

2.1 總體架構(gòu)設(shè)計(jì)

并行集群計(jì)算系統(tǒng)可部署在普通計(jì)算機(jī)或服務(wù)器上,支持在多種架構(gòu)CPU、多種操作系統(tǒng)上運(yùn)行,并行計(jì)算系統(tǒng)由并行計(jì)算服務(wù)中心、計(jì)算節(jié)點(diǎn)和客戶端模塊組成[7-8]。 本文中,在傳統(tǒng)單機(jī)OpenMP 并行計(jì)算的基礎(chǔ)上,擴(kuò)展了多個(gè)計(jì)算節(jié)點(diǎn),通過統(tǒng)一的計(jì)算服務(wù)中心控制,開展多機(jī)集群計(jì)算。 并行計(jì)算系統(tǒng)中只有一個(gè)計(jì)算服務(wù)中心,可以有多個(gè)計(jì)算節(jié)點(diǎn),每個(gè)計(jì)算節(jié)點(diǎn)中包含計(jì)算程序,負(fù)責(zé)具體的計(jì)算任務(wù),在計(jì)算程序中增加OpenMP 指令設(shè)置,運(yùn)行中支持多核多線程并行計(jì)算。 計(jì)算服務(wù)中心負(fù)責(zé)接收客戶端發(fā)起的計(jì)算請(qǐng)求,通過監(jiān)控各計(jì)算節(jié)點(diǎn)的工作狀態(tài)向計(jì)算節(jié)點(diǎn)分配計(jì)算任務(wù),各節(jié)點(diǎn)完成計(jì)算任務(wù)后,將計(jì)算結(jié)果發(fā)送到計(jì)算服務(wù)中心,所有的計(jì)算結(jié)果數(shù)據(jù)整理后,發(fā)送給客戶端。 客戶端、并行計(jì)算服務(wù)中心、計(jì)算節(jié)點(diǎn)間采用TCP 和UDP 通信。 并行計(jì)算系統(tǒng)總體架構(gòu)見圖2。

圖2 并行計(jì)算系統(tǒng)總體架構(gòu)圖

計(jì)算服務(wù)中心可以為多個(gè)計(jì)算用戶服務(wù),計(jì)算用戶通過配置集群服務(wù)地址獲取計(jì)算服務(wù)心跳報(bào)文,從中得到TCP 通信網(wǎng)址和端口號(hào),使用TCP 通信方式加入計(jì)算服務(wù)中心,通過已經(jīng)建立的TCP 通信鏈路向并行計(jì)算服務(wù)中心發(fā)送計(jì)算請(qǐng)求報(bào)文,計(jì)算服務(wù)中心完成計(jì)算后,通過TCP 通信鏈路向計(jì)算用戶發(fā)送計(jì)算結(jié)果報(bào)文。計(jì)算服務(wù)中心可以控制多個(gè)計(jì)算節(jié)點(diǎn)進(jìn)行計(jì)算,每個(gè)計(jì)算節(jié)點(diǎn)以UDP 組播的方式向指定組播地址發(fā)送計(jì)算節(jié)點(diǎn)狀態(tài)報(bào)文,計(jì)算服務(wù)中心通過該報(bào)文掌握各個(gè)計(jì)算節(jié)點(diǎn)的工作狀態(tài),同時(shí)計(jì)算節(jié)點(diǎn)與計(jì)算服務(wù)中心建立TCP 通信鏈路,計(jì)算服務(wù)中心通過該TCP 通信鏈路向計(jì)算節(jié)點(diǎn)發(fā)送計(jì)算命令報(bào)文,計(jì)算節(jié)點(diǎn)接收到計(jì)算命令報(bào)文后,開始進(jìn)行計(jì)算,完成計(jì)算后,通過TCP 通信鏈路向計(jì)算服務(wù)中心發(fā)送計(jì)算結(jié)果報(bào)文。

2.2 計(jì)算服務(wù)中心設(shè)計(jì)

計(jì)算服務(wù)中心由計(jì)算服務(wù)分配處理模塊、顯示控制模塊、計(jì)算服務(wù)狀態(tài)發(fā)布模塊、計(jì)算節(jié)點(diǎn)狀態(tài)監(jiān)控模塊、計(jì)算用戶通信服務(wù)、計(jì)算節(jié)點(diǎn)通信服務(wù)6 部分組成。 計(jì)算服務(wù)中心組成關(guān)系如圖3 所示。

圖3 計(jì)算服務(wù)中心組成關(guān)系圖

計(jì)算服務(wù)分配處理模塊實(shí)現(xiàn)計(jì)算服務(wù)計(jì)算量評(píng)估、計(jì)算服務(wù)管理、計(jì)算節(jié)點(diǎn)計(jì)算結(jié)果管理、計(jì)享節(jié)點(diǎn)異常監(jiān)控及處理等功能。 計(jì)算服務(wù)分配處理模塊接收到計(jì)算用戶的請(qǐng)求后,進(jìn)行計(jì)算服務(wù)計(jì)算量評(píng)估,再根據(jù)當(dāng)前計(jì)算節(jié)點(diǎn)狀態(tài),向計(jì)算節(jié)點(diǎn)發(fā)送計(jì)算命令,等待收集到完整的計(jì)算節(jié)點(diǎn)數(shù)據(jù)后,整理計(jì)算結(jié)果,通過計(jì)算用戶通信服務(wù)將計(jì)算結(jié)果發(fā)送給計(jì)算用戶。

顯示控制模塊實(shí)現(xiàn)并行計(jì)算服務(wù)中心啟動(dòng)/停上控制、實(shí)時(shí)顯示計(jì)算節(jié)點(diǎn)工作狀態(tài),實(shí)時(shí)顯示計(jì)算服務(wù)狀態(tài)等功能。

計(jì)算服務(wù)狀態(tài)發(fā)布模塊實(shí)現(xiàn)計(jì)算服務(wù)通信參數(shù)發(fā)布、計(jì)算節(jié)點(diǎn)通信參數(shù)發(fā)布等功能。

計(jì)算節(jié)點(diǎn)狀態(tài)監(jiān)控模塊實(shí)現(xiàn)UDP 組播通信初始化、計(jì)算節(jié)點(diǎn)狀態(tài)監(jiān)控處理等功能。

計(jì)算用戶通信服務(wù)實(shí)現(xiàn)TCP 通信初化、TCP通信服務(wù)管理、TCP 數(shù)據(jù)接收處理、TCP 數(shù)據(jù)發(fā)送處理等功能。

計(jì)算節(jié)點(diǎn)通信服務(wù)實(shí)現(xiàn)TCP 通信初始化、TCP 通信服務(wù)管理、TCP 數(shù)據(jù)接收處理、TCP 數(shù)據(jù)發(fā)送處理等功能。

2.3 計(jì)算節(jié)點(diǎn)設(shè)計(jì)

計(jì)算節(jié)點(diǎn)有計(jì)算節(jié)點(diǎn)通信參數(shù)處理模塊、通信處理模塊、計(jì)算處理模塊、顯示控制模塊、計(jì)算節(jié)點(diǎn)狀態(tài)處理模塊5 部分組成。 計(jì)算節(jié)點(diǎn)組成關(guān)系圖見圖4。

圖4 計(jì)算節(jié)點(diǎn)組成關(guān)系圖

計(jì)算節(jié)點(diǎn)通信參數(shù)處理模塊在程序初始化的時(shí)候,加入指定UDP 組播地址,接收計(jì)算服務(wù)中心心跳報(bào)文,獲取計(jì)算節(jié)點(diǎn)TCP 通信參數(shù)供通信處理模塊使用。

通信處理模塊根據(jù)結(jié)算節(jié)點(diǎn)通信參數(shù)處理模塊提供的TCP 通信參數(shù)初始化TCP 通信鏈路,在整個(gè)程序運(yùn)行過程中,負(fù)責(zé)TCP 通信數(shù)據(jù)接收、數(shù)據(jù)發(fā)送的處理。

計(jì)算處理模塊實(shí)現(xiàn)計(jì)算機(jī)多核狀態(tài)監(jiān)控、單機(jī)并行計(jì)算處理等功能。

顯示控制模塊實(shí)現(xiàn)計(jì)算機(jī)多核狀態(tài)監(jiān)控顯示、計(jì)算狀態(tài)顯示等功能。

計(jì)算節(jié)點(diǎn)狀態(tài)處理模塊實(shí)現(xiàn)計(jì)算節(jié)點(diǎn)狀態(tài)UDP 組播發(fā)送功能。

2.4 客戶端模塊設(shè)計(jì)

客戶端模塊由計(jì)算服務(wù)通信參數(shù)處理模塊、通信處理模塊、計(jì)算服務(wù)處理模塊組成。 客戶端模塊組成關(guān)系圖見圖5。

圖5 客戶端模塊組成關(guān)系圖

計(jì)算服務(wù)通信參數(shù)處理模塊在程序初始化的時(shí)候,加入指定UDP 組播地址,接收計(jì)算服務(wù)心跳報(bào)文,獲取計(jì)算用戶的TCP 通信參數(shù)供通信處理模塊使用。

通信處理模塊根據(jù)計(jì)算服務(wù)通信參數(shù)處理模塊提供的TCP 通信參數(shù)初始化TCP 通信鏈路,在整個(gè)程序運(yùn)行過程中,負(fù)責(zé)TCP 通信數(shù)據(jù)接收、數(shù)據(jù)發(fā)送的處理。

計(jì)算服務(wù)模塊為應(yīng)用程序提供計(jì)算輸入、輸出接口。

3 系統(tǒng)驗(yàn)證

(1)測(cè)試環(huán)境

本文中使用單臺(tái)高性能計(jì)算機(jī)進(jìn)行測(cè)試,計(jì)算機(jī)性能指標(biāo)如下:

CPU:Inter Xeon E5-2640 @2.4GHz(雙處理器40 核)

內(nèi)存:64G

操作系統(tǒng):Windows7 64 位

(2)測(cè)試方法

編寫測(cè)試程序?qū)?0000 個(gè)隨機(jī)整數(shù)進(jìn)行冒泡排序,分別計(jì)算1 次、2 次、4 次、8 次、24 次、40次,計(jì)算過程中分別設(shè)置1 核、2 核、4 核、8 核、24 核、40 核并行計(jì)算,每組測(cè)試進(jìn)行3 次,取運(yùn)行結(jié)果的平均值。

(3)測(cè)試結(jié)果

測(cè)試結(jié)果如表1 所示。

表1 單機(jī)計(jì)算時(shí)間測(cè)試結(jié)果

由測(cè)試數(shù)據(jù)可以看出,通過應(yīng)用并行計(jì)算技術(shù),用40 核同時(shí)對(duì)測(cè)試程序計(jì)算40 次,平均用時(shí)2.859s,相比于非并行的49.26:速率提高了17.23 倍。 通過使用不同核數(shù)對(duì)同一測(cè)試程序進(jìn)行測(cè)試,發(fā)現(xiàn)隨著使用核數(shù)的增加,與提升運(yùn)算效率的倍數(shù)并不是線性關(guān)系,由于存在多核并行分配處理、數(shù)據(jù)回收處理,使用核數(shù)越多,多核并行分配處理、數(shù)據(jù)回收處理占用的時(shí)間比重就越多,因此,在并行計(jì)算設(shè)計(jì)過程中,應(yīng)根據(jù)具體的數(shù)據(jù)處理需求分配計(jì)算核數(shù),以達(dá)到最優(yōu)的效率。

目前OpenMP 并行計(jì)算大多使用單機(jī)運(yùn)行,從理論上分析如果能夠使用多臺(tái)計(jì)算機(jī)同時(shí)進(jìn)行計(jì)算,將多計(jì)算任務(wù)進(jìn)行分發(fā)處理,能夠使計(jì)算效率得到進(jìn)一步提升。 本次測(cè)試驗(yàn)證僅使用單臺(tái)計(jì)算機(jī)進(jìn)行測(cè)試,后續(xù)將針對(duì)多臺(tái)計(jì)算機(jī)進(jìn)行補(bǔ)充研究測(cè)試。

4 結(jié)束語(yǔ)

本文針對(duì)天地一體化信息網(wǎng)絡(luò)對(duì)大數(shù)據(jù)計(jì)算處理的需求,開展多機(jī)集群并行計(jì)算架構(gòu)設(shè)計(jì),對(duì)OpenMp、MPI 和Spark 技術(shù)進(jìn)行調(diào)研分析,設(shè)計(jì)了一種基于OpenMP 的多機(jī)集群并行計(jì)算系統(tǒng),并通過試驗(yàn)驗(yàn)證對(duì)并行計(jì)算的性能進(jìn)行測(cè)試,試驗(yàn)表明該應(yīng)用了并行計(jì)算系統(tǒng),使計(jì)算速度提升了十幾倍,有效提高了數(shù)據(jù)計(jì)算和處理效率,可廣泛應(yīng)用于天地一體化信息網(wǎng)絡(luò)中大數(shù)據(jù)的處理和計(jì)算。

猜你喜歡
報(bào)文服務(wù)中心客戶端
基于J1939 協(xié)議多包報(bào)文的時(shí)序研究及應(yīng)用
隊(duì)旗在黨群服務(wù)中心飄揚(yáng)
中證法律服務(wù)中心調(diào)解程序知多少
CTCS-2級(jí)報(bào)文數(shù)據(jù)管理需求分析和實(shí)現(xiàn)
股東大會(huì)知多少
如何看待傳統(tǒng)媒體新聞客戶端的“斷舍離”?
淺析反駁類報(bào)文要點(diǎn)
縣級(jí)臺(tái)在突發(fā)事件報(bào)道中如何應(yīng)用手機(jī)客戶端
孵化垂直頻道:新聞客戶端新策略
大樞紐 云平臺(tái) 客戶端——中央人民廣播電臺(tái)的探索之路