国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

大規(guī)模工程電磁場(chǎng)的億自由度可擴(kuò)展并行計(jì)算方法

2022-02-21 07:48李育增楊慶新
電工技術(shù)學(xué)報(bào) 2022年3期
關(guān)鍵詞:電磁場(chǎng)渦流電工

金 亮 李育增 楊慶新 張 闖 閆 帥

大規(guī)模工程電磁場(chǎng)的億自由度可擴(kuò)展并行計(jì)算方法

金 亮1,2李育增1,2楊慶新1,2張 闖1,2閆 帥3

(1. 省部共建電工裝備可靠性與智能化國(guó)家重點(diǎn)實(shí)驗(yàn)室(河北工業(yè)大學(xué)) 天津 300130 2. 河北省電磁場(chǎng)與電器可靠性重點(diǎn)實(shí)驗(yàn)室(河北工業(yè)大學(xué)) 天津 300130 3. 中國(guó)科學(xué)院電工研究所 北京 100081)

精確和快速的電磁場(chǎng)計(jì)算,是電工裝備精細(xì)模擬和優(yōu)化設(shè)計(jì)的基礎(chǔ)。該文在高性能云平臺(tái)的高速互聯(lián)彈性集群上開(kāi)展可擴(kuò)展并行計(jì)算研究,使用OpenMpi作為消息傳遞庫(kù),選取的區(qū)域分解算法為對(duì)偶原始有限元撕裂內(nèi)聯(lián)(FETI-DP)法,通過(guò)改進(jìn)主從/對(duì)等的并行程序框架實(shí)現(xiàn)電導(dǎo)率不變時(shí)渦流場(chǎng)磁矢勢(shì)的并行計(jì)算,在降低編程復(fù)雜度的同時(shí)提高了并行計(jì)算效率。使用C語(yǔ)言編寫(xiě)程序,用國(guó)際TEAMProblem7基準(zhǔn)問(wèn)題驗(yàn)證可擴(kuò)展并行計(jì)算方法。該文將主從/對(duì)等并行程序框架和對(duì)偶原始有限元撕裂內(nèi)聯(lián)(FETI-DP)法引入電磁計(jì)算領(lǐng)域,提高了并行計(jì)算效率和可擴(kuò)展性,為大規(guī)模工程電磁場(chǎng)計(jì)算提供了一種新的實(shí)踐和理論方法。

并行計(jì)算 電磁場(chǎng)數(shù)值計(jì)算 有限元法 對(duì)偶原始有限元撕裂內(nèi)聯(lián)法

0 引言

現(xiàn)代電工裝備是支撐智能電網(wǎng)和國(guó)家重點(diǎn)重大項(xiàng)目的關(guān)鍵裝備。在向高技術(shù)參數(shù)的發(fā)展過(guò)程中,現(xiàn)代電工裝備的設(shè)計(jì)需考慮性能優(yōu)化、制造工藝約束、服役特性和極限工作條件,因而計(jì)算電磁學(xué)對(duì)于精細(xì)模擬的作用日益凸顯[1-2]。

對(duì)于計(jì)算電磁學(xué)而言,有限元法(Finite Element Method, FEM)是一種強(qiáng)大的電磁場(chǎng)數(shù)值計(jì)算方法,它具有模擬復(fù)雜介質(zhì)和精細(xì)幾何的能力。由于普通計(jì)算機(jī)的計(jì)算能力無(wú)法滿足電工裝備精細(xì)模擬的計(jì)算需求,導(dǎo)致以下幾個(gè)問(wèn)題:一是常使用簡(jiǎn)化數(shù)值模型降低計(jì)算量,其計(jì)算結(jié)果的可信度降低。如大型電力變壓器垂直漏磁場(chǎng)導(dǎo)致的渦流和磁滯損耗計(jì)算問(wèn)題,一般采用將多層硅鋼片進(jìn)行整體等效的方法,導(dǎo)致局部熱點(diǎn)計(jì)算難以反映實(shí)際情況[3]。二是對(duì)于含縫隙或小氣隙的多尺度(空間)問(wèn)題,網(wǎng)格精度滿足不了實(shí)際要求。如存在mm級(jí)縫隙的m級(jí)裝備——特大型電機(jī)、近零磁場(chǎng)環(huán)境裝置等,由于尺寸差距過(guò)大導(dǎo)致設(shè)計(jì)指標(biāo)與實(shí)際性能具有巨大差別[4]。三是受計(jì)算速度限制,一些精細(xì)模擬難以完成,產(chǎn)品級(jí)精細(xì)模型的計(jì)算面臨計(jì)算時(shí)間過(guò)長(zhǎng)的問(wèn)題[5]。如特高壓變壓器的仿真計(jì)算需要多組工況的計(jì)算,而一次計(jì)算需要幾天甚至幾十天的時(shí)間。

面對(duì)大型而復(fù)雜的計(jì)算問(wèn)題,并行計(jì)算是提高計(jì)算效率的有效方法之一。在電工領(lǐng)域中,并行計(jì)算方法已經(jīng)被廣泛應(yīng)用以提高計(jì)算效率。如文獻(xiàn)[6]提出了利用圖數(shù)據(jù)庫(kù)對(duì)電力系統(tǒng)進(jìn)行建模、并在圖內(nèi)存數(shù)據(jù)庫(kù)上進(jìn)行圖并行計(jì)算的方法,相比于傳統(tǒng)串行計(jì)算的能量管理系統(tǒng),在線潮流和靜態(tài)安全分析的速度上有顯著的提高。文獻(xiàn)[7]提出了一種基于CPU-GPU異構(gòu)的靜態(tài)電壓穩(wěn)定域邊界并行計(jì)算方法,避免了直接法計(jì)算量大、計(jì)算復(fù)雜度高的缺陷,提高了靜態(tài)電壓穩(wěn)定域的搜索效率。文獻(xiàn)[8]提出了一種基于多核并行計(jì)算的有限集模型預(yù)測(cè)算法(Finite Control Set Model Predictive Control, FCS-MPC),有效降低了傳統(tǒng)FCS-MPC算法的執(zhí)行時(shí)間。針對(duì)計(jì)算精度高的大規(guī)模工程有限元法在電磁場(chǎng)計(jì)算方面耗時(shí)長(zhǎng)的問(wèn)題,并行計(jì)算是有效的解決方法之一[9]。為了有效解決大規(guī)模計(jì)算問(wèn)題,在高頻大尺寸領(lǐng)域一般采用將整個(gè)計(jì)算域劃分為更小子域的有限元區(qū)域分解法[10-12]。如,采用魯棒的區(qū)域分解方法——對(duì)偶原始有限元撕裂內(nèi)聯(lián)法(Dual-PrimalFinite Element Tearing and Interconnecting, FETI-DP)解決多尺度有限元建模問(wèn)題[13];使用區(qū)域分解法,在子域之間采用不連續(xù)的Galerkin方法提高不連續(xù)結(jié)構(gòu)的電磁計(jì)算收斂性[14]。針對(duì)工頻或低頻電工裝備,計(jì)算效率較高的單元接單元(Element by Element, EBE)并行有限元法在渦流場(chǎng)計(jì)算領(lǐng)域得到了初步應(yīng)用和原理性驗(yàn)證[15]。大型電工裝備的硅鋼片,由于每片厚度僅為0.1~0.5mm,三維有限元建模和渦流計(jì)算困難,采用基于信息傳遞接口(Massage Passing Interface, MPI)和非結(jié)構(gòu)化四面體網(wǎng)格的并行有限元程序可高效完成百萬(wàn)自由度的計(jì)算[16]。為了推廣并行計(jì)算的使用范圍和收斂性,LU重組方法可使近似奇異的有限元矩陣得到正則化,適用于大型渦流、開(kāi)關(guān)磁阻電機(jī)和隨鉆測(cè)井問(wèn)題[17]。目前,有限元并行計(jì)算方法在國(guó)內(nèi)外工程領(lǐng)域的現(xiàn)實(shí)需求使其得到了快速的發(fā)展[18-20]。并行計(jì)算的應(yīng)用從結(jié)構(gòu)動(dòng)力分析、地球物理發(fā)展到高頻電磁場(chǎng)、工頻和低頻電磁場(chǎng),甚至是電力系統(tǒng)以及靜態(tài)電磁場(chǎng)等方面[21-28]。在電氣領(lǐng)域,由于大型電機(jī)、變壓器等電工設(shè)備或應(yīng)用電磁原理大型裝備的容量和規(guī)模越來(lái)越大,對(duì)于精細(xì)模擬的要求越來(lái)越高、計(jì)算規(guī)模的需求也日趨龐大。為滿足電磁精細(xì)模擬對(duì)于計(jì)算規(guī)模、易用性的需求,高性能公有云、私有云和混合云成為高性能計(jì)算的一種有效解決方法[29-31]。

在巖土工程數(shù)值模擬領(lǐng)域,并行計(jì)算技術(shù)已經(jīng)發(fā)展到百萬(wàn)、千萬(wàn)乃至億自由度的計(jì)算規(guī)模[32-34]。目前,三維工程電磁場(chǎng)的有限元計(jì)算及其并行方法的計(jì)算規(guī)模多為數(shù)百萬(wàn)自由度的線性和非線性問(wèn)題。計(jì)算規(guī)模、計(jì)算時(shí)間方面尚不能滿足特大型電機(jī)、變壓器等電工設(shè)備或應(yīng)用電磁原理大型裝備的工程和科學(xué)計(jì)算需求。

因而本文在百萬(wàn)自由度的電磁并行計(jì)算方法研究基礎(chǔ)上[35-36],提出一種基于OpenMpi的億自由度高效可擴(kuò)展并行計(jì)算方法。首先搭建云計(jì)算彈性集群,改進(jìn)主從/對(duì)等模型,并建立并行程序框架,推導(dǎo)電導(dǎo)率不變時(shí)的渦流場(chǎng)磁矢勢(shì)法,推導(dǎo)并論述FETI-DP區(qū)域分解算法的收斂性和魯棒性,最后使用國(guó)際TEAM Problem 7案例驗(yàn)證了億自由度可擴(kuò)展并行計(jì)算方法。

1 計(jì)算集群

云計(jì)算主要使用虛擬化、分布式存儲(chǔ)技術(shù)將計(jì)算機(jī)集群的計(jì)算資源、存儲(chǔ)資源、網(wǎng)絡(luò)及相關(guān)服務(wù)組成資源池。對(duì)于用戶,云計(jì)算即為三個(gè)層次服務(wù):Infras-tructure as a Service(IaaS),Platform as a Service(PaaS)和Software as a Service(SaaS)。基于云計(jì)算的有限元仿真系統(tǒng)如圖1所示。圖中,SSL為安全套接字協(xié)議(Secure Sockets Layer),JSCH為安全外殼協(xié)議(Secure Shell, SSH)的純Java實(shí)現(xiàn),KVM為基于內(nèi)核的虛擬機(jī)(Kernel-based Virtual Machine, KVM)。從IaaS 到SaaS(從硬件到軟件或服務(wù)),用戶可按照自己的計(jì)算需求從資源池中獲得動(dòng)態(tài)易擴(kuò)展、可管理的資源及服務(wù)。

圖1 基于云計(jì)算的有限元仿真系統(tǒng)

對(duì)于高性能計(jì)算,云計(jì)算一般采用管理節(jié)點(diǎn)虛擬化和計(jì)算節(jié)點(diǎn)非虛擬化的混合架構(gòu)。計(jì)算機(jī)集群由21臺(tái)雙路28核心、128GB內(nèi)存的服務(wù)器組成。1臺(tái)作為管理節(jié)點(diǎn)(Master),負(fù)責(zé)計(jì)算任務(wù)的分發(fā)和調(diào)度,其余20臺(tái)作為計(jì)算節(jié)點(diǎn)(Slaver)實(shí)現(xiàn)計(jì)算與存儲(chǔ)。集群之間通過(guò)Infiband協(xié)議實(shí)現(xiàn)30Gbit/s光纖互聯(lián)。存儲(chǔ)系統(tǒng)采用Hadoop 分布式文件系統(tǒng)(Hadoop Distributed File System, HDFS)。

2 有限元可擴(kuò)展并行算法

可擴(kuò)展并行計(jì)算是指并行算法能有效利用可擴(kuò)展處理器核心數(shù)的能力。并行程序計(jì)算性能的下降主要是由于數(shù)值計(jì)算過(guò)程中迭代計(jì)算需要在不同處理器核心及不同節(jié)點(diǎn)之間將OpenMpi通信用于交換邊界數(shù)據(jù)。在主從模式,由于所有的數(shù)據(jù)通信均需通過(guò)管理節(jié)點(diǎn)實(shí)現(xiàn),因此通信時(shí)間隨核心數(shù)和計(jì)算規(guī)模的增加急劇增加導(dǎo)致,其計(jì)算效能在大規(guī)模計(jì)算中下降嚴(yán)重。本文主要通過(guò)子進(jìn)程間直接進(jìn)行點(diǎn)對(duì)點(diǎn)的通信且子進(jìn)程間完全對(duì)等的方法改進(jìn)傳統(tǒng)的主從模式,建立基于主從/對(duì)等模型的并行程序框架,在實(shí)現(xiàn)進(jìn)程間的高效交換邊界數(shù)據(jù)的同時(shí),兼顧主從模式程序清晰易調(diào)試的優(yōu)點(diǎn)。具體為:任務(wù)分配采用主從模式,分區(qū)取得子任務(wù)進(jìn)入有限元計(jì)算后,子進(jìn)程與子進(jìn)程間直接進(jìn)行點(diǎn)對(duì)點(diǎn)的通信,且子進(jìn)程間完全對(duì)等。

2.1 并行程序框架

并行程序框架如圖2所示。圖中主程序、主進(jìn)程、從進(jìn)程、前處理數(shù)據(jù)讀取模塊為并行、串行相一致的程序或模塊;剖分與數(shù)據(jù)分割模塊、剖分模塊、數(shù)據(jù)分發(fā)模塊、數(shù)據(jù)接收模塊、求解器同步模塊為并行計(jì)算模塊;求解器、結(jié)果輸出模塊、子程序通信模塊為并行獨(dú)有模塊。首先采用前處理數(shù)據(jù)讀取Gidpre模塊讀入有限元前處理數(shù)據(jù),通過(guò)剖分與數(shù)據(jù)分割Mpartition模塊對(duì)全局的有限元數(shù)據(jù)進(jìn)行任務(wù)分割,并結(jié)合有限元剖分Mgetpart模塊將對(duì)應(yīng)各子分區(qū)的數(shù)據(jù)和細(xì)剖分指令發(fā)送到對(duì)應(yīng)子進(jìn)程。子進(jìn)程的數(shù)據(jù)接收Spart、自由度處理和解初始化Spre、剛度矩陣Sgetpart等模塊完成從主進(jìn)程接收分配的區(qū)域任務(wù)數(shù)據(jù),并進(jìn)一步細(xì)化網(wǎng)格和組裝剛度矩陣。然后各子進(jìn)程使用求解器Starta、子進(jìn)程通信testa、求解器Ssolv等模塊完成有限元求解流程和數(shù)據(jù)通信。各子進(jìn)程間的點(diǎn)對(duì)點(diǎn)通信完成數(shù)據(jù)交換是在求解器Ssolv模塊求解過(guò)程中每一次迭代計(jì)算子程序完畢后進(jìn)行,通過(guò)通信模塊Scom完成。

圖2 并行程序框架

2.2 基于OpenMpi的并行程序通信

OpenMpi的工作機(jī)制如圖3所示。MPI作為消息傳遞接口是一個(gè)并行計(jì)算的應(yīng)用程序接口,能協(xié)調(diào)多臺(tái)主機(jī)間的并行計(jì)算,且并行規(guī)模上的可伸縮性很強(qiáng)?;诮M件架構(gòu)MPI實(shí)現(xiàn)的OpenMpi,可通過(guò)組合不同組件來(lái)實(shí)現(xiàn)不同的功能,具有靈活、高效、適用性高等特點(diǎn),適用于分布式內(nèi)存之間的信息通信。主從/對(duì)等模型使得并行計(jì)算框架具有高度并行化的特點(diǎn)。為實(shí)現(xiàn)億自由度的并行計(jì)算規(guī)模,并行計(jì)算框架運(yùn)行在由多個(gè)計(jì)算節(jié)點(diǎn)組成的集群系統(tǒng)中,是典型的分布式內(nèi)存系統(tǒng),本文采用OpenMpi實(shí)現(xiàn)對(duì)本地指令和數(shù)據(jù)的直接訪問(wèn)以及管理節(jié)點(diǎn)和計(jì)算節(jié)點(diǎn)之間的消息傳遞。由MPI層、點(diǎn)對(duì)點(diǎn)傳輸層(PML)、字節(jié)傳輸層(BTL)、BTL管理層四部分組成的節(jié)點(diǎn)間通信架構(gòu),如圖4所示。MPI層的作用是為MPI程序提供程序接口;在PML中,BTL組件管理所有的消息傳遞,實(shí)現(xiàn)了點(diǎn)對(duì)點(diǎn)通信原語(yǔ),MPI層點(diǎn)對(duì)點(diǎn)語(yǔ)義通過(guò)PML運(yùn)行,消息調(diào)度與進(jìn)程策略嵌于協(xié)議中;由于多種功能組件需要BTL組件,BTL管理層(BML)給BTL的初始化與通過(guò)BTL進(jìn)行資源恢復(fù)提供工具,在BTL初始化完成后,BML層對(duì)于BTL的內(nèi)聯(lián)功能被有效略過(guò);BTL層架構(gòu)包含了一組RDMA的通信單元,通過(guò)發(fā)送/接收端與基于RDMA端之間的內(nèi)部數(shù)據(jù)連接實(shí)現(xiàn)數(shù)據(jù)轉(zhuǎn)換的統(tǒng)一方法,以上四部分實(shí)現(xiàn)了節(jié)點(diǎn)間消息傳遞功能?;谶M(jìn)程調(diào)度的OpenMpi,并行擴(kuò)展能力強(qiáng),可滿足成千上萬(wàn)計(jì)算節(jié)點(diǎn)的并行需求,且計(jì)算效率最高,但將串行程序并行化需要大量修改原有的串行代碼和架構(gòu),導(dǎo)致編程工作量大、調(diào)試難度很大。本文的程序采用C語(yǔ)言編寫(xiě),并在架構(gòu)上考慮了并行的需要,因而采用OpenMpi實(shí)現(xiàn)并行指令和數(shù)據(jù)的通信和管理,達(dá)到提高并行計(jì)算效率的目的。同時(shí)采用了檢查點(diǎn)設(shè)置/回卷恢復(fù)功能,建立進(jìn)程、節(jié)點(diǎn)失效恢復(fù)的容錯(cuò)系統(tǒng)。

圖3 OpenMpi工作機(jī)制

圖4 節(jié)點(diǎn)間通信架構(gòu)

2.3 電導(dǎo)率不變時(shí)的渦流場(chǎng)磁矢勢(shì)A法

在渦流區(qū)內(nèi),在忽略位移電流的情況下,Maxwell方程可寫(xiě)作[37]

當(dāng)源電流隨時(shí)間按正弦變化,矢量可用復(fù)數(shù)計(jì)算。于是式(6)成為復(fù)矢量方程的三維渦流場(chǎng)矢量磁位微分方程及其邊值問(wèn)題,即

式(7)可通過(guò)伽遼金方法,可以得到一個(gè)線性方程的有限元系統(tǒng)

式中

最后,電場(chǎng)強(qiáng)度表達(dá)式為

2.4 區(qū)域分解和并行算法

為了處理規(guī)模較大的模型,本文采用多層劃分框架Metis。Metis是一組串行程序,用于對(duì)圖進(jìn)行分區(qū)、對(duì)有限元網(wǎng)格進(jìn)行分區(qū)以及為稀疏矩陣生成填充順序。Metis中的算法是基于多級(jí)遞歸對(duì)分、多級(jí)路和多約束分區(qū)方案。

區(qū)域分解方法(Domain Decomposition Method, DDM)將原來(lái)的大規(guī)模問(wèn)題分解成更小的子域問(wèn)題,并使用并行計(jì)算方法對(duì)其進(jìn)行獨(dú)立處理,從而使總計(jì)算時(shí)間顯著縮短。并行算法采用一種魯棒的區(qū)域分解方法——對(duì)偶原始有限元撕裂內(nèi)聯(lián)法(FETI-DP)提高有限元計(jì)算效率和擴(kuò)展能力[22]。

圖5 FETI-DP 算法網(wǎng)格剖分及節(jié)點(diǎn)分類

在每個(gè)子域界面上,應(yīng)滿足場(chǎng)量的連續(xù)性,即

式中,、為兩個(gè)相鄰子域的編號(hào)。

則有限元的子域剛度方程可定義為

子域分界面上的連續(xù)性方程可表示為

通過(guò)矩陣運(yùn)算,由式(15)、式(16)與式(17)消去分界面的自由度,可以將原問(wèn)題轉(zhuǎn)變?yōu)榍蠼怅P(guān)于界面拉格朗日乘子的一個(gè)對(duì)稱正定對(duì)偶問(wèn)題,即

其中

通過(guò)求解式(18)得到,然后將代入式(15)求得子域的,進(jìn)而得到全局。由于原問(wèn)題轉(zhuǎn)變?yōu)榍蠼怅P(guān)于界面拉格朗日乘子的一個(gè)對(duì)稱正定對(duì)偶問(wèn)題,F(xiàn)ETI-DP方法具有良好的擴(kuò)展性和收斂性。

3 計(jì)算案例

并行算法的實(shí)現(xiàn)是基于FELAC計(jì)算平臺(tái),具體實(shí)現(xiàn)過(guò)程,如圖2所示。OpenMpi采用基于intel 14.0.2編譯器編譯的mpi。操作系統(tǒng)為Red Hat 6.5,內(nèi)核版本為2.6.32-431.TH.x86_64。單機(jī)串行程序在Felac開(kāi)發(fā)平臺(tái)上開(kāi)發(fā)完成,并行程序在上述的軟硬件環(huán)境下開(kāi)發(fā)、運(yùn)行和測(cè)試。

π的并行計(jì)算程序在計(jì)算集群多節(jié)點(diǎn)上的并行程序測(cè)試,如圖6所示。

圖6 多節(jié)點(diǎn)并行程序測(cè)試

國(guó)際TEAM(Testing Electormagnetic Analysis Methods)基準(zhǔn)問(wèn)題是為了測(cè)試和驗(yàn)證電磁工程問(wèn)題的電磁場(chǎng)數(shù)值計(jì)算方法正確性而建立的一系列標(biāo)準(zhǔn)模型和案例。TEAM Problem 7是檢驗(yàn)三維渦流場(chǎng)數(shù)值計(jì)算精度的標(biāo)準(zhǔn)模型,由矩形載流線圈和導(dǎo)體板組成,線圈通以正弦電流,如圖7a所示。矩形載流線圈一般由絕緣漆包銅線繞制,導(dǎo)體板一般為鋁板??捎糜谀M電工設(shè)備中金屬構(gòu)件的交變漏磁場(chǎng)引起的損耗。

可由式(12)計(jì)算電場(chǎng)強(qiáng)度,鋁板中感應(yīng)渦流密度e的求解公式為

磁通密度計(jì)算公式為

采用多層劃分框架Metis對(duì)含空氣域的整體進(jìn)行分區(qū)后的情況,如圖7b所示。由于矩形載流線圈和導(dǎo)體板均為非導(dǎo)磁性材料,磁場(chǎng)和電場(chǎng)分布在一個(gè)比較大的空間內(nèi)并考慮到幾何結(jié)構(gòu)為方形,因此包含矩形載流線圈和導(dǎo)體板的空氣域?yàn)榉叫谓Y(jié)構(gòu)。采用多層劃分框架Metis對(duì)線圈和導(dǎo)體板進(jìn)行分區(qū)后的情況,如圖7a所示。從圖7a和圖7b可知多層劃分框架Metis可對(duì)求解域進(jìn)行區(qū)域分解,且分區(qū)較為規(guī)則和均勻。

圖7 TEAM Problem 7基準(zhǔn)問(wèn)題計(jì)算案例

200Hz時(shí)導(dǎo)體板上表面電流分量分布如圖8所示。電流虛部和實(shí)部的分布情況和電磁感應(yīng)定律是一致的,電流在矩形載流線圈正下方的導(dǎo)體板開(kāi)孔邊界處最大、在遠(yuǎn)離矩形載流線圈的導(dǎo)體板外邊緣處最小。

圖8 200Hz時(shí)導(dǎo)體板上表面電流Y分量分布

200Hz時(shí)空氣中A3-B3直線上磁場(chǎng)分量的計(jì)算值和測(cè)量值,如圖9所示。其中,直線A3-B3是指Team Problem7文獻(xiàn)中給出的測(cè)量線[39]。A3-B3是緊鄰導(dǎo)體板上表面的一條位于空中的直線,A3坐標(biāo)值為(0mm, 72mm, 34mm),B3坐標(biāo)值為(288mm, 72mm, 34mm)。圖9中的Felac Calculated是指可擴(kuò)展并行計(jì)算方法得到的計(jì)算值;Comsol Calculated是指電磁場(chǎng)數(shù)值計(jì)算軟件Comsol計(jì)算得到的計(jì)算值;Compumag. org是指Team Problem7文獻(xiàn)中給出的測(cè)量值[39],結(jié)果證明本文并行計(jì)算方法的計(jì)算結(jié)果是正確的。

1)小規(guī)模測(cè)試

有限元的測(cè)試規(guī)模為節(jié)點(diǎn)330萬(wàn)、自由度2 643萬(wàn)、單元數(shù)2 091萬(wàn),為評(píng)價(jià)并行計(jì)算的效率,分別采用100核、200核、300核和400核進(jìn)行測(cè)試。加速比為單個(gè)CPU計(jì)算運(yùn)行時(shí)間s與個(gè)CPU計(jì)算運(yùn)行時(shí)間p()之間的比值p()=s/p()。個(gè)CPU的并行計(jì)算效率為p()=p()/,并行效率可以理解為每個(gè)CPU的平均利用率。以100核作為基準(zhǔn)的并行性能見(jiàn)表1。

表1 小規(guī)模測(cè)試的并行性能

Tab.1 Performance for small-scale testing

2)大規(guī)模測(cè)試

有限元的測(cè)試規(guī)模為節(jié)點(diǎn)數(shù)1 256萬(wàn)、自由度數(shù)10 049萬(wàn)、單元數(shù)7 436萬(wàn)。為評(píng)價(jià)并行計(jì)算的效率,分別采用100核、200核、300核、400核進(jìn)行測(cè)試,以100核作為基準(zhǔn)的并行性能見(jiàn)表2。

節(jié)點(diǎn)數(shù)、自由度數(shù)、單元數(shù)的數(shù)量將會(huì)影響計(jì)算規(guī)模的大小。隨著計(jì)算規(guī)模的增加將會(huì)使并行計(jì)算過(guò)程的迭代計(jì)算時(shí)間和并行計(jì)算總時(shí)間明顯增加。對(duì)比兩個(gè)測(cè)試結(jié)果,采用100核、200核、300核、400核時(shí),大規(guī)模測(cè)試的計(jì)算效率相比小規(guī)模測(cè)試變化不大。實(shí)驗(yàn)結(jié)果證明本文提出的大規(guī)模工程電磁場(chǎng)億自由度可擴(kuò)展并行計(jì)算方法具有很好的并行計(jì)算效率和魯棒性。

表2 大規(guī)模測(cè)試的并行性能

Tab.2 Performance for big-scale testing

4 結(jié)論

本文研究并改進(jìn)傳統(tǒng)的主從并行程序框架,建立了主從/對(duì)等并行程序框架,基于電導(dǎo)率不變時(shí)渦流場(chǎng)磁矢勢(shì)法和對(duì)偶原始有限元撕裂內(nèi)聯(lián)(FETI-DP)法建立了可擴(kuò)展并行計(jì)算方法,調(diào)用400個(gè)計(jì)算核心實(shí)現(xiàn)了渦流場(chǎng)的高效并行計(jì)算,成功地將數(shù)值計(jì)算規(guī)模提高到1億自由度。數(shù)值計(jì)算的加速比結(jié)果表明可擴(kuò)展并行計(jì)算方法具有很好的可擴(kuò)展性能和很高的并行計(jì)算效能,同時(shí)點(diǎn)對(duì)點(diǎn)的對(duì)等模型為更大規(guī)模的并行數(shù)值計(jì)算奠定了基礎(chǔ)。研究成果為大型復(fù)雜電工裝備產(chǎn)品級(jí)模型的高效和高精度數(shù)值模擬提供了有效的理論和實(shí)踐方法。

在后續(xù)研究中,將進(jìn)一步提高并行計(jì)算規(guī)模和加速比,基于A-phi方法實(shí)現(xiàn)TEAM Problem21案例的實(shí)現(xiàn)億節(jié)點(diǎn)并行計(jì)算。

[1] Cheng Zhiguang, Norio Takahashi, Yang Sumei, et al. Loss spectrum and electromagnetic behavior of Problem 21 family[J]. IEEE Transactions on Magnetics, 2006, 42(4): 1467-1470.

[2] 謝德馨, 程志光, 楊仕友, 等. 對(duì)當(dāng)前計(jì)算電磁學(xué)發(fā)展的觀察與思考——參加COMPUMAG2011會(huì)議有感[J]. 電工技術(shù)學(xué)報(bào), 2013, 28(1): 136-141.

Xie Dexin, Cheng Zhiguang, Yang Shiyou, et al. Observation and consideration on the current development of computational electromagnetics—in perspective of COMPUMAG2011[J]. Transactions of China Electrotechnical Society, 2013, 28(1): 136-141.

[3] Hihat Nabil, Napieralska-Juszczak Ewa, Lecointe Jean-Philippe, et al. Equivalent permeability of step-lap joints of transformer cores: computational and experimental considerations[J]. IEEE Transactions on Magnetics, 2011, 47(1): 244-251.

[4] 李立毅, 孫芝茵, 潘東華, 等. 近零磁環(huán)境裝置現(xiàn)狀綜述[J]. 電工技術(shù)學(xué)報(bào), 2015, 30(15): 136-140.

Li Liyi, Sun Zhiyin, Pan Donghua, et al. Status reviews for nearly zero magnetic field environment facility[J]. Transactions of China Electrotechnical Society, 2015, 30(15): 136-140.

[5] 程志光, 劉濤, 范亞娜, 等. 基于TEAM P21三維雜散場(chǎng)問(wèn)題建模仿真與驗(yàn)證[J]. 電工技術(shù)學(xué)報(bào), 2014, 29(9): 194-203.

Cheng Zhiguang, Liu Tao, Fan Yana, et al. TEAM P21-based validation of 3-D stray-field modeling and simulation[J]. Transactions of China Electrotechnical Society, 2014, 29(9): 194-203.

[6] 劉廣一, 戴仁昶, 路軼, 等. 基于圖計(jì)算的能量管理系統(tǒng)實(shí)時(shí)網(wǎng)絡(luò)分析應(yīng)用研發(fā)[J]. 電工技術(shù)學(xué)報(bào), 2020, 35(11): 2339-2348.

Liu Guangyi, Dai Renchang, Lu Yi, et al. Graph computing based power network analysis applications[J]. Transactions of China Electrotechnical Society, 2020, 35(11): 2339-2348.

[7] 李雪, 張琳瑋, 姜濤, 等. 基于CPU-GPU異構(gòu)的電力系統(tǒng)靜態(tài)電壓穩(wěn)定域邊界并行計(jì)算方法[J]. 電工技術(shù)學(xué)報(bào), 2021, 36(19): 4070-4084.

Li Xue, Zhang Linwei, Jiang Tao, et al. CPU-GPU heterogeneous computing for static voltage stability region boundary in bulk power systems[J]. Transactions of China Electrotechnical Society, 2021, 36(19): 4070-4084.

[8] 劉濤, 習(xí)金玉, 宋戰(zhàn)鋒, 等. 基于多核并行計(jì)算的永磁同步電機(jī)有限集模型預(yù)測(cè)控制策略[J]. 電工技術(shù)學(xué)報(bào), 2021, 36(1): 107-119.

Liu Tao, Xi Jinyu, Song Zhanfeng, et al. Finite control set model predictive control of permanent magnet synchronous motor based on multi-core parallel computing[J]. Transactions of China Electrotechnical Society, 2021, 36(1): 107-119.

[9] 管建和. 電磁場(chǎng)有限元法解釋分布式并行計(jì)算的研究[D]. 北京: 中國(guó)地質(zhì)大學(xué)(北京), 2006.

[10] Li Yujia, Jin Jianming. A new dual-primal domain decomposition approach for finite element simulation of 3-D large-scale electromagnetic problems[J]. IEEE Transactions on Antennas and Propagation, 2007, 55(10): 2803-2810.

[11] Zhen Peng, Lee JinFa. Non-conformal domain decomposition method with mixed true second order transmission condition for solving large finite antenna arrays[J]. IEEE Transactions on Antennas and Propagation, 2011, 59(5): 1638-1651.

[12] Xue Mingfeng, Jin Jianming. A hybrid conformal/ nonconformal domain decomposition method for multi-region electromagnetic modeling[J]. IEEE Transactions on Antennas and Propagation, 2014, 62(4): 2009-2021.

[13] Xue Mingfeng, Jin Jianming. Nonconformal FETI-DP methods for large-scale electromagnetic simulation[J]. IEEE Transactions on Antennas and Propagation, 2012, 60(9): 4291-4305.

[14] Mario A Echeverri Bautista, Francesca Vipiana, Matteo Alessandro Francavilla, et al. A nonconformal domain decomposition scheme for the analysis of multiscale structures[J]. IEEE Transactions on Antennas and Propagation, 2015, 63(8): 3548-3560.

[15] 唐任遠(yuǎn), 吳東陽(yáng), 謝德馨. 單元級(jí)別并行有限元法求解工程渦流場(chǎng)的關(guān)鍵問(wèn)題研究[J]. 電工技術(shù)學(xué)報(bào), 2014, 29(5): 1-8.

Tang Renyuan, Wu Dongyang, Xie Dexin. Research on the key problem of element by element parallel FEM applied to engineering eddy current analysis[J]. Transactions of China Electrotechnical Society, 2014, 29(5): 1-8.

[16] Zheng Weiying, Cheng Zhiguang. An inner-constrained separation technique for 3D finite element modeling of GO silicon steel laminations[J]. IEEE Transactions on Magnetics, 2012, 48(8): 2277-2283.

[17] Wang Yao, Jin Jianming, Philip TKrein. Application of the LU recombination method to the FETI-DP method for solving low-frequency multiscale electromagnetic problems[J]. IEEE Transactions on Magnetics, 2013, 49(10): 5346-5355.

[18] Van Emden Henson, Ulrike Meier Yang. BoomerAMG: a parallel algebraic multigrid solver and preconditioner[J]. Applied Numerical Mathematics, 2002, 41(1): 155-177.

[19] Ralf Hiptmair, Xu Jinchao. Auxiliary space preconditioning for edge elements[J]. IEEE Transactions on Magnetics, 2008, 44(6): 938-941.

[20] Zhang Linbo. A parallel algorithm for adaptive local refinement of tetrahedral meshes using bisection[J]. Numerical Mathematics a Journal of Chinese Universities English Series, 2009, 2(1): 65-89.

[21] George Karypis, Vipin Kumar. Multilevel k-way partitioning scheme for irregular graphs[J]. Journal of Parallel and Distributed Computing, 1998, 48(1): 96-129.

[22] Charbel Farhat, Michel Lesoinne, Patrick LeTallec, et al. FETI-DP: a dual–primal unified FETI method—Part I: a faster alternative to the two-level FETI method[J]. International Journal for Numerical Methods in Engineering, 2001, 50(7):1523-1544.

[23] Xue Mingfeng, Jin Jianming. A preconditioned dual-primal finite element tearing and interconnecting method for solving three-dimensional time-harmonic Maxwell's equations[J]. Journal of Computational Physics, 2014, 274: 920-935.

[24] James Ahrens, Kristi Brislawn, Ken Martin, et al. Large-scale data visualization using parallel data streaming[J]. IEEE Computer Graphics and Applications, 2001, 21: 34-41.

[25] 史燕琨, 熊華強(qiáng). 基于偽并行遺傳算法的配電網(wǎng)電容器優(yōu)化配置[J]. 電力系統(tǒng)保護(hù)與控制, 2009, 37(20): 57-60.

Shi Yankun, Xiong Huaqiang. Optimal capacitor arrangement based on pseudo parallel genetic algorithm[J]. Power System Protection and Control, 2009, 37(20): 57-60.

[26] 黃靖, 張曉鋒, 葉志浩. 大型船舶電力系統(tǒng)分布式并行潮流計(jì)算方法[J]. 電力系統(tǒng)保護(hù)與控制, 2011, 39(7): 50-55.

Huang Jing, Zhang Xiaofeng, Ye Zhihao. A distributed parallel load flow calculation method for large ship power system[J]. Power System Protection and Control, 2011, 39(7): 50-55.

[27] 簡(jiǎn)金寶, 楊林峰, 全然. 基于改進(jìn)多中心校正解耦內(nèi)點(diǎn)法的動(dòng)態(tài)最優(yōu)潮流并行算法[J]. 電工技術(shù)學(xué)報(bào), 2012, 27(6): 232-241.

Jian Jinbao, Yang Linfeng, Quan Ran. Parallel algorithm of dynamic optimal power flow based on improved multiple centrality corrections decoupling interior point method[J]. Transactions of China Electrotechnical Society, 2012, 27(6): 232-241.

[28] David MFernández, Maryam Mehri Dehnavi, Warren JGross, et al. Alternate parallel processing approach for FEM[J]. IEEE Transactions on Magnetics, 2012, 48(2): 399-402.

[29] Gabriel Mateescu, Wolfgang Gentzsch, Calvin JRibbens. Hybrid computing—where HPC meets grid and cloud computing[J]. Future Generation Computer Systems, 2011, 27(5): 440-453.

[30] Ismail Ari, Nitel Muhtaroglu. Design and implementation of a cloud computing service for finite element analysis[J]. Advances in Engineering Software, 2013, 60-61: 122-135.

[31] 符偉. 云計(jì)算環(huán)境下的線性有限元方法研究[D]. 武漢: 華中科技大學(xué), 2013.

[32] Zhang Y, Gallipoli D, Augarde C E. Simulation- based calibration of geotechnical parameters using parallel hybrid moving boundary particle swarm optimization[J]. Computers and Geotechnics, 2009, 36(4): 604-615.

[33] 張友良, 馮夏庭, 茹忠亮. 基于區(qū)域分解算法的巖土大規(guī)模高性能并行有限元系統(tǒng)研究[J]. 巖石力學(xué)與工程學(xué)報(bào), 2004, 23 (21): 3636-3641.

Zhang Youliang,Feng Xiating, Ru Zhongliang. Large-scale high performance parallel finite element system based on domain decompositioin method in geomechanics[J]. Chinese Journal of Rock Mechanics and Engineering , 2004, 23(21): 3636-3641.

[34] Zhang Youliang, Domenico Gallipoli. Development of an object-oriented parallel finite element code for unsaturated soils[M]. Berlin Heidelberg: Springer, 2007.

[35] 金亮, 汪東梅, 邱運(yùn)濤, 等. 基于彈性云計(jì)算集群的國(guó)際TEAM Problem 7基準(zhǔn)問(wèn)題計(jì)算方法[J]. 電工技術(shù)學(xué)報(bào), 2017, 32(8): 144-150.

Jin Liang, Wang Dongmei, Qiu Yuntao, et al. A calculation method for the international benchmark Problem of TEAM 7 based on elastic cluster in cloud computing[J]. Transactions of China Electrotechnical Society, 2017, 32(8): 144-150.

[36] 金亮, 邱運(yùn)濤, 楊慶新, 等. 基于云計(jì)算的電磁問(wèn)題并行計(jì)算方法[J]. 電工技術(shù)學(xué)報(bào), 2016, 31(22): 5-11.

Jin Liang, Qiu Yuntao,Yang Qingxin, et al. A parallel computing method to electromagnetic problems based on cloud computing[J]. Transactions of China Electrotechnical Society, 2016, 31(22): 5-11.

[37] 顏威利, 楊慶新, 汪友華, 等. 電氣工程電磁場(chǎng)數(shù)值分析[M]. 北京:機(jī)械工業(yè)出版社, 2006.

[38] 張友良, 譚飛, 張禮仁, 等. 巖土工程億級(jí)單元有限元模型可擴(kuò)展并行計(jì)算[J]. 巖土力學(xué), 2016, 37(11): 3309-3316.

Zhang Youliang, Tan Fei, Zhang Liren, et al. Scalable parallel computation for finite element model with hundreds of millions of elements in geotechnical engineering[J]. Rock and Soil Mechanics, 2016, 37(11): 3309-3316.

[39] Problem 7 asymmetrical conductor with a hole[DB/OL].https://www.compumag.org/wp/wp-content/uploads/2018/ 06/problem7.pdf.

Extensible Parallel Computing Method with Hundreds of Millions of Freedoms for Large-Scale Engineering Electromagnetic Field

Jin Liang1,2Li Yuzeng1,2YangQingxin1,2Zhang Chuang1,2Yan Shuai3

(1. State Key Laboratory of Reliability and Intelligence of Electrical Equipment Hebei University of Technology Tianjin 300130 China 2. Key Hebei Key Laboratory of Electromagnetic Field and Electrical Apparatus Reliability Hebei University of Technology Tianjin 300130 China 3. Institute of Electrical Engineering Chinese Academy of Sciences Beijing 100081 China)

Accurate and rapid electromagnetic field calculation is the basis of fine simulation and optimization design of electrical equipment. In this paper, the scalable parallel computing research is carried out on the elastic cluster of high-speed interconnected high-performance cloud platform. OpenMpi is used as the message passing library, and the dual-primal finite element tearing and interconnecting (FETI-DP) method is selected as the domain decomposition algorithm. The parallel computing of eddy current magnetic vector potentialwith constant conductivity is achieved by improving the master-slave/peer parallel program framework, which can reduce the complexity of programming and improve the efficiency of parallel computing. The program is written in C language and the scalable parallel computing method is verified by the benchmark problem of international TEAM Problem 7. In this paper, the master-slave/peer-to-peer parallel program framework and the dual-primal finite element tearing and interconnecting FETI-DP method are introduced into the field of electromagnetic computing, which improves the efficiency and scalability of parallel computing, and provides a new practical and theoretical method for large-scale engineering electromagnetic field calculation.

Parallel computing, numerical calculation of electromagnetic fields, finite element method, dual-primal finite element tearing and interconnecting(FETI-DP)

10.19595/j.cnki.1000-6753.tces.211050

TM153

國(guó)家自然科學(xué)基金面上項(xiàng)目(51977148)和國(guó)家自然科學(xué)基金重大研究計(jì)劃項(xiàng)目(92066206)資助。

2021-07-09

2021-11-01

金 亮 男,1982年生,博士,教授,研究方向?yàn)楣こ屉姶艌?chǎng)與磁技術(shù)、電磁場(chǎng)云計(jì)算和電磁無(wú)損檢測(cè)等。E-mail:jinliang@tju.edu.cn(通信作者)

李育增 男,1996年生,碩士研究生,研究方向?yàn)楣こ屉姶艌?chǎng)。E-mail:lyz18330774321@163.com

(編輯 郭麗軍)

猜你喜歡
電磁場(chǎng)渦流電工
基于臥式蒸汽發(fā)生器傳熱管渦流檢查數(shù)據(jù)的堵管準(zhǔn)則研究
一種單機(jī)式渦流探傷儀電性能校準(zhǔn)裝置
外加正交電磁場(chǎng)等離子體中電磁波透射特性
渦流擴(kuò)散比影響下的水下光通信性能分析
特變電工
特變電工
特變電工
糊涂的維修工
電磁場(chǎng)能量守恒研究
基于函數(shù)語(yǔ)言的并行FDTD算法新實(shí)現(xiàn)及其在航空母艦甲板表面電磁場(chǎng)分布問(wèn)題仿真中的應(yīng)用
新余市| 金堂县| 宁城县| 娄烦县| 错那县| 新密市| 双鸭山市| 黄大仙区| 盈江县| 额尔古纳市| 富蕴县| 樟树市| 金塔县| 肃北| 历史| 临漳县| 壶关县| 呼和浩特市| 寿光市| 博白县| 新乡市| 休宁县| 淮滨县| 石楼县| 巴中市| 罗源县| 五家渠市| 大渡口区| 靖江市| 镇原县| 定襄县| 蓬安县| 巨鹿县| 滕州市| 马关县| 绥芬河市| 鹤庆县| 洛浦县| 阿克陶县| 彰化县| 朝阳市|