国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

改進的動態(tài)A*-Q-Learning算法及其在無人機航跡規(guī)劃中的應用

2021-11-04 11:50:57程傳斌倪艾辰房翔宇張亮
現(xiàn)代信息科技 2021年9期
關鍵詞:步數(shù)山體航跡

程傳斌 倪艾辰 房翔宇 張亮

DOI:10.19850/j.cnki.2096-4706.2021.09.001

摘? 要:Q-Learning算法是一種基于價值函數(shù)的強化學習方法。傳統(tǒng)的Q-Learning算法迭代效率低且容易陷入局部收斂,針對該劣勢改進了算法,引入A*算法和動態(tài)搜索因子ε。將改進后的動態(tài)A*-Q-Learning算法應用于三維復雜環(huán)境下無人機的航跡規(guī)劃,分析無人機航跡規(guī)劃結果的回報函數(shù)、探索步數(shù)和運行效率。結果表明,改進后的算法可使無人機在復雜環(huán)境下具有很強的自適應性;同時,動態(tài)搜索因子ε能有效地避免智能體在搜尋過程中陷入局部最優(yōu)的狀況,在復雜地形中能尋找到更優(yōu)的路徑。

關鍵詞:無人機;航跡規(guī)劃;A*改進;動態(tài)搜索因子ε;動態(tài)A*-Q-Learning

中圖分類號:TP181;V279? ? ? 文獻標識碼:A 文章編號:2096-4706(2021)09-0001-06

Improved Dynamic A*-Q-Learning Algorithm and Its Application in?UAV Route Planning

CHENG Chuanbin1,NI Aichen2,F(xiàn)ANG Xiangyu1,ZHANG Liang1

(1.School of Science,Wuhan University of Technology,Wuhan? 430070,China;

2.School of Economics,Wuhan University of Technology,Wuhan? 430070,China)

Abstract:The Q-Learning algorithm is a reinforcement learning method based on value functions. The traditional Q-Learning algorithm lacks efficiency in iteration and is easy to fall into local convergence. To solve the disadvantage,the algorithm is improved:introducing A* algorithm and dynamic search factor ε. The improved dynamic A*-Q-Learning algorithm is applied to the route planning of UAV in 3D complex environment,and the return function,exploration steps and operation efficiency of UAV route planning results are analyzed. The results demonstrate that the improved algorithm can enable UAV to have strong adaptability in the face of complex environment;meanwhile,dynamic search factors ε can effectively avoid the agent falling into the local optimal condition in the search process,and find a better path in complex terrain.

Keywords:UAV;route planning;A* improvement;dynamic search factor ε;dynamic A*-Q-Learning

0? 引? 言

強化學習是機器學習的范式和方法論之一,用于描述和解決智能體(Agent)在與環(huán)境的交互過程中通過學習策略以達成回報最大化或?qū)崿F(xiàn)特定目標的問題[1]。它具有良好的適應性,能夠在未知環(huán)境中不斷試錯從而尋找最優(yōu)策略[2]

目前,強化學習可廣泛應用于機器人二維平面的路徑規(guī)劃過程中[3],采用的算法多為Q-Learning算法[4]。傳統(tǒng)的Q-Learning算法由于受大規(guī)模動作值過估計而出現(xiàn)不穩(wěn)定和效果不佳等情況[5]。因此,許多學者對Q-Learning算法進行了改進。Wen等[6]基于模糊規(guī)則初始化Q值,加快了算法的收斂速度;朱志斌等人[7]利用系統(tǒng)數(shù)據(jù)迭代求解出可使給定目標函數(shù)最小化的控制律,實現(xiàn)了多智能體系統(tǒng)的一致性;蔣國飛[8]等將BP神經(jīng)網(wǎng)絡和Q-Learning有效結合,解決了確定和隨機倒立擺模型的平衡控制。

近年來,隨著信息技術的快速發(fā)展,無人機的應用由廣闊空曠地域中的常規(guī)應用逐漸轉(zhuǎn)變?yōu)閺碗s地理環(huán)境中的軍事應用,這對無人機的機動性和遠程通信水平提出了更高的要求[9]。在復雜環(huán)境下合理規(guī)劃路線,能夠提高無人機執(zhí)行任務的效率和安全性,為無人機的安全航行保駕護航[10]。

無人機的航跡規(guī)劃可以根據(jù)無人機的任務分配情況進行界定[11],實驗是在不考慮無人機任務分配及任務關系的條件下進行的。目前大量航跡規(guī)劃的研究中,主要的方法可以分為基于圖論的方法、智能優(yōu)化算法、基于勢場的方法、隨機規(guī)劃算法以及啟發(fā)性搜索算法[12-16]。其中,啟發(fā)性搜索算法包含A*算法[17]和D*Lite算法[18]等。此外,已經(jīng)有部分研究著眼于Q-Learning在三維航跡中的應用。郝釧釧等[19]通過設置三維環(huán)境中的航跡約束條件,合理引導和規(guī)劃空間的離散化過程;封碩等[20]將深度學習嵌套入Q-Learning框架,對三維救災環(huán)境中的機器人路徑進行規(guī)劃。無人機的航跡規(guī)劃受限于傳統(tǒng)算法,沒有表現(xiàn)出優(yōu)秀的自我探索能力,期望通過強化學習賦予無人機自主學習能力,使其能夠靈活應對更加復雜的環(huán)境。

本文在引入馬爾科夫決策過程[21]五個重要組成部分(環(huán)境與動力、策略、回報函數(shù)、價值函數(shù)、Bellman期望方程)的基礎上,結合A*算法改進傳統(tǒng)的Q-Learning算法[22],同時引入動態(tài)搜索因子ε?;趯嶒灁?shù)據(jù),分別對Q-Learning算法和動態(tài)A*-Q-Learning算法的回報函數(shù)、探索步數(shù)和運行效率這三方面的數(shù)據(jù)進行了分析:改進的動態(tài)A*-Q-Learning算法總回報值高,探索步數(shù)較少,運行效率高。這表明在無人機飛行過程中,改進后的算法能夠以更小的代價求得更優(yōu)的解。此外,動態(tài)A*-Q-Learning算法還賦予了無人機較強的自適應性,在風力變化不定的情況下,無人機依舊可以迅速采取相應策略實現(xiàn)航跡的適當調(diào)整。

1? Q-Learning算法分析及改進

1.1? 基本原理

強化學習模型由智能體和環(huán)境組成,其主要內(nèi)容是智能體通過與環(huán)境交互,對當前狀態(tài)下不同動作策略的價值函數(shù)進行估計,執(zhí)行高回報動作,避免執(zhí)行低回報或懲罰的動作,從而達到不斷改進策略,逼近最優(yōu)決策的效果。強化學習模型的機理圖如圖1所示。

無人機通過Agent與環(huán)境交互,獲得航跡過程的本質(zhì)是馬爾可夫決策過程(Markov decision process,MDP),無人機的下一個空間狀態(tài)只與當前的狀態(tài)信息有關,與之前的信息狀態(tài)無關,即無人機航跡規(guī)劃的過程具有馬爾可夫性。

MDP由五個元素構成:

1.2? 基于A*的策略舒適化改進

A*算法是無人機航跡規(guī)劃中較為成熟的解決方法。該算法不僅具有最佳優(yōu)先搜索、高效率搜索的特點,同時具有結合Dijkstra算法能夠找尋最佳路徑的優(yōu)勢。具體流程為:

Agent探索的過程是不斷尋找最優(yōu)策略的過程,其運行效率會隨著探索過程的減少而提高。結合A*算法,利用算法得到的路徑結果對Q-Learning的價值函數(shù)Q(s,a)進行初始化,不僅能有效縮短算法迭代時間,同時還能令航跡規(guī)劃的結果比A*算法更精確。

具體是實現(xiàn)步驟為:

Step 1:調(diào)用A*算法得到一條起點至終點的最短路徑;

Step 2:記錄路徑中上一個狀態(tài)s遷移至下一個狀態(tài)s'所采用的動作a;

Step 3:令Q(s,a)=C,C>0。對于狀態(tài)s的其余動作a',令Q(s,a')=0,完成對價值函數(shù)的初始化。

1.3? 動態(tài)搜索因子ε的改進

在強化學習算法中,需要設計出合理的策略依次為繁多的狀態(tài)確定最優(yōu)的動作選擇。在Q-Learning算法中,采用ε-貪心策略來平衡對環(huán)境的探索和利用。其基本思想是確定一個探索因子ε,在確定動作時,Agent通過ε的概率選擇當前回報最高的動作,或者以1-ε的概率隨機選擇一個動作策略。在Q-Learning中,ε通常取一個定值,這樣可能會導致Agent在迭代計算的初期,對環(huán)境的探索程度不夠,尋找不到最優(yōu)路徑,而在迭代的后期又遲遲沒辦法收斂。

為解決上述問題,引入動態(tài)搜索因子ε,根據(jù)迭代計算的進度動態(tài)調(diào)整ε的大小。設ε=f(x),f(x)表示ε與迭代次數(shù)x之間的函數(shù)關系。具體函數(shù)表達式為:

式中,x為當前迭代次數(shù),N為最大迭代次數(shù)。

當Agent處于第x代,由f(x)得到ε的值,通過比較rand()與ε的大小關系,進一步確定是進行貪心選擇還是進行隨機選擇。

動態(tài)搜索因子ε的引入能夠有效解決以A*算法結果初始化價值函數(shù)Q(s,a)后容易陷入局部最優(yōu)的問題,同時加速迭代后期算法的收斂速度。下面給出基于上述改進的偽代碼:

Algorithm 1

Input: Starting point coordinates, End point coordinates

Output: UAV track

Call the algorithm A*

find the static environment route

Initialize the Q-table,

Repeat (for each episode)

Initialize s, a for all s∈S, a∈A

Repeat (for each step of episode)

Calculate ε

2? 無人機三維航跡規(guī)劃建模

2.1? 仿真環(huán)境設置

2.1.1? 風力對航跡的影響

考慮到實際環(huán)境中無人機的航跡會受到天氣的影響,導致規(guī)劃航跡與實際航跡存在偏差,因此設置有風區(qū)域模擬無人機受天氣影響的場景。設置該區(qū)域為任意立體空間,進入該空間內(nèi)的無人機可能會受到風力的影響并沿風力方向強制移動至下一離散空間點上。風力的影響將持續(xù)到無人機離開該區(qū)域為止。同時考慮到風力可能會出現(xiàn)不連續(xù)吹風的情況,即無人機處于有風區(qū)域時并不會持續(xù)受到風力對航跡的影響,設置風力對無人機造成航跡偏移影響的概率為p=0.9。

2.1.2? 山體環(huán)境設置

在現(xiàn)代軍事領域中,無人機需能夠在復雜的地形環(huán)境中執(zhí)行任務,其中以山脈丘陵地區(qū)為主。因此,規(guī)劃其航跡以避免與山體發(fā)生碰撞是必然要求。通過構造三維函數(shù)來刻畫山體的輪廓,描述仿真環(huán)境中的山體信息。山體的輪廓函數(shù)設置為:

式中,z表示山體表面上某點的垂直高度,(x,y)表示該點在xOy平面上的投影坐標,(ai,bi)表示山體中心在xOy平面上的投影坐標,ki表示地形坡度參數(shù)。參數(shù)取不同數(shù)值時會得到不同的山峰。實驗山體相關參數(shù)設置如表1所示。

無人機在實際航行過程中應避免與山體發(fā)生碰撞,即無人機應與障礙物保持一定的安全距離。同時山體表面豐富的植被讓環(huán)境信息變得更為復雜,為簡化山體表面植被的環(huán)境信息,對山體進行“膨脹”處理,使得仿真環(huán)境中的山體體積擴大為實際山體體積的(1+β)倍,在滿足完全躲避山體要求的同時與山體保持安全距離。實驗仿真環(huán)境如圖2所示。

仿真環(huán)境空間大小設置為7×7×4,以0.25為間隔對仿真環(huán)境進行離散化處理。在Agent與環(huán)境交互的過程中以Δt的間隔更新環(huán)境信息,以適應環(huán)境變化。

2.2? 空間狀態(tài)設置

在仿真實驗中,為了能夠?qū)⒏倪M后的算法應用于三維無人機航跡規(guī)劃,首先將無人機放置于一個三維空間當中;接著,分別對無人機的空間狀態(tài)和動作策略機制進行設置,定義無人機的空間狀態(tài)為無人機在空間中的坐標位置,例如,無人機在(x0,y0,z0)時,經(jīng)過動作決策移動到(x1,y1,z1),即無人機從空間狀態(tài)(x0,y0,z0)轉(zhuǎn)移到空間狀態(tài)(x1,y1,z1)。

2.3? 動作策略設置

式中,D為當前點到終點的歐氏距離,a=5,b=-100,c=-1。

執(zhí)行回報指無人機每執(zhí)行一次動作決策所得到的獎勵;目標回報指無人機到達終點時所獲得的獎勵;山體回報指無人機撞擊山體的損失;越界回報指無人機離開構建的仿真環(huán)境所受到的損失。

執(zhí)行回報設置的作用是在能夠完成無人機躲避障礙到達目的地的同時,使得航跡最短。對每一步施加懲罰,使Agent能夠得到步數(shù)盡可能少的路徑。

3? 實驗結果及分析

3.1? 實驗參數(shù)

實驗在7×7×4的三維仿真環(huán)境中進行,對Agent的運動進行了模擬和檢測。此外,對改進后的動態(tài)A*-Q-Learning算法和傳統(tǒng)的Q-Learning算法進行比較,以驗證改進后的A*和動態(tài)搜索因子ε對無人機航跡規(guī)劃的積極作用。

實驗中使用的主要參數(shù)如表2所示。

其中,學習率α為算法中的參數(shù),決定收斂速度的快慢;折扣因子γ表示對未來獎勵的看重程度;山體膨脹系數(shù)指的是為防止無人機飛行時與山體距離過于接近而發(fā)生事故,將山體放大的倍數(shù)。

3.2? 仿真環(huán)境飛行結果

設定起點為(0,0,0),終點為(3.5,4.0,1.5),圖3給出了仿真環(huán)境中無人機從起點到終點的飛行軌跡。

從圖3中可以看出,無人機從起點開始出發(fā),穿過仿真環(huán)境中的山脈和風力區(qū)域到達終點。使用Q-Learning算法時,無人機航跡與直線距離偏差較大,且航跡受風力影響較大;而使用動態(tài)A*-Q-Learning算法時,無人機航跡與直線距離偏差較小,并且在經(jīng)過風力區(qū)域時也保持著較高的穩(wěn)定性。

3.3? 回報函數(shù)分析

回報函數(shù)通過將任務目標具體化和數(shù)值化,實現(xiàn)了目標與算法之間的溝通。在具體的運用之中,隨著迭代的推進,回報函數(shù)的大小及變化趨勢能夠有效地反映出算法的優(yōu)良程度。

圖4中,Q-Learning算法與動態(tài)A*-Q-Learning算法在起始時刻的回報值表現(xiàn)出差異。Q-Learning算法的回報值約為-60,根據(jù)回報函數(shù)的設置,其航跡表現(xiàn)為無目的性地徘徊;動態(tài)A*-Q-Learning算法起始時刻的回報值約為-100,其在初始化策略的過程中沒有考慮到風力的作用,在風力的作用下與山體發(fā)生碰撞,得到負回報-100,即在不考慮風力的作用下,航跡的起始初始值遠大于傳統(tǒng)算法。其航跡結果表明動態(tài)A*-Q-Learning算法比Q-Learning算法更具方向性,有效加快了Agent探索過程。

從整體看,Q-Learning算法的回報值增長趨勢較緩,在迭代次數(shù)為50 000左右時就收斂于-20左右;動態(tài)A*-Q-Learning算法的回報值增長趨勢明顯,最后收斂于0左右,表明其在探索最優(yōu)路徑的過程中花費了較多的時間,但是最后的總回報卻更優(yōu)。

因此,從回報函數(shù)值的變化趨勢可以推斷出:在迭代初期,動態(tài)A*-Q-Learning算法與Q-Learning算法相比,前者的航跡表現(xiàn)出更強的方向性,同時所得到的結果具有更優(yōu)的回報。

3.4? 探索步數(shù)分析

一個成熟算法在尋優(yōu)過程中所付出的代價可以表現(xiàn)為收斂時所需的步數(shù)。探索步數(shù)的峰值和增長速度能反映出算法的尋優(yōu)能力及算法的穩(wěn)定性能。

圖5中,Q-Learning算法與動態(tài)A*-Q-Learning算法在探索步數(shù)的峰值方面表現(xiàn)出較大的差異。動態(tài)A*-Q-Learning算法探索步數(shù)的峰值為55,小于Q-Learning算法探索步數(shù)的峰值65,且最終收斂后的步數(shù)更少。在環(huán)境信息相同的情況下,動態(tài)A*-Q-Learning算法只需較少的探索步數(shù)就可學習到更多的信息,可幫助Agent獲取更多環(huán)境反饋的信息,從而做出更加合理的動作策略。

從整體上看,動態(tài)搜索因子ε增強了動態(tài)A*-Q-Learning算法在迭代初期的探索能力,在獲取更多環(huán)境反饋信息的情況下,幫助算法提高了最終的收斂程度,同時在迭代末期加快了收斂的速度,動態(tài)A*-Q-Learning算法相較于Q-Learning算法,表現(xiàn)出更強的穩(wěn)定性能和探索能力。

3.5? 運行效率分析

運行效率是判斷算法優(yōu)劣的重要指標。主要對算法的空間效率和時間效率進行分析,目前空間效率不作為關注的重點。實驗在相同設備上進行,兩種算法時間上的表現(xiàn)如圖6所示。

圖6中,展示了Q-Learning算法與動態(tài)A*-Q-Learning算法迭代次數(shù)與時間的關系曲線。對比曲線的總體水平和斜率,可知動態(tài)A*-Q-Learning算法的總體時間水平低于傳統(tǒng)算法;同時曲線的斜率低于傳統(tǒng)算法的斜率,表明改進后的算法在每代的迭代時間上少于傳統(tǒng)算法。在迭代次數(shù)為55 000次之后,斜率保持不變,陷入局部最優(yōu)的狀況,因此,無法探索出更優(yōu)的路徑。

對比Q-Learning算法與動態(tài)A*-Q-Learning算法,在對回報函數(shù)、探索步數(shù)及運行效率進行分析之后,驗證了動態(tài)A*-Q-Learning算法在結合A*以及引入動態(tài)搜索因子ε后,表現(xiàn)為探索能力增強,算法運行效率提高,得到的結果更優(yōu)的特點。

4? 結? 論

本文通過結合A*算法以及引入動態(tài)搜索因子ε對傳統(tǒng)的Q-Learing算法進行了改進,克服了算法迭代效率低以及易陷入局部收斂的缺點,以更低的成本得到更高的回報。此外,將動態(tài)A*-Q-Learning算法應用于無人機的航跡規(guī)劃中,在仿真環(huán)境下通過實時更新Q值表,使得無人機具備良好的自適應性,能夠根據(jù)外界環(huán)境的變化采取最合適的動作策略。最后,無人機通過強化學習獲得了較強的自我探索能力,可在具有更多試錯機會的情況下探索出最優(yōu)飛行路徑。

參考文獻:

[1] 秦智慧,李寧,劉曉彤,等。無模型強化學習研究綜述 [J].計算機科學,2021,48(3):180-187.

[2] 韓忻辰,俞勝平,袁志明,等.基于Q-Learning的高速鐵路列車動態(tài)調(diào)度方法 [C]//第31屆中國過程控制會議(CPCC 2020).徐州:中國自動化學會和中國自動化學會過程控制專業(yè)委員會,2020:1.

[3] 張汝波,顧國昌,劉照德,等.強化學習理論、算法及應用 [J].控制理論與應用,2000(5):637-642.

[4] 高陽,陳世福,陸鑫.強化學習研究綜述 [J].自動化學報,2004(1):86-100.

[5] MATHEW A,JOLLY M J,MATHEW J. Improved Residential Energy Management System Using Priority Double Deep Q-Learning [J].Sustainable Cities and Society,2021,69:102812.

[6] WEN S H,CHEN J H,LI Z,et al. Fuzzy Q-Learning obstacle avoidance algorithm of humanoid robot in unknown environment [C]//第37屆中國控制會議.武漢:中國自動化學會控制理論專業(yè)委員會,2018:5.

[7] 朱志斌,王付永,尹艷輝,等.基于Q-Learning的離散時間多智能體系統(tǒng)一致性 [J].控制理論與應用,2021,38(7):997-1005.

[8] 蔣國飛,吳滄浦.基于Q學習算法和BP神經(jīng)網(wǎng)絡的倒立擺控制 [J].自動化學報,1998(5):88-92.

[9] 胡嘉悅,李廣文,章衛(wèi)國,等.面向有人/無人機協(xié)同遠程作戰(zhàn)的IVMS架構 [J/OL].航空學報:1-12[2021-04-30].http://kns.cnki.net/kcms/detail/11.1929.V.20210326.1703.022.html.

[10] 王科銀,石振,楊正才,等.改進強化學習算法應用于移動機器人路徑規(guī)劃 [J/OL].計算機工程與應用:1-7[2021-04-28].http://kns.cnki.net/kcms/detail/11.2127.TP.20210331.1016. 006.html.

[11] 吳蔚楠.多無人飛行器分布式任務規(guī)劃技術研究 [D].哈爾濱:哈爾濱工業(yè)大學,2018.

[12] 張棟,李如飛,閆曉東,等.基于智能優(yōu)化算法的集群協(xié)同航跡規(guī)劃方法研究 [J].戰(zhàn)術導彈技術,2020(6):17-29+ 103.

[13] 閻昊,樊興,夏學知.圖結構與Dijkstra算法在無人機航跡規(guī)劃中的應用 [J].火力與指揮控制,2010,35(4):155-157+160.

[14] 王寧,代冀陽,應進.基于改進勢場的無人機編隊恢復與一致性仿真 [J/OL].系統(tǒng)仿真學報:1-16[2021-04-12].https://doi.org/10.16182/j.issn1004731x.joss.20-0980.

[15] 陳誠,林秋婷,邱榮祖.基于隨機規(guī)劃模型的彈性木材供應鏈網(wǎng)絡優(yōu)化 [J].森林與環(huán)境學報,2021,41(1):88-95.

[16] 鄭書朋,鄭淑濤,朱思濱,等.基于啟發(fā)搜索策略的飛行仿真系統(tǒng)實時調(diào)度算法 [J].沈陽工業(yè)大學學報,2011,33(1):86-92.

[17] 張志文,張鵬,毛虎平,等.改進A*算法的機器人路徑規(guī)劃研究 [J].電光與控制,2021,28(4):21-25.

[18] 程志,張志安,樂偉揚,等.基于D* Lite算法的三維路徑規(guī)劃研究 [J].傳感器與微系統(tǒng),2020,39(12):71-73+77.

[19] 郝釧釧,方舟,李平.基于Q學習的無人機三維航跡規(guī)劃算法 [J].上海交通大學學報,2012,46(12):1931-1935.

[20] 封碩,舒紅,謝步慶.基于改進深度強化學習的三維環(huán)境路徑規(guī)劃 [J].計算機應用與軟件,2021,38(1):250-255.

[21] 張思齊.基于部分可觀測馬爾科夫決策過程的干擾決策研究 [D].西安:西安電子科技大學,2019.

[22] 秦旋,陳舒鈴,喬任.復雜性視角下基于Agent智能體的復雜工程社會風險演化研究 [J].軟科學,2021,35(6):125-131.

作者簡介:程傳斌(1998.01—),男,漢族,江西上饒人,本科在讀,研究方向:強化學習;倪艾辰(2000.06—),男,漢族,江蘇鎮(zhèn)江人,本科在讀,研究方向:數(shù)字經(jīng)濟;房翔宇(1999.12—),男,漢族,河南永城人,本科在讀,研究方向:人工智能和大數(shù)據(jù);通訊作者:張亮(1977.02—),男,漢族,湖北隨州人,教授,博士,研究方向:分布參數(shù)的控制理論。

收稿日期:2021-04-06

基金項目:國家自然科學基金(61573012)

猜你喜歡
步數(shù)山體航跡
速度和步數(shù),哪個更重要
楚國的探索之旅
奇妙博物館(2021年4期)2021-05-04 08:59:48
夢的航跡
青年歌聲(2019年12期)2019-12-17 06:32:32
濟南市山體修復中的植物應用與技術——以濟南市臥虎山山體公園為例
微信運動步數(shù)識人指南
小演奏家(2018年9期)2018-12-06 08:42:02
視覺導航下基于H2/H∞的航跡跟蹤
無人機航跡追蹤算法研究與仿真
山體別墅設計分析
人間(2015年21期)2015-03-11 15:23:42
基于航跡差和航向差的航跡自動控制算法
城市山體保護規(guī)劃的實踐與探索——以武漢市新洲區(qū)山體保護規(guī)劃為例
象山县| 桃江县| 汾西县| 清新县| 揭西县| 翼城县| 常德市| 岱山县| 大厂| 大悟县| 涡阳县| 安西县| 沂水县| 铜梁县| 桂平市| 怀来县| 龙口市| 平武县| 常德市| 定安县| 林芝县| 石柱| 贵德县| 兴仁县| 攀枝花市| 乃东县| 德保县| 和林格尔县| 即墨市| 万安县| 井陉县| 西畴县| 沂源县| 改则县| 辽源市| 韶关市| 陕西省| 南宁市| 青龙| 阜城县| 女性|