国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于PPO算法的自動駕駛?cè)藱C交互式強化學(xué)習(xí)方法

2024-11-04 00:00:00時高松趙清海董鑫賀家豪劉佳源
計算機應(yīng)用研究 2024年9期

摘 要:針對當前自動駕駛領(lǐng)域中深度強化學(xué)習(xí)(deep reinforcement learning,DRL)所面臨的高計算性能需求和收斂速度慢的問題,將變分自編碼器(variational autoencoder,VAE)和近端策略優(yōu)化算法(proximal policy optimization,PPO)相結(jié)合。通過采用VAE的特征編碼技術(shù),將Carla模擬器獲取的語義圖像有效轉(zhuǎn)換為狀態(tài)輸入,以此應(yīng)對DRL在處理復(fù)雜自動駕駛?cè)蝿?wù)時的高計算負擔(dān)。為了解決DRL訓(xùn)練中出現(xiàn)的局部最優(yōu)和收斂速度慢的問題,引入了駕駛干預(yù)機制和基于駕駛員引導(dǎo)的經(jīng)驗回放機制,在訓(xùn)練初期和模型陷入局部最優(yōu)時進行駕駛干預(yù),以提升模型的學(xué)習(xí)效率和泛化能力。通過在交通路口左轉(zhuǎn)場景進行的實驗驗證,結(jié)果表明,在駕駛干預(yù)機制的幫助下,訓(xùn)練初期模型的性能提升加快,且模型陷入局部最優(yōu)時通過駕駛干預(yù),模型的性能進一步提升,且在復(fù)雜場景下提升更為明顯。

關(guān)鍵詞:自動駕駛;深度強化學(xué)習(xí);特征編碼;駕駛干預(yù);經(jīng)驗回放

中圖分類號:TP181 文獻標志碼:A 文章編號:1001-3695(2024)09-023-2732-05

doi:10.19734/j.issn.1001-3695.2024.01.0018

Human-machine interactive reinforcement learning method for autonomous driving based on PPO algorithm

Shi Gaosong,Zhao Qinghai,Dong Xin,He Jiahao,Liu Jiayuan

(College of Mechanical & Electrical Engineering,Qingdao University,Qingdao Shandong 266071,China)

Abstract:To address the high computational demands and slow convergence faced by DRL in the field of autonomous driving,this paper integrated VAE with PPO algorithm.By adopting VAE’s feature encoding technology,it effectively transformed semantic images obtained from the Carla simulator into state inputs,thus tackling the high computational load of DRL in handling complex autonomous driving tasks.To solve the issues of local optima and slow convergence in DRL training,it introduced a driving intervention mechanism and a driver-guided experience replay mechanism.These mechanisms applied driving interventions during the initial training phase and when the model encounters local optima,so as to enhance the model’s learning efficiency and generalization capability.Experimental validation,conducted in left-turn scenarios at intersections,shows that with the aid of the driving intervention mechanism,the model’s performance improves more rapidly in the initial training phase.Moreover,driving interventions when encountering local optima further enhance the model’s performance,with even more significant improvements observed in complex scenarios.

Key words:autonomous driving;deep reinforcement learning;feature encoding;driving intervention;experience replay

0 引言

DRL作為集深度學(xué)習(xí)與強化學(xué)習(xí)于一體的前沿技術(shù),在自動駕駛領(lǐng)域引起了廣泛的關(guān)注和應(yīng)用[1,2]。通過自動駕駛汽車與環(huán)境之間的交互學(xué)習(xí),使得自動駕駛汽車能夠自主優(yōu)化駕駛策略,從而在復(fù)雜、未知的交通環(huán)境中高效安全地駕駛[3,4]。

DRL通過智能體與環(huán)境的交互學(xué)習(xí),最大化累積獎勵以從經(jīng)驗中優(yōu)化駕駛策略[5]。Cui等人[6]使用改進的雙偏差經(jīng)驗回放方法,使汽車能夠選擇駕駛學(xué)習(xí)傾向,提升了自動駕駛的魯棒性。Yi等人[7]通過DQN方法實現(xiàn)了自動駕駛車輛的換道,提高了車輛在一定條件下自動駕駛模式的速度和穩(wěn)定性,但難以應(yīng)對復(fù)雜的環(huán)境。Tseng等人[8]使用自適應(yīng)的DDPG算法,以減少狀態(tài)行為值的過度估計,提高了駕駛經(jīng)驗的利用率。盡管DRL在處理復(fù)雜任務(wù)方面取得了良好的性能,但其與環(huán)境的交互效率相對較低[9]。使用強化學(xué)習(xí)來解決問題需要熟練的定義和設(shè)置,并消耗大量的計算資源[10]。鑒于人類在上下文理解和基于知識推理方面表現(xiàn)出的魯棒性和高適應(yīng)性,將人工指導(dǎo)與強化學(xué)習(xí)相結(jié)合是緩解上述缺點的一種方法[11,12]。

Li等人[13]提出了一種人在環(huán)強化學(xué)習(xí)方法下實現(xiàn)不需要獎勵功能的自動駕駛車輛控制。Huang等人[14]利用神經(jīng)網(wǎng)絡(luò)模型模仿人類行為,并對actor-critic網(wǎng)絡(luò)進行了模仿學(xué)習(xí)約束,該方法在無獎勵交通場景下的自動駕駛?cè)蝿?wù)中表現(xiàn)出色。Wu等人[15]通過評估人類指導(dǎo)相對于RL策略的優(yōu)勢,實現(xiàn)了從不完善的人類指導(dǎo)中學(xué)習(xí)的RL。然而,基于人類指導(dǎo)的方法需要處理大量來自自我探索的數(shù)據(jù),而現(xiàn)有方法尚未充分優(yōu)化人工指導(dǎo)數(shù)據(jù)的利用,仍需要大量人工工作來防止指導(dǎo)在探索數(shù)據(jù)中失效。

為解決上述問題,在DRL訓(xùn)練過程中動態(tài)地將駕駛員駕駛經(jīng)驗融入模型學(xué)習(xí)中。在模型學(xué)習(xí)階段,通過實時監(jiān)測模型學(xué)習(xí)效果并進行干預(yù)調(diào)整,利用駕駛員經(jīng)驗建立基于駕駛員引導(dǎo)的經(jīng)驗回放機制,使模型向理想狀態(tài)持續(xù)優(yōu)化。提高模型與環(huán)境的交互效率,同時保持DRL的探索功能,使模型不過分依賴專家駕駛經(jīng)驗,從而增強模型的可靠性和泛化性能。

1 算法實現(xiàn)

首先在Carla環(huán)境中收集語義圖像以訓(xùn)練VAE編碼器和解碼器。在模型訓(xùn)練過程中,將相機獲取的語義圖像經(jīng)過VAE編碼器特征編碼后和車輛的狀態(tài)信息作為模型的輸入。在訓(xùn)練過程中,通過監(jiān)測選取合適的人為干預(yù)時機,并將訓(xùn)練經(jīng)驗分開存儲。算法流程如圖1所示。

1.1 VAE算法

VAE算法是一種圖像特征編碼技術(shù)[15]。通過將高維輸入數(shù)據(jù)映射到潛在空間,并利用隨機采樣實現(xiàn)圖像的壓縮編碼。VAE結(jié)構(gòu)由編碼器和解碼器兩部分構(gòu)成。將語義圖像輸入編碼器,獲得其潛在表示z,通過解碼器將z轉(zhuǎn)換為重構(gòu)圖像。實現(xiàn)對圖像的編碼與解碼,降低語義信息狀態(tài)特征的空間維度。其數(shù)學(xué)表達式為

2 實驗驗證

駕駛干預(yù)通過外接駕駛設(shè)備實現(xiàn),實驗設(shè)備如表1所示。

通過對自動駕駛路口左轉(zhuǎn)場景的訓(xùn)練,并與表2算法對比,驗證提出算法的可行性和有效性。實驗地圖為Town07,為使模型能夠適應(yīng)多樣化的場景,在路口兩側(cè)分別隨機添加0~6個車輛,前后車輛間隔16 m放置,且車輛位于所在車道道路中心線位置,并將其設(shè)定為Carla的自動駕駛模式。

為使模型成功完成任務(wù),每個訓(xùn)練回合自車需要從起始位置出發(fā),保持在道路上,避免與任何障礙物碰撞,最終到達終點線(自車的橫坐標達到目標位置的橫坐標)。如果自車與道路邊界或其他交通參與者發(fā)生碰撞,則立即終止該回合,并重置環(huán)境生成障礙車輛,訓(xùn)練場景如圖2所示,紅色車輛為自車。將訓(xùn)練好的模型在圖3所示的6個左轉(zhuǎn)場景進行測試。

2.1 圖像獲取與預(yù)處理

在訓(xùn)練自動駕駛左轉(zhuǎn)任務(wù)前,需要先訓(xùn)練VAE編碼器和解碼器。手動駕駛汽車分別采樣10 000和2 000張語義圖像作為訓(xùn)練集和測試集。訓(xùn)練過程學(xué)習(xí)率調(diào)整規(guī)則如下:

τ=ξ(lold-l)(15)

其中:l和lold分別為當前時刻的損失函數(shù)和上一時期的損失函數(shù),設(shè)定10個訓(xùn)練回合為1個時期;ξ表示閾值系數(shù);τ為閾值。當τ大于學(xué)習(xí)率lr時,表明在當前學(xué)習(xí)率下模型沒有顯著改善。此時更新學(xué)習(xí)率為

lnewr=δlr(16)

VAE算法訓(xùn)練結(jié)果如圖4所示,根據(jù)學(xué)習(xí)率衰減規(guī)則,學(xué)習(xí)率表現(xiàn)出梯形下降的趨勢。隨著學(xué)習(xí)率的衰減,訓(xùn)練損失和測試損失也表現(xiàn)出相應(yīng)的減小趨勢,隨著學(xué)習(xí)率的降低這種趨勢逐漸減緩,且當學(xué)習(xí)率更新時損失值再次下降。隨著訓(xùn)練次數(shù)的增加,模型逐漸學(xué)習(xí)到訓(xùn)練數(shù)據(jù)的特征和分布,從而使得訓(xùn)練損失逐漸減小。在測試數(shù)據(jù)上進行驗證時,模型面臨著未曾見過的樣本,測試損失會高于訓(xùn)練損失。

在仿真環(huán)境中采集新的圖片,驗證編碼器的性能,如圖5所示。將圖像傳遞給編碼器進行壓縮編碼后,還原圖像的清晰度有所下降,但保留了環(huán)境的關(guān)鍵信息,如車道線和障礙物等重要元素。

2.2 對比實驗

訓(xùn)練初始階段,持續(xù)性干預(yù)80個回合,收集足夠的駕駛數(shù)據(jù),使模型在訓(xùn)練初期具有較好的學(xué)習(xí)經(jīng)驗。當模型性能接近駕駛員駕駛時(獎勵值達到設(shè)定的臨界條件),進行間歇性干預(yù)。當外接設(shè)備的輸入不全為0時視為駕駛干預(yù),否則為模型駕駛。訓(xùn)練過程的干預(yù)頻率如圖6所示。根據(jù)設(shè)定的駕駛規(guī)則,前80次的干預(yù)頻率接近1。當訓(xùn)練次數(shù)達到663時,模型的性能達到設(shè)定的臨界值,這時僅依靠起始給定的駕駛干預(yù)經(jīng)驗難以繼續(xù)提升模型的性能。一些極端的情況下,如路口多輛車正在通行,模型難以學(xué)習(xí)到最優(yōu)決策。此時,依賴駕駛員的經(jīng)驗指導(dǎo),使模型能夠作出更優(yōu)的決策。隨著訓(xùn)練次數(shù)的增加,模型的性能逐步提升,對駕駛員的依賴逐漸下降。

訓(xùn)練初期,Human-PPO模型處于駕駛干預(yù)狀態(tài)時具有較高的獎勵值(如圖7(a)所示)。當撤回干預(yù)時,由于Human-PPO具備優(yōu)質(zhì)的學(xué)習(xí)數(shù)據(jù),其獎勵值依然高于VAE-PPO和PPO模型。當Human-PPO模型的獎勵值達到設(shè)定的臨界位置時,進行間歇性干預(yù),模型的獎勵值繼續(xù)提高,最終達到高于駕駛員駕駛時的獎勵值,且高于VAE-PPO和PPO模型的獎勵值,表明人機交互式學(xué)習(xí)策略在自動駕駛強化學(xué)習(xí)中克服局部最優(yōu)的有效性。

VAE-PPO算法訓(xùn)練初期需要不斷探索收集駕駛經(jīng)驗,因此獎勵值初始狀態(tài)較低。隨著訓(xùn)練的進行,獎勵值不斷提高,當獎勵值達到280左右時,模型滿足于當前的狀態(tài),難以探索到更好的狀態(tài),獎勵值持續(xù)穩(wěn)定在280附近。PPO模型在420步時達到相對較好的性能,之后獎勵值在200~400波動。訓(xùn)練過程中,由于每回合場景的隨機性,若當前訓(xùn)練回合為圖3(a)所示場景,不存在干擾車輛,自車可以獲得最大的安全獎勵并保持目標車速行駛,若當前訓(xùn)練回合是圖3(b)~(e)場景時,由于場景中干擾車輛的復(fù)雜性不同,處于不同場景時獎勵值也波動較大,最終模型的獎勵值波動范圍較大。

當使用PPO算法時,模型在420步的獎勵值高于Human-PPO和VAE-PPO模型。由于使用原始圖像(160×80×3)相較于編碼后的圖像(95×1)內(nèi)存占用擴大了384倍,增加了計算資源的消耗,延長了模型的學(xué)習(xí)周期。如圖7(b)所示,從訓(xùn)練時間上看,PPO模型的訓(xùn)練進程顯著緩慢。對比而言,Human-PPO模型展現(xiàn)了最短的訓(xùn)練時間,表明將人工干預(yù)機制與VAE和PPO算法結(jié)合使用,在降低狀態(tài)空間維度、減少計算負擔(dān)、提升模型學(xué)習(xí)效率方面具有顯著優(yōu)勢。

Human-PPO模型駕駛干預(yù)初期,駕駛員能夠準確地找尋到目標位置,回合結(jié)束時距離目標位置的距離接近于0(圖7(c))。當撤回駕駛干預(yù),回合結(jié)束時,模型與目標點的距離迅速增加,但仍然低于無干預(yù)時與目標點的距離。當訓(xùn)練達到臨界條件實施間歇性干預(yù),隨著模型的訓(xùn)練,回合結(jié)束時,與目標點的距離呈減小的趨勢,Human-PPO模型距離目標點的距離穩(wěn)定在3附近,VAE-PPO穩(wěn)定在5附近。相較于編碼后的圖像作為輸入,由于PPO模型使用原始圖像作為輸入,對復(fù)雜場景的泛化性差,離目標點的距離波動較大。

圖8所示為模仿專家先驗的強化學(xué)習(xí)(imitative expert priors)與IEP-DRL[14]的對比,撤回持續(xù)性干預(yù)后IEP-DRL的獎勵值與Human-PPO接近,隨著訓(xùn)練的進行,Human-PPO算法的獎勵值逐漸高于IEP-DRL。由于訓(xùn)練前期模型的探索率比較高,難以比較出兩種算法的優(yōu)越性,隨著訓(xùn)練的進行,模型探索率下降,此時的獎勵值能夠準確反映兩種算法的訓(xùn)練情況。

圖9為模型在圖3測試場景中測試100回合的結(jié)果。當沒有其他交通參與者的情況下,各模型均能夠順利完成左轉(zhuǎn)任務(wù)。在復(fù)雜場景時,VAE-PPO模型的表現(xiàn)能力明顯下降,這主要是因為在復(fù)雜環(huán)境中,相比于模型自主探索而言,依賴駕駛員的引導(dǎo)來獲得最優(yōu)決策能夠取得更好的效果。PPO模型的成功率隨著場景復(fù)雜度的提高迅速下降,這表明經(jīng)VAE編碼后的圖像特征轉(zhuǎn)換對于提升模型的泛化性和魯棒性具有顯著作用。IEP-DRL算法在場景(f)下性能急劇下滑,表明模仿的專家策略在面對全新場景時魯棒性較差。

3 結(jié)束語

在自動駕駛模型的訓(xùn)練過程中加入駕駛干預(yù),使用了兩種不同的干預(yù)模式。在初始階段,采用手動駕駛方式積累的駕駛經(jīng)驗,能夠更快地將模型引導(dǎo)到正確的駕駛決策,避免了訓(xùn)練初期長時間的靜止狀態(tài)。這有助于模型更快地掌握有效的駕駛技能,對于模型的性能提升具有顯著作用,使模型在訓(xùn)練初期就具備較好的駕駛決策能力,從而加速學(xué)習(xí)過程。在模型接近駕駛員駕駛水平時,模型在一定程度上難以進一步提升性能。采用間歇性的干預(yù)調(diào)整策略,在必要時糾正模型的錯誤決策,幫助模型更好地適應(yīng)復(fù)雜的駕駛場景,模型的性能進一步提升。這表明駕駛干預(yù)對于克服性能瓶頸具有積極的作用。通過在DRL中引入駕駛干預(yù)機制,自動駕駛模型在訓(xùn)練過程中能夠更快、更有效地學(xué)習(xí)駕駛技能,提高在復(fù)雜駕駛情境下的性能表現(xiàn)。盡管駕駛干預(yù)在訓(xùn)練中有積極的影響,仍然需要注意一些潛在的挑戰(zhàn),例如,訓(xùn)練過程中實時的駕駛干預(yù)依賴于駕駛員的專業(yè)度,且連續(xù)的駕駛干預(yù)對駕駛員的靜力和體力也是一項挑戰(zhàn)。如何保留駕駛干預(yù)機制,而又不過于依賴駕駛員,將是后續(xù)研究的重點。

參考文獻:

[1]Isele D,Rahimi R,Cosgun A,et al.Navigating occluded intersections with autonomous vehicles using deep reinforcement learning[C]//Proc of IEEE International Conference on Robotics and Automation.Piscataway,NJ:IEEE Press 2018:2034-2039.

[2]許宏鑫,吳志周,梁韻逸.基于強化學(xué)習(xí)的自動駕駛汽車路徑規(guī)劃方法研究綜述[J].計算機應(yīng)用研究,2023,40(11):3211-3217.(Xu Hongxin,Wu Zhizhou,Liang Yunyi.Reinforcement learning auto drive system based on visual feature extraction[J].Application Research of Computers,2023,40(11):3211-3217.)

[3]陳越,焦朋朋,白如玉,等.基于深度強化學(xué)習(xí)的自動駕駛車輛跟馳行為建模[J].交通信息與安全,2023,41(2):67-75,102.(Chen Yue,Jiao Pengpeng,Bai Ruyu,et al.Modeling of car following behavior in autonomous vehicles based on deep reinforcement learning[J].Traffic Information and Safety,2023,41(2):67-75,102.)

[4]段續(xù)庭,周宇康,田大新,等.深度學(xué)習(xí)在自動駕駛領(lǐng)域應(yīng)用綜述[J].無人系統(tǒng)技術(shù),2021,4(6):1-27.(Duan Xuting,Zhou Yukang,Tian Daxin,et al.A review of the application of deep learning in the field of autonomous driving[J].Unmanned Systems Technology,2021,4(6):1-27.)

[5]趙星宇,丁世飛.深度強化學(xué)習(xí)研究綜述[J].計算機科學(xué),2018,45(7):1-6.(Zhao Xingyu,Ding Shifei.A review of research on deep reinforcement learning[J].Computer Science,2018,45(7):1-6.)

[6]Cui Jianping,Yuan Liang,He Li,et al.Multi-input autonomous driving based on deep reinforcement learning with double bias experience replay[J].IEEE Sensors Journal,2023,23(11):11253-11261.

[7]Yi Liming.Lane change of vehicles based on DQN[C]//Proc of the 5th International Conference on Information Science,Computer Technology and Transportation.Piscataway,NJ:IEEE Press,2020:593-597.

[8]Tseng K K,Yang Hong,Wang Haoyang,et al.Autonomous driving for natural paths using an improved deep reinforcement learning algorithm[J].IEEE Trans on Aerospace and Electronic Systems,2022,58(6):5118-5128.

[9]Neftci E O,Averbeck B B.Reinforcement learning in artificial and biological systems[J].Nature Machine Intelligence,2019,1(3):133-143.

[10]Littman M L.Reinforcement learning improves behaviour from evalua-tive feedback[J].Nature,2015,521(7553):445-451.

[11]Vecerik M,Hester T,Scholz J,et al.Leveraging demonstrations for deep reinforcement learning on robotics problems with sparse rewards[EB/OL].(2017-07-27)[2023-10-11].https://arxiv.org/abs/1707.08817.

[12]馮忠祥,李靖宇,張衛(wèi)華,等.面向人機共駕車輛的駕駛?cè)孙L(fēng)險感知研究綜述[J].交通信息與安全,2022,40(2):1-10.(Feng Zhongxiang,Li Jingyu,Zhang Weihua,et al.A review of research on driver risk perception for human-machine co driving vehicles[J].Traffic Information and Safety,2022,40(2):1-10.

[13]Li Quanyi,Peng Zhenghao,Zhou Bolei.Efficient learning of safe dri-ving policy via human-AI copilot optimization[EB/OL].(2022-02-17)[2023-10-11].https://arxiv.org/abs/2202.10341

[14]Huang Zhiyu,Wu Jingda,Lyu Chen.Efficient deep reinforcement learning with imitative expert priors for autonomous driving[J].IEEE Trans on Neural Networks and Learning Systems,2022,34(10):7391-7403.

[15]Wu Jingda,Huang Zhiyu,Huang Wenhui,et al.Prioritized experience-based reinforcement learning with human guidance for autonomous driving[J].IEEE Trans on Neural Networks and Learning Systems,2024,35(1):855-869.

[16]Ramachandran S,Horgan J,Sistu G,et al.Fast and efficient scene categorization for autonomous driving using VAEs[EB/OL].(2022-10-26)[2023-10-11].https://arxiv.org/abs/2210.14981.

[17]Schulman J,Wolski F,Dhariwal P,et al.Proximal policy optimization algorithms[EB/OL].(2017-07-20)[2023-10-11].https://arxiv.org/abs/1707.06347.

[18]Schaul T,Quan J,Antonoglou I,et al.Prioritized experience replay[EB/OL].(2015-11-18)[2023-10-11].https://arxiv.org/abs/1511.05952.

收稿日期:2024-01-03

修回日期:2024-03-14

基金項目:國家自然科學(xué)基金資助項目(52175236)

作者簡介:時高松(1998—),男,河南南陽人,碩士研究生,CCF會員,主要研究方向為自動駕駛路徑規(guī)劃(2022020464@qdu.edu.cn);趙清海(1985—),男,山東濰坊人,副教授,碩導(dǎo),博士,主要研究方向為輕量化車輛結(jié)構(gòu)設(shè)計;董鑫(1999—),男,山東濱州人,碩士研究生,主要研究方向為自動駕駛路徑規(guī)劃;賀家豪(2003—),男,濟寧嘉祥人,本科生,主要研究方向為自動駕駛路徑規(guī)劃;劉佳源(2004—),男,山東濰坊人,本科生,主要研究方向為自動駕駛路徑規(guī)劃.

类乌齐县| 东阳市| 镇沅| 南通市| 贵德县| 新龙县| 同江市| 遵义市| 麦盖提县| 福建省| 梅州市| 贡觉县| 丹凤县| 丰原市| 沈阳市| 招远市| 美姑县| 绥阳县| 汝州市| 新安县| 临朐县| 贵港市| 安阳市| 富裕县| 丰镇市| 石家庄市| 丰台区| 镇原县| 安乡县| 徐汇区| 临沧市| 大宁县| 丹巴县| 杭锦旗| 柳州市| 大洼县| 株洲市| 宣恩县| 长葛市| 六安市| 吉林市|