摘" 要: 對車道線實(shí)現(xiàn)準(zhǔn)確檢測是自動駕駛中的關(guān)鍵技術(shù)。針對現(xiàn)有的車道線檢測方法對復(fù)雜工況下的車道線檢測精度不足的問題,提出一個(gè)面向復(fù)雜場景下的車道線檢測模型。基于LaneNet網(wǎng)絡(luò)設(shè)計(jì)一種雙分支分割網(wǎng)絡(luò),利用網(wǎng)絡(luò)模型中的損失函數(shù)使圖像像素點(diǎn)占比提高,實(shí)現(xiàn)網(wǎng)絡(luò)參數(shù)的優(yōu)化。通過編碼器與解碼器結(jié)構(gòu)對車道線采樣,實(shí)現(xiàn)語義分割與車道線像素點(diǎn)嵌入分割;并通過自適應(yīng)DBSCAN聚類算法實(shí)現(xiàn)對鄰域半徑和最小樣本個(gè)數(shù)兩個(gè)參數(shù)的自主選擇,引入H?Net網(wǎng)絡(luò)中的圖像逆透視變換與車道線擬合實(shí)現(xiàn)檢測。最后,利用圖森數(shù)據(jù)集對所設(shè)計(jì)模型進(jìn)行驗(yàn)證。結(jié)果表明,所提出的車道線檢測模型有較高的精度,能實(shí)現(xiàn)復(fù)雜場景下的車道線檢測。
關(guān)鍵詞: 車道線檢測; 雙分支分割網(wǎng)絡(luò); 自動駕駛; 損失函數(shù); 網(wǎng)絡(luò)參數(shù)優(yōu)化; 編碼器; 解碼器
中圖分類號: TN911.23?34; U463.6; TP18" " " " " " " 文獻(xiàn)標(biāo)識碼: A" " " " " " " 文章編號: 1004?373X(2024)20?0087?08
Method of complex scene lane detection based on two?branch segmentation network
XU Xiao, ZHAO Huipeng, FAN Bowen, DUAN Min, LI Gang
(College of Automobile and Traffic Engineering, Liaoning University of Technology, Jinzhou 121001, China)
Abstract: The accurate detection of lane is a key technology in automatic driving. In allusion to the problem that the existing lane detection methods lack the accuracy of lane detection under complex working conditions, a lane detection model for complex scene is proposed. A two?branch segmentation network is designed based on LaneNet network. The loss function in the network model is used to improve the proportion of pixels in the image, so as to realize the optimization of network parameters. The encoder and decoder structures are used to realize the semantic segmentation of lane sampling and the embedding and segmentation of lane pixels. The adaptive DBSCAN clustering algorithm is used to realize the independent selection of the neighborhood radius and the minimum number of samples. The inverse perspective transformation of the image in H?Net network and lane fitting are introduced to realize the detection. The Tucson dataset is used to verify the designed model. The results show that the proposed lane detection model has higher accuracy and can realize the lane detection in complex scene.
Keywords: lane detection; two?branch segmentation network; automatic driving; loss function; network parameter optimization; encoder; decoder
0" 引" 言
車道線檢測是自動駕駛感知系統(tǒng)中的關(guān)鍵技術(shù),能夠準(zhǔn)確地實(shí)現(xiàn)車道線檢測,對提升自動駕駛的安全性有重要作用[1?3]。隨著人工智能技術(shù)的發(fā)展[4?5],基于深度學(xué)習(xí)的車道線檢測技術(shù)也取得了一些進(jìn)展。鄧天民等人提出一種基于改進(jìn)FCN的車道線實(shí)例分割檢測方法[6]。對輸入圖像采用壓縮的VGG16網(wǎng)絡(luò)進(jìn)行編碼,設(shè)計(jì)語義分割和嵌入分割雙分支實(shí)現(xiàn)多車道線分割解碼;通過DBSCAN算法聚類像素點(diǎn),應(yīng)用逆透視變換獲得俯視視角下的圖像;利用最小二乘法完成車道線像素點(diǎn)的擬合并還原回圖像,得出更加精確的車道線。胡序洋等人構(gòu)建主干網(wǎng)絡(luò)LaneNet,用于提取車道線特征信息并分割出車道線。為了提取到全局特征信息,使用多尺度空洞卷積特征融合網(wǎng)絡(luò),并加入混合注意力機(jī)制,該方法具有不錯的檢測精度[7]。張沖等人設(shè)計(jì)了一個(gè)基于編碼?解碼結(jié)構(gòu)的輕量級車道線分割網(wǎng)絡(luò),引入深度可分離卷積來替代普通卷積,以減少卷積運(yùn)算量。為了獲取更好的車道線特征表示能力,在編碼階段引入一種將空間注意力和通道注意力串聯(lián)的雙注意力機(jī)制模塊(CBAM),以提高車道線分割精度[8]。
綜上所述,基于深度學(xué)習(xí)的方法[5,9?12]進(jìn)行車道線檢測在一般的檢測工況下具有較高的檢測精度,但在相對復(fù)雜的檢測工況下(如車道線缺失、磨損、光照不足等),檢測精度不足。針對此問題,本文設(shè)計(jì)了一種面向復(fù)雜工況的車道線檢測模型。基于LaneNet網(wǎng)絡(luò)設(shè)計(jì)了雙分支分割網(wǎng)絡(luò),通過編碼器與解碼器結(jié)構(gòu)對車道線進(jìn)行采樣,實(shí)現(xiàn)語義分割與車道線像素點(diǎn)嵌入分割;對傳統(tǒng)密度算法進(jìn)行改進(jìn),實(shí)現(xiàn)自適應(yīng)聚類,利用另一個(gè)H?Net網(wǎng)絡(luò)中的圖像逆透視變換實(shí)現(xiàn)車道線擬合;最后在圖森數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),驗(yàn)證本文方法的優(yōu)越性。
1" LaneNet網(wǎng)絡(luò)模型結(jié)構(gòu)
本文基于LaneNet網(wǎng)絡(luò)進(jìn)行車道線檢測。該網(wǎng)絡(luò)對輸入圖像進(jìn)行車道線像素分割,將分割的像素點(diǎn)進(jìn)行聚類后,利用多項(xiàng)式擬合即可實(shí)現(xiàn)車道線檢測。具體LaneNet網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)如圖1所示,圖中解碼器結(jié)構(gòu)包括語義分割和車道線圖像像素點(diǎn)嵌入兩個(gè)分支,圖像在經(jīng)過不同分支網(wǎng)絡(luò)模型訓(xùn)練后會輸出分割圖,在分割圖中標(biāo)明每一條車道線上所被歸類的像素及其他車道線所被歸類的像素,通過對車道線位置的預(yù)測進(jìn)而實(shí)現(xiàn)對實(shí)際車道線的繪制,最后利用聚類處理實(shí)現(xiàn)車道線的實(shí)例分割。該網(wǎng)絡(luò)不僅能實(shí)現(xiàn)對前方車輛遮擋車道線情景下的檢測,而且在沒有明顯視覺的車道線特征路段,也能夠?qū)崿F(xiàn)對車道線位置的精準(zhǔn)預(yù)測。
LaneNet網(wǎng)絡(luò)車道線分割是一種采用二分支網(wǎng)絡(luò)融合的方法,其中LaneNet網(wǎng)絡(luò)分支將車道線檢測問題劃分成多個(gè)實(shí)例分割問題,在實(shí)現(xiàn)端到端學(xué)習(xí)的同時(shí),使每一條車道線都各自具有實(shí)例。H?Net網(wǎng)絡(luò)是LaneNet網(wǎng)絡(luò)增加訓(xùn)練樣本的新分支,該分支將對輸入樣本數(shù)據(jù)集進(jìn)行透視變換,使用透視變換矩陣對不同種類下的車道線實(shí)例像素分割進(jìn)行變換并投影到結(jié)果中,從而擬合出車道線,最終實(shí)現(xiàn)車道線檢測。
相比于其他深度學(xué)習(xí)網(wǎng)絡(luò)模型,LaneNet網(wǎng)絡(luò)在進(jìn)行車道線檢測時(shí)的優(yōu)勢主要體現(xiàn)在兩個(gè)方面:一方面是檢測網(wǎng)絡(luò)結(jié)構(gòu)采用二分支網(wǎng)絡(luò),能夠高效準(zhǔn)確地實(shí)現(xiàn)車道線的預(yù)測;另一方面,使用H?Net網(wǎng)絡(luò)架構(gòu)能夠?qū)斎霕颖具M(jìn)行透視變換,能夠?qū)ψ儞Q參數(shù)進(jìn)行預(yù)測估計(jì),從而解決顛簸路面工況下出現(xiàn)的檢測率低的問題。完整的LaneNet網(wǎng)絡(luò)結(jié)構(gòu)車道線檢測流程如圖2所示。
2" 分支網(wǎng)絡(luò)中編碼器?解碼器的設(shè)計(jì)
基于語義分割的車道線檢測分支網(wǎng)絡(luò)的編碼器?解碼器結(jié)構(gòu)如圖3所示。本文的網(wǎng)絡(luò)模型在對編碼器?解碼器設(shè)計(jì)時(shí),采用了大量的Bottleneck模塊。該模塊能夠高效解決梯度下降問題,并避免網(wǎng)絡(luò)模型退化消失現(xiàn)象,提高了網(wǎng)絡(luò)訓(xùn)練效率。殘差網(wǎng)絡(luò)模塊對通道數(shù)為256的特征圖進(jìn)行變換時(shí),需要采用兩個(gè)大小為3×3的卷積層進(jìn)行256通道數(shù)的卷積;而Bottleneck模塊是一種封閉卷積模塊,通過卷積核在不改變特征圖像素清晰度的前提下對輸入的特征圖像進(jìn)行維度變換,進(jìn)而實(shí)現(xiàn)網(wǎng)絡(luò)加速。圖中輸入特征圖為256通道,經(jīng)過卷積層后再進(jìn)行卷積下采樣,將特征圖還原。顯然,使用Bottleneck模塊可以減少網(wǎng)絡(luò)參數(shù)的使用量,效果優(yōu)于普通殘差網(wǎng)絡(luò)。
3" 車道線分割檢測
車道線分割主要分為語義分割與像素嵌入分割兩種,其中語義分割可以得到車道線二值化圖像,從而區(qū)分背景與車道線;像素嵌入分割則用于區(qū)分像素點(diǎn)被分割后隸屬于哪條車道,通過聚類對分支嵌入來實(shí)現(xiàn)融合。
3.1" 車道線語義分割
車道線語義分割是為了獲取車道線像素點(diǎn)隸屬程度,通過對輸入圖像車道線二值化處理后可以得到白色區(qū)域像素點(diǎn)代表車道線特征,黑色區(qū)域像素點(diǎn)代表背景。為方便后續(xù)網(wǎng)絡(luò)模型的預(yù)測,將間斷像素點(diǎn)連接成線,不僅避免了車道線輪廓特征被遮擋或殘缺等工況,而且確保了LaneNet網(wǎng)絡(luò)精準(zhǔn)分割車道線特征與背景信息。
語義分割網(wǎng)絡(luò)的編碼器?解碼器結(jié)構(gòu)如圖4所示。圖5為在不同結(jié)構(gòu)化道路下的車道線語義分割后車道線二值圖獲取結(jié)果。由圖5可知,基于深度學(xué)習(xí)的語義分割網(wǎng)絡(luò)在車道線特征被遮擋、磨損、缺失等不同工況下,都能夠準(zhǔn)確實(shí)現(xiàn)對車道線特征、位置信息的預(yù)測。該網(wǎng)絡(luò)對車道線像素點(diǎn)進(jìn)行提取后連接成線,得到二值化圖像,其中黑色背景代表除車道線之外的背景信息,白色線段表示原特征圖像中車道線信息,有利于提高車道線檢測的效率和準(zhǔn)確性。
3.2" 車道線像素嵌入分割
車道線像素嵌入分割是判斷被分割的車道線像素是否隸屬于同一車道,并將不同像素點(diǎn)對應(yīng)嵌入到車道線中。隸屬于同一條車道線的像素特征點(diǎn)距離車道線較近,反之,不隸屬于同一車道線的像素特征點(diǎn)距離車道線較遠(yuǎn)。因此,車道線像素嵌入分割同樣也由編碼器與解碼器構(gòu)成,具體結(jié)構(gòu)如圖6所示。
本文根據(jù)相同車道線的像素特征點(diǎn)距離車道線較近,不屬于相同車道線的像素特征點(diǎn)距離車道線較遠(yuǎn)這一原理進(jìn)行像素點(diǎn)嵌入,確定不同像素點(diǎn)隸屬于哪條車道線。車道線像素嵌入時(shí)所產(chǎn)生的損失由損失函數(shù)計(jì)算,損失函數(shù)由方差損失與距離損失構(gòu)成,公式如下:
[I1=1Q1WμQ-xi-δ12] (1)
[I2=1QQ-1Q1=1QQ2=1Q2δ2-μQ1-μQ22] (2)
[I=I1+I2] (3)
式中:[Q]表示車道線數(shù)量;[W]表示每條車道線像素點(diǎn)數(shù)量;[xi]表示初始像素點(diǎn)位置坐標(biāo);[μQ]表示不同車道線像素點(diǎn)嵌入坐標(biāo)的平均值;[δ1]表示方差閾值,用于減少類間距離,本文設(shè)置[δ1]為0.6;[δ2]表示距離閾值,用于增加類間距離,本文設(shè)置[δ2]為3;[μQ1]和[μQ2]表示兩條車道線的像素點(diǎn)坐標(biāo)平均值。
經(jīng)過上述編碼器與解碼器結(jié)構(gòu)可得到車道線嵌入分割結(jié)果,如圖7所示,圖中車輛在直線和曲線工況下,存在車道線缺失、遮擋及光照不足等缺失車道線特征的情景。由測試結(jié)果可知,本文基于深度學(xué)習(xí)的車道線像素嵌入分割能夠?qū)崿F(xiàn)對不同工況下的像素嵌入,分割準(zhǔn)確率高、魯棒性好。
4" 車道線分割結(jié)果聚類與擬合
完成對車道線語義分割與實(shí)例分割后,需要對車道線像素點(diǎn)信息進(jìn)行聚類,保證不同車道線像素點(diǎn)隸屬于同一車道線。由于不同車道線像素點(diǎn)疏密程度不相同且距離車道中心線較近,故本文采用自適應(yīng)DBSCAN聚類算法來完成對車道線的擬合。
4.1" 自適應(yīng)DBSCAN聚類算法
自適應(yīng)DBSCAN聚類算法是一種基于無人監(jiān)督的機(jī)器學(xué)習(xí),通過對鄰域半徑(Eps)和最小樣本個(gè)數(shù)(MinPts)兩個(gè)參數(shù)的輸入來進(jìn)行數(shù)據(jù)集中各種類的識別,不需要提前給定滿足參數(shù)條件且密度可達(dá)所有點(diǎn)的個(gè)數(shù)。對車道線像素特征點(diǎn)進(jìn)行提取后,本文通過設(shè)計(jì)的自適應(yīng)DBSCAN聚類算法進(jìn)行聚類,具體步驟如下。
步驟1:初始化核心對象集合,計(jì)算出每個(gè)樣本距離與樣本的對象密度后,再確定核心對象集合。
步驟2:將計(jì)算出的每個(gè)樣本對象密度進(jìn)行排序并標(biāo)記為未訪問對象,依次按照排好的對象密度順序設(shè)置未訪問樣本。
步驟3:初始化未訪問樣本集合與聚類簇?cái)?shù),通過將當(dāng)前獲取的鄰域半徑(Eps)與最小樣本個(gè)數(shù)(MinPts)兩個(gè)值作為參數(shù),隨機(jī)選取一個(gè)核心對象并初始化序列后,將其周邊樣本納入并標(biāo)記為已訪問。
步驟4:循環(huán)步驟3中對鄰域半徑(Eps)與最小樣本個(gè)數(shù)(MinPts)兩個(gè)值作為參數(shù)的獲取,對周邊樣本納入進(jìn)行不間斷訪問,并隨機(jī)抽取一個(gè)核心對象作為首個(gè)樣本進(jìn)行條件判斷,若滿足要求就將其填入,不斷循環(huán)直到所有樣本均已被訪問則停止,最后進(jìn)行合并相交簇。
車道線自適應(yīng)DBSCAN聚類算法能夠?qū)④嚨谰€特征區(qū)分開,但由于彎道過程中,車道線的曲率過大會導(dǎo)致檢測時(shí)出現(xiàn)漏檢的情況,從而影響檢測準(zhǔn)確精度。本文通過自適應(yīng)密度算法改進(jìn)后檢測是將整個(gè)車道線的圖形紋理特征與車道線位置信息相結(jié)合,未采用自適應(yīng)聚類算法的車道線檢測網(wǎng)絡(luò)對車道線像素點(diǎn)進(jìn)行聚類比較困難,而經(jīng)過自適應(yīng)聚類算法的車道線檢測網(wǎng)絡(luò)能夠?qū)④嚨谰€形狀、亮度和位置信息進(jìn)行融合,進(jìn)而獲取僅包含車道線像素點(diǎn)的區(qū)域,再將不同的車道線像素點(diǎn)聚類后以不同顏色輸出,具體聚類效果如圖8所示。
4.2" 逆透視變換的車道線擬合
路面平度不夠時(shí)會使遠(yuǎn)處點(diǎn)信息丟失,從而影響車道線擬合精度。為了解決該問題,本文設(shè)計(jì)一種基于損失函數(shù)的H?Net神經(jīng)網(wǎng)絡(luò)。該網(wǎng)絡(luò)通過端到端優(yōu)化實(shí)現(xiàn)了對逆透視變換矩陣參數(shù)的預(yù)測,并以車道線特征圖作為輸入條件進(jìn)行預(yù)測,確保了在地面陡峭情景下網(wǎng)絡(luò)模型能夠?qū)δ孀儞Q矩陣參數(shù)進(jìn)行調(diào)整,提高了車道線擬合精度。本文采用的可變換矩陣H具有6個(gè)自由度,為了保證在變換過程中水平方向能夠保持不變,將可變換矩陣H中部分參數(shù)設(shè)置為0進(jìn)行條件約束,具體如式(4)所示。
[H=abc0de0f1] (4)
該神經(jīng)網(wǎng)絡(luò)架構(gòu)主要包括窗口大小為3×3、步長為2的卷積核、歸一化層與激活函數(shù)層,通過最大值池化層操作減小網(wǎng)絡(luò)模型大??;最后使用兩個(gè)全連接層,通過圖像逆透視變換得到俯視車道線特征圖,生成變換后的車道線像素點(diǎn)。具體逆透視變換公式如下:
[u'=Hu] (5)
式中:[u']表示逆透視變換后的車道線像素點(diǎn),[u′i=[X′i,Y′i,1]∈u',i=1,2,…];[u]表示實(shí)際車道線像素點(diǎn),[ui=[Xi,Yi,1]T],其中[Xi]表示實(shí)際車道線像素點(diǎn)的橫坐標(biāo),[Yi]表示實(shí)際車道線像素點(diǎn)的縱坐標(biāo)。將實(shí)際車道線像素點(diǎn)[ui=[xi,yi,1]T]轉(zhuǎn)換為[u′i=[x′i,y′i,1]T],在任意一個(gè)[y′i]位置處預(yù)測車道線像素點(diǎn)與坐標(biāo)[u′i*=(x′i*,y′i*)],通過使用多項(xiàng)式擬合得到預(yù)測車道線像素點(diǎn)[u′i*],以三階多項(xiàng)式和最小二乘法擬合預(yù)測車道線像素點(diǎn),具體如式(6)所示。
[f(y')=αy'2+βy'+γw=(KTK)-1KTx'] (6)
式中:[w=[α,β,γ]]表示最小二乘法函數(shù);[α]、[β]、[γ]表示給定參數(shù);T表示矩陣的轉(zhuǎn)置;[x'=[x′1,x′2,…,x′n]]為透視變換車道線像素點(diǎn)[p']的橫坐標(biāo)組合;[y'=[y′1,y′2,…,y′n]]表示可變參數(shù)矩陣透視變換車道像素點(diǎn)[p']縱坐標(biāo)組合。
采用最小二乘法的矩陣公式如下:
[P=y′21x′1x′3???y′2ny′n1] (7)
采用[p′Δi=[x′Δi,y′Δi,1]]預(yù)測擬合的車道線像素點(diǎn),利用聚類損失函數(shù)將車道線實(shí)例分割及擬合的預(yù)測車道像素點(diǎn)經(jīng)過逆透視變換投影到實(shí)際車道線圖像中,得到最后的檢測結(jié)果。聚類損失函數(shù)的透視變換公式如下:
[pΔi=H-1p′Δi] (8)
式中:[pΔi=[xΔi,yΔi,1]T]表示投影到輸入車道線圖像中的像素點(diǎn);[p′Δi=[x′Δi,y′Δi,1]T]表示預(yù)測車道線像素點(diǎn);[H-1]表示透視變換矩陣。
在實(shí)際道路中最常見的車道線主要包括直線與曲線兩種,但由于道路環(huán)境復(fù)雜多變,會導(dǎo)致大曲率彎道工況下的擬合效果變差。本文為解決上述問題,利用已檢測出的相鄰車道特征點(diǎn)的線性變化判斷是直線還是曲線,當(dāng)相鄰車道線特征點(diǎn)變化過小時(shí)可判斷其為直線,反之變化過大時(shí)則為曲線。直線工況下本文選擇最小二乘法擬合車道線,具體表達(dá)式如式(9)所示。
[Q=i=1naxi+b-yi2] (9)
式中Q表示偏差平方。
對于曲線工況,本文選擇三次曲線擬合方程,具體公式如式(10)所示。
[f(x)=a+bx+c2x2+ d6x3] (10)
5" 實(shí)驗(yàn)結(jié)果與分析
本文采用車道線檢測公開數(shù)據(jù)集——圖森數(shù)據(jù)集對所提出的模型進(jìn)行驗(yàn)證,在LaneNet網(wǎng)絡(luò)模型訓(xùn)練中,雙分支網(wǎng)絡(luò)訓(xùn)練時(shí)的車道線嵌入維度為4,將車道線圖像尺寸調(diào)整為512×256,選擇大小為9的批量,網(wǎng)絡(luò)模型學(xué)習(xí)率為0.000 5的Adam訓(xùn)練網(wǎng)絡(luò),直到網(wǎng)絡(luò)模型收斂結(jié)束。本文實(shí)現(xiàn)環(huán)境感知的實(shí)驗(yàn)硬件設(shè)備是Intel[?] CoreTM i7?8750HCPU 2.20 GHz處理器,NVIDIA GeForce GTX型號8 GB內(nèi)存的顯卡,軟件環(huán)境為Windows 10系統(tǒng),算法的實(shí)現(xiàn)與測試基于Python 3.6版本,該訓(xùn)練框架環(huán)境為Anaconda?TensorFlow?GPU。
本文采用LaneNet網(wǎng)絡(luò)模型進(jìn)行車道線分割,設(shè)計(jì)一種雙分支分割網(wǎng)絡(luò)的算法,利用網(wǎng)絡(luò)模型中的損失函數(shù)使圖像像素點(diǎn)占比提高,實(shí)現(xiàn)網(wǎng)絡(luò)參數(shù)的優(yōu)化更替;通過編碼器與解碼器結(jié)構(gòu)對車道線采樣,實(shí)現(xiàn)語義分割與車道線像素點(diǎn)嵌入分割;通過自適應(yīng)DBSCAN聚類算法實(shí)現(xiàn)對鄰域半徑和最小樣本個(gè)數(shù)兩個(gè)參數(shù)的自主選擇;引入H?Net網(wǎng)絡(luò)中的圖像逆透視變換與車道線擬合實(shí)現(xiàn)檢測。對結(jié)構(gòu)化道路復(fù)雜工況下的車道線檢測結(jié)果如圖9和圖10所示。
由圖9、圖10可以看出,本文所提出的車道線檢測模型在車道線特征缺失、車道線破損不清、車輛遮擋車道線等復(fù)雜場景下都能夠?qū)崿F(xiàn)對雙車道、多車道的檢測。不同檢測算法結(jié)果對比如表1所示。
由表1可知,本文基于深度學(xué)習(xí)的LaneNet網(wǎng)絡(luò)通過自適應(yīng)DBSCAN算法聚類對其進(jìn)行逆透視變換,車道線擬合后所測試的算法準(zhǔn)確率為96.5%,相對于ENet與ResNet等傳統(tǒng)識別算法,在誤檢率與漏檢率等方面都有極大提升,準(zhǔn)確率方面也明顯優(yōu)于其他算法。由此可見,本文模型不僅網(wǎng)絡(luò)結(jié)構(gòu)穩(wěn)定性好,而且準(zhǔn)確率高、魯棒性好,能夠滿足多車道工況下的車道線檢測。
6" 結(jié)" 論
本文利用深度學(xué)習(xí)方法設(shè)計(jì)一種雙分支分割網(wǎng)絡(luò)的算法,通過編碼器與解碼器結(jié)構(gòu)對車道線進(jìn)行采樣,實(shí)現(xiàn)語義分割與車道線像素點(diǎn)嵌入分割;并對傳統(tǒng)密度算法進(jìn)行改進(jìn),實(shí)現(xiàn)自適應(yīng)聚類;利用另一個(gè)H?Net網(wǎng)絡(luò)中的圖像逆透視變換實(shí)現(xiàn)車道線擬合。使用圖森數(shù)據(jù)集中不同工況下的道路環(huán)境對算法進(jìn)行訓(xùn)練驗(yàn)證,然后與其他算法進(jìn)行比較來驗(yàn)證本文算法的有效性。
結(jié)果表明,本文算法識別準(zhǔn)確率為96.5%,漏檢率僅為0.019,說明該算法能夠滿足檢測需求,并實(shí)現(xiàn)復(fù)雜場景下的車道線檢測。
注:本文通訊作者為徐肖。
參考文獻(xiàn)
[1] 高揚(yáng),王晨,李昭健.基于深度學(xué)習(xí)的無人駕駛汽車車道線檢測方法[J].科學(xué)技術(shù)與工程,2021,21(24):10401?10406.
[2] 黃艷國,鐘勇,夏金龍.基于自適應(yīng)透視變換與特征融合的車道線檢測方法[J].科學(xué)技術(shù)與工程,2022,22(32):14298?14305.
[3] 武志斐,李守彪.基于實(shí)例分割的車道線檢測算法[J].汽車工程,2023,45(2):263?272.
[4] 李守彪,武志斐.基于多尺寸分解卷積的車道線檢測[J].汽車技術(shù),2022(8):32?37.
[5] LEE D H, LIU J L. End?to?end deep learning of lane detection and path prediction for real?time autonomous driving [J]. Signal, image and video processing, 2023, 17(1): 199?205.
[6] 鄧天民,蒲龍忠,萬橋.改進(jìn)FCN的車道線實(shí)例分割檢測方法[J].計(jì)算機(jī)工程與設(shè)計(jì),2022,43(10):2935?2943.
[7] 胡序洋,高尚兵,汪長春,等.LaneSegNet:一種高效的車道線檢測方法[J].南京信息工程大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,14(5):551?558.
[8] 張沖,黃影平,郭志陽,等.基于語義分割的實(shí)時(shí)車道線檢測方法[J].光電工程,2022,49(5):26?37.
[9] DONG Y Q, PATIL S, AREM B, et al. A hybrid spatial?temporal deep learning architecture for lane detection [J]. Computer?aided civil and infrastructure engineering, 2023, 38(1): 67?86.
[10] BAEK S W, KIM M J, SUDDAMALLA U, et al. Real?time lane detection based on deep learning [J]. Journal of electrical engineering amp; technology, 2022(17): 655?664.
[11] ZAKARIA N J, SHAPIAI M I, ABD GHANI R, et al. Lane detection in autonomous vehicles: a systematic review [J]. IEEE access, 2023, 11: 3729?3765.
[12] LI S B, WU X, WU Z F. Efficient multi?lane detection based on large?kernel convolution and location [J]. IEEE access, 2023, 11: 58125?58135.
[13] 蔡創(chuàng)新,鄒宇,潘志庚,等.基于多特征融合和窗口搜索的新型車道線檢測算法[J].江蘇大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,44(4):386?391.
作者簡介:徐" 肖(1989—),男,山東人,碩士研究生,講師,研究方向?yàn)橹悄芷囮P(guān)鍵技術(shù)。
DOI:10.16652/j.issn.1004?373x.2024.20.014
引用格式:徐肖,趙會鵬,范博文,等.基于雙分支分割網(wǎng)絡(luò)的復(fù)雜環(huán)境車道線檢測方法[J].現(xiàn)代電子技術(shù),2024,47(20):87?94.
收稿日期:2024?04?10" " " " " "修回日期:2024?05?13
基金項(xiàng)目:國家自然科學(xué)基金項(xiàng)目(51675257);國家自然科學(xué)基金青年基金項(xiàng)目(51305190);遼寧省教育廳基本科研項(xiàng)目(面上項(xiàng)目)
(LJKMZ20220976);遼寧省自然科學(xué)基金指導(dǎo)計(jì)劃項(xiàng)目(20180550020)