国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)Faster R-CNN的二維圖紙中建筑構(gòu)件識(shí)別方法

2021-11-10 11:00:56趙云凡鄧雪原
關(guān)鍵詞:圖紙構(gòu)件圖像

周 權(quán), 趙云凡, 鄧雪原,2

(1. 上海交通大學(xué) 船舶海洋與建筑工程學(xué)院, 上海 200240; 2. 上海市公共建筑和基礎(chǔ)設(shè)施數(shù)字化運(yùn)維重點(diǎn)實(shí)驗(yàn)室, 上海 200240)

自2010年以來(lái),建筑業(yè)增加值占國(guó)內(nèi)生產(chǎn)總值的比例穩(wěn)定在7%左右,進(jìn)入了緩慢發(fā)展階段。2019年,我國(guó)建筑業(yè)房屋竣工面積約40.24億m2,同比下降2.69%,連續(xù)三年負(fù)增長(zhǎng)[1],間接反映了既有建筑的占比不斷擴(kuò)大。然而既有建筑的運(yùn)維管理階段能源消耗巨大。據(jù)統(tǒng)計(jì),建筑業(yè)的原材料和能源需求占比超過(guò)40%,溫室氣體的排放量占1/3[2],而絕大部分的消耗來(lái)源于運(yùn)維管理階段。另外,我國(guó)的既有建筑普遍面臨著資源浪費(fèi)嚴(yán)重、環(huán)境負(fù)面影響大、工作生活環(huán)境不能滿足需求等問(wèn)題。在“十三五規(guī)劃”期間,我國(guó)著力推行供給側(cè)結(jié)構(gòu)性改革,致力從過(guò)去簡(jiǎn)單的增量發(fā)展模式逐漸向存量更新與運(yùn)營(yíng)的模式轉(zhuǎn)變[3]。因此,為了降低運(yùn)維管理階段的能源消耗,滿足綠色環(huán)保和節(jié)能減排的需求,亟需找到有效的方式,通過(guò)提高運(yùn)維管理的效率以解決既有建筑的當(dāng)前難題。

目前絕大部分的既有建筑是基于紙質(zhì)的二維圖紙進(jìn)行設(shè)計(jì)和建造的,產(chǎn)生的數(shù)據(jù)有限,僅適用于傳統(tǒng)的運(yùn)維管理方式。該方式的手段、理念、工具比較單一,必須依靠各種數(shù)據(jù)表單來(lái)進(jìn)行管理,導(dǎo)致數(shù)據(jù)庫(kù)與圖紙之間的各種信息相互割裂[4],容易出現(xiàn)溝通滯后和“信息孤島”現(xiàn)象。建筑信息模型(Building Information Model,BIM)[5]技術(shù)的出現(xiàn)為解決當(dāng)前既有建筑所面臨的問(wèn)題提供了可行的方案。BIM作為建筑信息數(shù)字化產(chǎn)物,整合了各個(gè)階段所需要的大量數(shù)據(jù),便于管理與使用,并支持各方進(jìn)行信息共享,可有效地提高建筑業(yè)的信息化程度[6]。

然而,既有建筑BIM的手工重建是一項(xiàng)費(fèi)時(shí)費(fèi)力且經(jīng)濟(jì)效益低的工作,主要原因在于數(shù)據(jù)采集需要付出很大的努力,并且在復(fù)雜的數(shù)據(jù)輸入和建模過(guò)程中容易出現(xiàn)人為錯(cuò)誤,在模型精確度上也難以保證。鑒于此,本文提出一種新的解決方案:基于改進(jìn)的Faster R-CNN (Faster Region Convolutional Neural Network)目標(biāo)檢測(cè)算法實(shí)現(xiàn)二維圖紙中建筑構(gòu)件信息的自動(dòng)提取,提高數(shù)據(jù)采集的效率,從而克服數(shù)據(jù)采集階段耗時(shí)耗力的難題。

1 國(guó)內(nèi)外研究現(xiàn)狀

既有建筑的模型快速重建方法一直以來(lái)都是人工智能在土木工程應(yīng)用的研究熱點(diǎn)[7]。當(dāng)前的研究工作主要聚焦于非接觸式技術(shù),如激光掃描[8]和攝影測(cè)量[9]。

激光掃描可以在很短時(shí)間內(nèi)收集到數(shù)以百萬(wàn)計(jì)的點(diǎn),用來(lái)描述建筑的形狀和內(nèi)部空間,最后利用數(shù)據(jù)建立三維場(chǎng)景模型[10]。這種技術(shù)具備數(shù)據(jù)獲取速度快、數(shù)據(jù)量大、傳輸方便等優(yōu)勢(shì)[11]。而基于攝影測(cè)量的三維模型重建技術(shù)的核心是利用飛行器拍攝高分辨率圖像,經(jīng)過(guò)一定的處理后生成三維模型,具有數(shù)據(jù)采集速度快、紋理信息豐富、測(cè)量位置信息豐富等優(yōu)點(diǎn),并且可以隨時(shí)進(jìn)行測(cè)量[12]。然而,攝影測(cè)量和激光掃描均存在一些局限性。這兩類技術(shù)在建模過(guò)程中往往需要耗費(fèi)大量的時(shí)間、購(gòu)買昂貴的設(shè)備以及培訓(xùn)熟練的工人,高成本是阻礙技術(shù)推廣的主要原因[13]。其次,激光掃描生成的點(diǎn)云模型經(jīng)常出現(xiàn)噪點(diǎn)多、數(shù)據(jù)丟失嚴(yán)重等弊端,并且處理噪點(diǎn)的過(guò)程繁瑣而耗時(shí)[14]。最后,激光掃描只能獲得表面的幾何信息,無(wú)法得到建筑的拓?fù)湫畔⒑驼Z(yǔ)義信息[7]。而攝影測(cè)量則受限于細(xì)節(jié)層次低,通常只能獲取建筑外立面元素[15]。

目前,以建筑文檔資料為研究對(duì)象的研究也越來(lái)越多,該方法能夠更好地平衡成本與精度之間的關(guān)系,不僅能得到建筑元素的幾何信息,還能提取一定的拓?fù)湫畔⒑驼Z(yǔ)義信息[16]。例如,Yin等[17]綜述了基于二維掃描圖和CAD圖紙生成三維模型的方法,總結(jié)了建模的一般步驟——圖像解析和三維模型生成,提出各步驟所使用的算法,但未進(jìn)行驗(yàn)證。Lu等[13]介紹了一種基于CAD圖紙的半自動(dòng)識(shí)別方法,先利用OCR(Optical Character Recognition)技術(shù)識(shí)別平面圖中的特殊符號(hào)以確定結(jié)構(gòu)構(gòu)件的位置,再利用MATLAB開(kāi)發(fā)的算法來(lái)實(shí)現(xiàn)構(gòu)件信息的提取,最后通過(guò)案例驗(yàn)證其有效性。但該方法存在明顯的局限性:需較多的人工干預(yù),無(wú)法實(shí)現(xiàn)構(gòu)件信息的自動(dòng)化提?。蛔R(shí)別準(zhǔn)確度不高;Gimenez等[18]提出了基于霍夫變換和模式識(shí)別提取建筑構(gòu)件(墻壁、開(kāi)口和空間)信息的方法,在一定程度上減少了人工干預(yù)。此方法涵蓋圖像預(yù)處理、特征提取、模式識(shí)別和模型建立的全過(guò)程,最后還包含模型的驗(yàn)證階段。然而,此方法的模式識(shí)別必須基于一定的假設(shè)條件,只能識(shí)別特定的線條,且識(shí)別的構(gòu)件種類是有限的。此外,該文章只涉及幾何信息的提取。可以看出,上述研究主要依靠簡(jiǎn)單算法來(lái)識(shí)別建筑元素,效率低且準(zhǔn)確性不高。另外,該類識(shí)別算法自動(dòng)化程度低,識(shí)別后的結(jié)果仍需要大量手工干預(yù)。

基于此,本研究從二維建筑平面圖展開(kāi),針對(duì)二維圖紙中小目標(biāo)檢測(cè)的難點(diǎn)問(wèn)題,改進(jìn)了Faster R-CNN目標(biāo)檢測(cè)算法,使其更適用于圖紙中建筑構(gòu)件的目標(biāo)識(shí)別,從而在識(shí)別軸網(wǎng)、墻、門和窗等小目標(biāo)構(gòu)件時(shí)更具有先進(jìn)性和魯棒性。首先采用ResNet-101網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò),避免因池化層過(guò)多而造成特征信息丟失嚴(yán)重;再通過(guò)改進(jìn)錨框、改進(jìn)非極大值抑制算法等方式降低模型的漏檢率,提高識(shí)別的準(zhǔn)確率;最后進(jìn)行案例研究,通過(guò)多策略對(duì)比分析證明了改進(jìn)方法的先進(jìn)性。另外,在文本信息的識(shí)別方面,提出了OCR技術(shù)識(shí)別的一般步驟,也提高了文本信息識(shí)別的準(zhǔn)確性。

2 研究方法

2.1 圖像預(yù)處理

實(shí)際上,建筑平面圖包含大量的混亂信息或建筑構(gòu)件提取過(guò)程中的無(wú)關(guān)信息,這些信息會(huì)增加識(shí)別難度。圖像預(yù)處理的目的是為了消除由掃描本身引起的噪聲和清理冗雜數(shù)據(jù)并達(dá)到后續(xù)階段所需的圖像質(zhì)量級(jí)別以及提高識(shí)別效率,如去除背景網(wǎng)格、標(biāo)題和多余的注釋等。圖像二值化利用Python調(diào)用THRESH_BINARY全局閾值函數(shù)。

2.2 建筑構(gòu)件目標(biāo)識(shí)別算法結(jié)構(gòu)

基于候選區(qū)域的雙步驟框架目標(biāo)檢測(cè)方法的針對(duì)性更強(qiáng)、識(shí)別準(zhǔn)確性更高[19]。該方法將目標(biāo)檢測(cè)分為兩步,先確定候選區(qū)域以提取圖片中可能存在的感興趣區(qū)域(Region of Interest,RoI),將所有的RoI作為輸入,使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,再進(jìn)行檢測(cè)分類和邊框回歸修正。作為雙步驟目標(biāo)檢測(cè)的代表,F(xiàn)aster R-CNN提出了可生成候選區(qū)域的區(qū)域建議網(wǎng)絡(luò)(Region Proposal Network,RPN),并使Faster R-CNN和RPN共享基礎(chǔ)卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)端到端的檢測(cè),在開(kāi)源的Pascol VOC數(shù)據(jù)集上驗(yàn)證了其在速度和精度方面的先進(jìn)性,并且可用于復(fù)雜圖像的特征提取[20]。因此,本文選用Faster R-CNN進(jìn)行建筑構(gòu)件的目標(biāo)檢測(cè),并使用ResNet-101代替?zhèn)鹘y(tǒng)的VGG-16進(jìn)行特征提取,基于ResNet-101的Faster R-CNN的基本框架如圖1所示。

2.2.1 ResNet-101網(wǎng)絡(luò)

傳統(tǒng)的Faster R-CNN配備VGG-16網(wǎng)絡(luò)作為特征提取過(guò)程的共享卷積神經(jīng)網(wǎng)絡(luò),在高像素、大目標(biāo)檢測(cè)領(lǐng)域已經(jīng)表現(xiàn)出了優(yōu)越性。然而,在面對(duì)低像素、小目標(biāo)時(shí),該網(wǎng)絡(luò)的檢測(cè)效果仍不理想[21]。VGG-16網(wǎng)絡(luò)每經(jīng)過(guò)一次卷積都需要進(jìn)行一次池化,而池化層會(huì)將輸入圖像的尺寸壓縮50%,這意味著特征圖像素將會(huì)逐漸遞減,導(dǎo)致在深層次特征圖中小目標(biāo)的信息內(nèi)容很少,因此該網(wǎng)絡(luò)不適用于小目標(biāo)的檢測(cè)項(xiàng)目。

一般情況下,網(wǎng)絡(luò)越深,包含的信息和特征越豐厚。但實(shí)驗(yàn)表明,隨著網(wǎng)絡(luò)的加深,分類器的效果反而會(huì)越差,這是由梯度消失和梯度爆炸所引起的[22]。ResNet網(wǎng)絡(luò)引入了殘值塊和“跳躍連接”的核心思想,所提供的思路是在所有的普通網(wǎng)絡(luò)中每n層增加一個(gè)“跳躍連接”,構(gòu)成m個(gè)殘值塊,ResNet則由這m個(gè)殘值塊構(gòu)成。在小目標(biāo)的檢測(cè)過(guò)程中,ResNet能通過(guò)“跳躍連接”保留更多淺層網(wǎng)絡(luò)的細(xì)節(jié)信息[23]。ResNet-101的殘值塊結(jié)構(gòu)如圖2所示。核心3×3卷積層先利用1×1卷積層降維以減少參數(shù),再使用1×1卷積層以恢復(fù)維數(shù),不僅保持了精度還減少了計(jì)算量[22]。

圖2 ResNet-101的殘值塊結(jié)構(gòu)

2.2.2 算法的改進(jìn)及優(yōu)化

(1)改進(jìn)錨框(Anchors)

Anchors是定義在RPN網(wǎng)絡(luò)按固定比例(寬度、大小)的預(yù)定義框。在遍歷特征圖的過(guò)程中,默認(rèn)情況下為每個(gè)點(diǎn)都配備了9種Anchors作為初試的檢測(cè)框。Anchors的初始框大小為(8,16,32),由于二維圖紙中建筑構(gòu)件均為小目標(biāo),在這種情況下容易引起小目標(biāo)的信息丟失,影響識(shí)別的準(zhǔn)確率。大尺寸的Anchors使用效率還造成了一定的浪費(fèi)。因此,針對(duì)建筑構(gòu)件的檢測(cè),可適當(dāng)降低初始Anchors的大小。

(2)改進(jìn)非極大值抑制(NMS)算法

在同一張建筑圖中,建筑構(gòu)件之間可能會(huì)存在較多重疊的情況,從而導(dǎo)致感興趣區(qū)域之間可能存在很大部分相互重疊。因此,RPN網(wǎng)絡(luò)最后的卷積特征層滑動(dòng)生成的9種Anchor容易出現(xiàn)相互重疊的情況。采用非極大值抑制的目的是剔除冗余框,避免損失函數(shù)值的多重計(jì)算[24]。經(jīng)典非極大值抑制算法的實(shí)現(xiàn)過(guò)程:在邊框回歸的過(guò)程中,計(jì)算所有RoI的置信度,并以降序的方式排列;取置信度最大的RoI,計(jì)算此RoI與其他所有邊框的交并比(Intersection over Union,IoU);若大于既定閾值,則舍棄該邊框;循環(huán)上述步驟,直至遍歷所有RoI。這種不具備彈性的算法容易造成目標(biāo)的漏檢。另一方面,NMS((Non-Max Suppression)的閾值也不太容易確定,閾值太小會(huì)出現(xiàn)漏檢,設(shè)置過(guò)高又容易增大誤檢[25]。針對(duì)上述問(wèn)題,提出改進(jìn)的NMS算法,在原始NMS的基礎(chǔ)上引入線性懲罰機(jī)制,加入彈性系數(shù)K,降低IoU大于既定閾值的置信度,IoU越大則懲罰力度越大。計(jì)算公式為:

(1)

IoU(bi,bj)=Am/(Abi+Abj)

(2)

式中:si為當(dāng)前RoI的置信得分;K為彈性系數(shù),0

2.2.3 評(píng)價(jià)指標(biāo)

(1)精確率(Precision)和召回率(Recall)

精確率是指某類被正確檢測(cè)出來(lái)的建筑構(gòu)件占所有被識(shí)別為該類建筑構(gòu)件的比例。召回率反映的是某類被正確檢測(cè)出來(lái)的建筑構(gòu)件占該類被檢測(cè)建筑構(gòu)件的比例。

Precision=TP/(TP+FP)

(3)

Receall=TP/(TP+FN)

(4)

式中:TP為正確檢測(cè)出來(lái)的建筑構(gòu)件數(shù)量;FP為背景被檢測(cè)為建筑構(gòu)件的數(shù)量;FN為建筑構(gòu)件被識(shí)別為背景的數(shù)量。

(2)平均精準(zhǔn)度(Average Precision,AP)和所有類別的平均精準(zhǔn)度(mean AP,mAP)

AP指Precision-Recall 曲線與x,y軸所圍成的面積,反映的是單個(gè)類別的識(shí)別率。mAP指對(duì)所有類別AP求平均值,反映的是整個(gè)分類器平均精準(zhǔn)度水平,通常來(lái)說(shuō)mAP值越高,分類器則越好,用于目標(biāo)檢測(cè)的效果越佳。即

(5)

(6)

式中:p(r)為Precision-Recall曲線方程,0≤r≤1,0≤p(r)≤1;N為驗(yàn)證集個(gè)數(shù)。

2.3 文本信息目標(biāo)識(shí)別算法結(jié)構(gòu)

由于建筑圖紙的特殊性,其包含了豐富的文本信息,包括標(biāo)注、構(gòu)件名稱、空間屬性以及標(biāo)題等。這些文本信息對(duì)于構(gòu)建完整的BIM來(lái)說(shuō)是必要的,因此需探究文本識(shí)別的有效方法。

Python-tesseract是Python的OCR工具,能夠識(shí)別并讀取嵌入圖像中的文本,是谷歌開(kāi)發(fā)并開(kāi)源的圖像文字識(shí)別引擎,具有支持圖像類型多、識(shí)別準(zhǔn)確性高、識(shí)別速度快等優(yōu)點(diǎn)[26]。本研究將中文字庫(kù)載入到Tesseract中用于文本信息識(shí)別,識(shí)別的一般步驟見(jiàn)圖3。

圖3 OCR文本識(shí)別步驟

3 案例驗(yàn)證與分析

3.1 案例設(shè)置

本研究的實(shí)驗(yàn)硬件條件:Intel i7-9700F的CPU、16G+16G的雙通道內(nèi)存以及RTX2080ti的GPU;軟件條件:tensorflow 2.0架構(gòu)下Ubuntu18.04的深度學(xué)習(xí)環(huán)境。本實(shí)驗(yàn)基于深度學(xué)習(xí)領(lǐng)域的遷移學(xué)習(xí)思想,利用改進(jìn)的Faster R-CNN目標(biāo)識(shí)別算法和OCR技術(shù)完成本次案例研究。本次案例選取公用建筑,包含不同的建筑種類,如小學(xué)、實(shí)驗(yàn)樓和辦公樓等。

3.2 實(shí)驗(yàn)過(guò)程

3.2.1 訓(xùn)練準(zhǔn)備

根據(jù)上述公用建筑的特征,自行構(gòu)建數(shù)據(jù)集512張,圖像大小固定為1050×750,格式均為PNG?;诮ㄖD紙中常規(guī)幾何形狀的建筑構(gòu)件,本實(shí)驗(yàn)的預(yù)定義構(gòu)件種類包含軸網(wǎng)(axis)、墻(wall)、窗(window)、單開(kāi)門(door_s)、雙開(kāi)門(door_d)、蹲便器(sanitary_t)、洗手盆(sanitaty_w)和小便池(sanitaty_m)共八類,預(yù)定義構(gòu)件也是本次實(shí)驗(yàn)的識(shí)別對(duì)象。每一張圖像經(jīng)預(yù)處理后采用labelImg工具進(jìn)行手工標(biāo)注,標(biāo)注得到相應(yīng)的XML文件。自定義標(biāo)注的規(guī)則:假設(shè)一面墻除了已經(jīng)識(shí)別的門窗以外,則其它未識(shí)別的連續(xù)部分均是墻體。標(biāo)注的規(guī)則與流程如圖4所示。

圖4 labelImg標(biāo)注規(guī)則及流程

此外,為了降低因數(shù)據(jù)集過(guò)少而引起過(guò)度擬合的風(fēng)險(xiǎn),采用OpenCV的imgaug圖像數(shù)據(jù)增強(qiáng)庫(kù)進(jìn)行離線增強(qiáng),在原始基礎(chǔ)上擴(kuò)大5倍,函數(shù)參數(shù)設(shè)置見(jiàn)表1。本次實(shí)驗(yàn)按照5∶1的比例劃分為訓(xùn)練集和測(cè)試集。

表1 數(shù)據(jù)增強(qiáng)的函數(shù)參數(shù)設(shè)置

3.2.2 訓(xùn)練參數(shù)設(shè)置

首先,初試化經(jīng)ImageNet數(shù)據(jù)集預(yù)訓(xùn)練的 ResNet-101網(wǎng)絡(luò)權(quán)重參數(shù)。其次,設(shè)置RPN網(wǎng)絡(luò)。將Anchors初始框大小設(shè)置為(8,16,32),長(zhǎng)寬比例∈{1∶2,1∶1,2∶1};IoU閾值取0.7;重疊分類閾值設(shè)置為0.5,輸出的RoI數(shù)量取2000個(gè),并篩選256個(gè)RoI進(jìn)行反向傳播;網(wǎng)絡(luò)訓(xùn)練采用隨機(jī)梯度優(yōu)化方法,總迭代次數(shù)設(shè)置為50000次,初始學(xué)習(xí)率設(shè)置為0.001,在第35000次迭代后將學(xué)習(xí)率設(shè)置為0.0001。最后,設(shè)置動(dòng)量?jī)?yōu)化器的優(yōu)化值為0.9。

3.2.3 訓(xùn)練執(zhí)行與模型測(cè)試

Faster R-CNN采用交替訓(xùn)練的方式,分別對(duì)Faster R-CNN網(wǎng)絡(luò)和RPN網(wǎng)絡(luò)訓(xùn)練,保存模型。訓(xùn)練結(jié)束后,調(diào)用Faster R-CNN測(cè)試模塊,在預(yù)先劃分好的測(cè)試集中對(duì)模型進(jìn)行測(cè)試,得到各構(gòu)件種類的AP值與所有構(gòu)件的mAP值。

3.3 實(shí)驗(yàn)結(jié)果分析

3.3.1 Faster R-CNN識(shí)別部分

為了更好地證明本研究方法對(duì)檢測(cè)結(jié)果的準(zhǔn)確性,本節(jié)探究不同的實(shí)驗(yàn)策略對(duì)實(shí)驗(yàn)結(jié)果的影響。首先研究ResNet-101網(wǎng)絡(luò)對(duì)于小目標(biāo)檢測(cè)效果的影響,對(duì)比了基于VGG-16檢測(cè)模型的實(shí)驗(yàn)結(jié)果??紤]比較的公平性,采用控制變量法,除了網(wǎng)絡(luò)選取的不同,數(shù)據(jù)集、訓(xùn)練步驟及參數(shù)設(shè)置均保持一致,50000次迭代下的實(shí)驗(yàn)結(jié)果見(jiàn)表格2?;诒?的訓(xùn)練結(jié)果,兩種網(wǎng)絡(luò)的識(shí)別效果圖如圖5所示。

圖5 兩種網(wǎng)絡(luò)的效果圖/mm

表2 50000次迭代下不同特征提取網(wǎng)絡(luò)的檢測(cè)效果比較(局部構(gòu)件) %

由表2可知,與VGG-16網(wǎng)絡(luò)相比,ResNet-101網(wǎng)絡(luò)的mAP提升了1.6%,且各類建筑構(gòu)件的檢測(cè)效果均有一定的提升。另外,通過(guò)兩種網(wǎng)絡(luò)的效果圖對(duì)比可知,與ResNet-101相比,VGG-16中存在目標(biāo)丟失的情況,且santary_w的準(zhǔn)確率較低。這證明了ResNet-101網(wǎng)絡(luò)在小目標(biāo)檢測(cè)中更具有優(yōu)越性。

其次,基于ResNet-101網(wǎng)絡(luò),通過(guò)不同的算法改進(jìn)策略進(jìn)一步比較檢測(cè)效果。根據(jù)錨框和NMS的參數(shù)設(shè)置不同,訓(xùn)練模型分成A,B,C,D四個(gè)模型,其中D模型采用Faster R-CNN的原始參數(shù)。50000次迭代下的實(shí)驗(yàn)記錄如表3所示。

表3 50000次迭代下不同改進(jìn)策略組合的檢測(cè)效果比較

由表3可見(jiàn),A模型的mAP最高,即錨框大小設(shè)計(jì)為(4,8,16)和K取1.0組合的檢測(cè)效果最佳。與采用(8,16,32)錨框的B模型相比,A模型的mAP提升了3.7%,且各類構(gòu)件的精確率均有一定提升,這證實(shí)了合適的錨框大小能夠提升模型的檢測(cè)效果。C模型下調(diào)了K值,增大了懲罰力度,導(dǎo)致mAP有輕微下降,說(shuō)明懲罰力度會(huì)影響到模型的精準(zhǔn)度,懲罰力度過(guò)大反而會(huì)降低精準(zhǔn)度。最后,B模型的mAP較原始Faster R-CNN的D模型提升了2.9%,這證明了改進(jìn)的NMS算法對(duì)目標(biāo)檢測(cè)的精準(zhǔn)度也有一定提升。

綜上所述,作為本研究方法的代表,A模型基于ResNet-101網(wǎng)絡(luò)并通過(guò)改進(jìn)錨框和NMS算法,在建筑構(gòu)件的檢測(cè)上表現(xiàn)最為優(yōu)越,從而充分證明了本研究方法在建筑構(gòu)件上的先進(jìn)性。圖6展示了A模型的目標(biāo)檢測(cè)效果圖, 表4列舉了部分目標(biāo)識(shí)別結(jié)果。

表4 目標(biāo)圖像的部分識(shí)別結(jié)果

圖6 A模型的目標(biāo)檢測(cè)結(jié)果示例/mm

3.3.2 OCR識(shí)別部分

上述目標(biāo)圖像執(zhí)行檢測(cè)后,需進(jìn)行下一步OCR文本識(shí)別。先對(duì)目標(biāo)圖像預(yù)處理,如反差色、統(tǒng)一字體、剔除干擾信息等,再將中文字庫(kù)載入Tesseract,同時(shí)參數(shù)設(shè)置如下:lang設(shè)置為“chi_sim”,config賦值為“—psm6”,output類型取“string”。部分文本識(shí)別結(jié)果見(jiàn)表5。

表5 目標(biāo)圖像的OCR識(shí)別結(jié)果

4 結(jié)論與展望

本文提出了基于二維圖紙的建筑構(gòu)件識(shí)別框架,利用改進(jìn)的Faster R-CNN目標(biāo)檢測(cè)算法自動(dòng)提取建筑構(gòu)件信息,并利用OCR技術(shù)提取文本信息。在Faster R-CNN算法方面,針對(duì)二維圖紙中建筑構(gòu)件目標(biāo)相對(duì)較小的特征,先利用Resnet-101網(wǎng)絡(luò)代替?zhèn)鹘y(tǒng)的VGG-16網(wǎng)絡(luò),同時(shí)通過(guò)調(diào)整Anchors、優(yōu)化NMS算法等方式改進(jìn)Faster R-CNN,使得改進(jìn)后的Faster R-CNN更適用于建筑構(gòu)件的識(shí)別。也通過(guò)案例研究和結(jié)果分析,驗(yàn)證了基于本研究方法的模型在小目標(biāo)檢測(cè)上具有先進(jìn)性,最佳的mAP達(dá)93.8%。在OCR文本識(shí)別方面,利用開(kāi)源的Tesseract進(jìn)行建筑圖紙的文本識(shí)別,也具有很好的效果。從應(yīng)用價(jià)值的角度,本研究方法在建筑構(gòu)件的目標(biāo)識(shí)別上檢測(cè)效果較好,能夠?qū)崿F(xiàn)構(gòu)件信息的自動(dòng)提取,可為后續(xù)BIM的重生成提供數(shù)據(jù)支持。另外,本研究方法克服了激光掃描和攝影測(cè)量的局限性,在經(jīng)濟(jì)方面具有可行性。綜上,本文所提出的研究方法為既有建筑的BIM重建開(kāi)拓了新的思路,在運(yùn)維管理方面上將具有廣泛的應(yīng)用前景。

然而,本文的研究還處于初步階段,當(dāng)前工作展望如下:

(1)本文實(shí)驗(yàn)只針對(duì)八類預(yù)定義構(gòu)件類型進(jìn)行識(shí)別研究,未覆蓋到所有的建筑構(gòu)件類型,后續(xù)將進(jìn)一步增加預(yù)定義構(gòu)件類型的數(shù)量,以擴(kuò)大識(shí)別的構(gòu)件范圍;

(2)由于構(gòu)件類型和構(gòu)件坐標(biāo)由改進(jìn)的Faster R-CNN獲取,而構(gòu)件名稱和尺寸信息由OCR得到,需將兩類結(jié)果進(jìn)行匹配,因此需進(jìn)一步研究信息匹配算法;

(3)目前只聚焦于二維平面圖,因此筆者下一步將繼續(xù)研究對(duì)立面圖的識(shí)別。

猜你喜歡
圖紙構(gòu)件圖像
改進(jìn)的LapSRN遙感圖像超分辨重建
淺談汽車線束產(chǎn)品圖紙管理
有趣的圖像詩(shī)
看圖紙
建筑構(gòu)件
建筑構(gòu)件
建筑構(gòu)件
建筑構(gòu)件
酒店室內(nèi)裝修圖紙深化設(shè)計(jì)淺析
河南科技(2014年12期)2014-02-27 14:10:44
遙感圖像幾何糾正中GCP選取
汽车| 武汉市| 桐城市| 荆州市| 依兰县| 河津市| 年辖:市辖区| 玉龙| 昌都县| 孟州市| 华亭县| 汤原县| 玉屏| 香港 | 永定县| 宜兰市| 米泉市| 凤翔县| 尼勒克县| 安新县| 宁陕县| 信宜市| 尉氏县| 永春县| 循化| 安国市| 永宁县| 富裕县| 津市市| 鄂托克旗| 田林县| 麦盖提县| 鄱阳县| 宜章县| 镇康县| 陵川县| 达孜县| 定边县| 瓮安县| 南漳县| 盘山县|