摘要:為了提高建筑簇群空間布局規(guī)劃能力,提出基于空間邊緣輪廓特征檢測技術(shù)的建筑簇群全景圖像空間布局人工智能規(guī)劃方法。構(gòu)建建筑簇群全景圖像空間規(guī)劃成像模型,采用多樣性的圖片結(jié)構(gòu)重構(gòu)方法進(jìn)行建筑簇群全景圖像空間區(qū)域信息增強(qiáng)處理,建立建筑簇群全景圖像的邊緣輪廓特征檢測模型,構(gòu)造建筑簇群全景圖像多尺度特征分解模型,采用機(jī)器視覺方法進(jìn)行建筑簇群全景圖像的先驗形狀模型參數(shù)估計,根據(jù)參數(shù)估計結(jié)果實現(xiàn)建筑簇群全景布局和人工智能規(guī)劃。仿真結(jié)果表明,采用該方法進(jìn)行建筑簇群全景圖像空間規(guī)劃的智能性較強(qiáng),規(guī)劃合理性較好。
關(guān)鍵詞:建筑簇群;全景圖像;信息增強(qiáng);空間布局;人工智能規(guī)劃;仿真實驗
中圖分類號:TN911.73-34:TP391
文獻(xiàn)標(biāo)識碼:A
文章編號:1004-373X( 2019) 24-0096-04
0 引言
隨著圖像信息處理技術(shù)的發(fā)展,采用圖像視覺信息處理技術(shù)進(jìn)行建筑簇群全景圖像空間布局和規(guī)劃設(shè)計,建立建筑規(guī)劃視覺分布模型,提高建筑科學(xué)規(guī)劃能力。在進(jìn)行建筑集群規(guī)劃中,需要構(gòu)建建筑簇群全景圖像分析模型,采用全景視覺信息重構(gòu)和特征分析技術(shù),進(jìn)行建筑簇群全景空間區(qū)域規(guī)劃設(shè)計,提高建筑簇群全景空間布局和人工智能規(guī)劃水平,相關(guān)的建筑簇群全景圖像空間布局人工智能規(guī)劃方法研究受到人們的極大關(guān)注[1]。對建筑簇群規(guī)劃是建立在對建筑簇群全景圖像的視覺信息分析基礎(chǔ)上,采用圖像的邊緣輪廓特征提取的方法,進(jìn)行建筑簇群全景信息檢測,通過區(qū)域信息特征提取的方法進(jìn)行建筑空間區(qū)域規(guī)劃[2]。本文提出基于空間邊緣輪廓特征檢測技術(shù)的建筑簇群全景圖像空間布局人工智能規(guī)劃方法。首先進(jìn)行視覺成像處理,然后建立建筑簇群全景圖像的邊緣輪廓特征檢測模型,結(jié)合圖像的邊緣輪廓檢測的方法,實現(xiàn)建筑簇群全景圖像空間布局和人工智能規(guī)劃設(shè)計,最后進(jìn)行仿真實驗分析,得出有效性結(jié)論。
1 建筑簇群全景圖像采樣及信息增強(qiáng)處理
1.1 建筑簇群全景圖像空間規(guī)劃成像模型
為了實現(xiàn)建筑簇群全景圖像空間布局人工智能規(guī)劃,首先構(gòu)建建筑簇群全景圖像采集模型,采用圖像邊緣梯度信息檢測方法進(jìn)行建筑簇群全景圖像特征檢測[3],構(gòu)建建筑簇群全景圖像空間布局人工智能規(guī)劃模型,得到圖像的邊緣輪廓分布描述為:式中,日(z)和8(z)分別為Heaviside函數(shù)和Dirac函數(shù)。采用自適應(yīng)模板特征匹配的方法,構(gòu)建建筑簇群全景圖像空間區(qū)域規(guī)劃模型[4-6],結(jié)合空間掃描成像方法得到建筑簇群全景圖像輸出為:式中,P(φ)為建筑簇群全景圖像的多尺度邊緣信息采樣輸出。
1.2 圖像空間區(qū)域信息增強(qiáng)處理
采用多樣性的圖片結(jié)構(gòu)重構(gòu)方法進(jìn)行建筑簇群全景圖像空間區(qū)域信息增強(qiáng)處理[7-8],得到建筑簇群全景圖像的活動輪廓分布描述如下:
采用像素點鄰域特征匹配的方法[9],進(jìn)行建筑簇群全景圖像的分區(qū)域匹配,得到特征匹配集描述為:
采用多樣性的圖片結(jié)構(gòu)重構(gòu)方法進(jìn)行建筑簇群全景圖像空間區(qū)域信息增強(qiáng)處理[10-11],得到圖像增強(qiáng)輸出為:
根據(jù)上述分析,構(gòu)建建筑簇群全景圖像空間信息增強(qiáng)模型,建立建筑簇群全景圖像的邊緣輪廓特征檢測模型,進(jìn)行建筑簇群空間布局規(guī)劃[12]。
2 圖像空間布局人工智能規(guī)劃優(yōu)化
2.1 建筑簇群全景邊緣輪廓特征檢測
構(gòu)造建筑簇群全景圖像多尺度特征分解模型㈣,進(jìn)行建筑簇群全景圖像多尺度平滑處理,得到圖像的平滑處理輸出為:式中:v,μ是不同建筑空間分布區(qū)域的尺度系數(shù)。根據(jù)訓(xùn)練集中的觀測集進(jìn)行建筑簇群全景圖像的空間布局人工智能規(guī)劃,根據(jù)訓(xùn)練集中的觀測樣本集[14],進(jìn)行空間區(qū)域的邊界形狀特征檢測,得到建筑簇群全景圖像的紋理分布函數(shù)為:
構(gòu)造建筑簇群全景圖像多尺度特征分解模型,采用機(jī)器視覺方法進(jìn)行建筑簇群全景圖像檢測,結(jié)合自適應(yīng)尋優(yōu)模型,在機(jī)器視覺下采用模板匹配來實現(xiàn)二值編碼,構(gòu)建建筑簇群全景圖像空間布局規(guī)劃模型,得到鄰域點灰度平均值為:
由此構(gòu)造建筑簇群全景圖像多尺度特征分解模型,根據(jù)建筑簇群全景圖像的顯著特征進(jìn)行標(biāo)定定位,根據(jù)特征標(biāo)定結(jié)果,進(jìn)行建筑簇群全景規(guī)劃設(shè)計。
2.2 建筑簇群全景布局智能規(guī)劃
采用機(jī)器視覺方法進(jìn)行建筑簇群全景圖像的先驗形狀模型參數(shù)估計,根據(jù)參數(shù)估計結(jié)果實現(xiàn)建筑簇群全景布局設(shè)計,構(gòu)建建筑簇群全景圖像的灰度特征分布矩陣描述為:式中:C1和C2分別表示建筑簇群全景圖像的徑向灰度的梯度值和邊緣輪廓線長度;Length (C)表示鄰域卷積長度;Area (inside (C》表示輪廓曲線內(nèi)部面積。
考慮像素的多重分布因素,在模板mxn區(qū)域內(nèi)對建筑簇群全景圖像進(jìn)行空間區(qū)域融合,結(jié)合多元統(tǒng)計分析方法,利用不同類別圖像樣本的紋理自相似性特征,進(jìn)行直方圖重建[15],得到灰度直方圖分量為:式中,t0表示建筑簇群全景圖像的結(jié)構(gòu)相似度,在建筑簇群全景圖像成像的4x4子區(qū)域內(nèi),通過近似稀疏表示方法,得到建筑簇群全景圖像的像素相似度函數(shù)為s(X,Y),按照半重疊方式對圖像進(jìn)行分塊,得到分塊結(jié)構(gòu)函數(shù)為:式中:assoc(A,V)為建筑簇群全景圖像的像素點子集A中的信息強(qiáng)度;assoc(B,V)為建筑簇群全景圖像的邊緣輪廓特征量。在更大觀測尺度中描述圖像視覺結(jié)構(gòu),根據(jù)視覺結(jié)構(gòu)分布,進(jìn)行建筑簇群全景圖像空間布局人工智能規(guī)劃設(shè)計。
3 仿真實驗與結(jié)果分析
通過仿真實驗驗證本文方法,在實現(xiàn)建筑簇群全景圖像空間布局及人工智能規(guī)劃中的應(yīng)用性能。結(jié)合Matlab 7仿真工具進(jìn)行仿真測試,對建筑簇群全景圖像采樣的超分辨率為2 000x2 000,建筑簇群空間規(guī)劃的迭代次數(shù)為400,圖像模糊度權(quán)重系數(shù)為0.001,建筑簇群全景圖像的樣本數(shù)為3 000,測試集規(guī)模為120。根據(jù)上述參數(shù)設(shè)定,進(jìn)行建筑簇群全景圖像空間布局人工智能規(guī)劃設(shè)計,得到原始的建筑簇群全景圖像采集如圖1所示。
以圖1的圖像為測試對象,采用多樣性的圖片結(jié)構(gòu)重構(gòu)方法進(jìn)行建筑簇群全景圖像空間區(qū)域信息增強(qiáng)處理.得到圖像增強(qiáng)結(jié)果如圖2所示。
分析圖2得知,采用本文方法能有效實現(xiàn)建筑簇群全景圖像的空間信息增強(qiáng),提高建筑簇群全景規(guī)劃和成像能力。在此基礎(chǔ)上,實現(xiàn)建筑簇群全景布局和人工智能規(guī)劃,得到的結(jié)果如圖3所示。
分析圖3得知,采用本文方法能有效實現(xiàn)建筑簇群全景布局和人工智能規(guī)劃設(shè)計,測試不同方法進(jìn)行建筑簇群全景布局和人工智能規(guī)劃的誤差,得到的對比結(jié)果如圖4所示。分析圖4得知,采用該方法進(jìn)行建筑簇群全景圖像空間規(guī)劃的智能性較強(qiáng),誤差較低,規(guī)劃合理性較好。
4 結(jié)語
為了提高建筑簇群全景空間布局和人工智能規(guī)劃水平,本文提出基于空間邊緣輪廓特征檢測技術(shù)的建筑簇群全景圖像空間布局人工智能規(guī)劃方法。采用多樣性的圖片結(jié)構(gòu)重構(gòu)方法進(jìn)行建筑簇群全景圖像空間區(qū)域信息增強(qiáng)處理,構(gòu)造建筑簇群全景圖像多尺度特征分解模型,采用機(jī)器視覺方法進(jìn)行建筑簇群全景圖像參量分析,根據(jù)邊緣輪廓檢測結(jié)果實現(xiàn)建筑簇群全景布局和人工智能規(guī)劃。研究得知,采用本文方法進(jìn)行建筑簇群全景規(guī)劃的智能性較好,提高了建筑空間規(guī)劃的可靠性。
參考文獻(xiàn)
[1] YANG L. Multi-focus image fusion method based on NSST andII CM [C]// Proceedings of 2017 International Conference onEmerging Internetworking, Data and Web Technologies. Ber-lin: Springer, 2017: 679-689.
[2] YANG L. Technique for image de-noising based on non-subsam-pled shearlet transform and improved intuitionistic fuzzy entro-py [J]. Optik-international journal for light and electron optics ,2015. 126(4) : 446-453.
[3] RADENOVIC F. TOLIAS G, CHUM 0. CNN image retrievallearns from BoW : unsupervised fine-tuning with hard examples[C]// Proceedings of 2016 European Conference on ComputerVision. Berlin: Springer, 2016: 3-20.
[4] ABBAS Q, IBRAHIM M E A, JAFFAR M A. A comprehen-sive review of recent advances on deep vision systems [J]. Arti-ficial intelligence review , 2018( 3) : 1-38.
[5] RAZAVIAN A S, SULLIVAN J, CARLSSON S. Visual in-stance retrieval with deep convolutional networks [J]. ITE trans-actions on media technology and applications. 2016. 4(3) :251-258.
[6] HASSNER T. HAREL S. PAZ E, et al. Effective face frontal-ization in unconstrained images [C]// Proceedings of 2015 IEEE Computer Vision and Pattern Recognition. Piscataway: IEEE,2015 : 4295-4304.
[7]王鑫,周韻,寧晨,等,自適應(yīng)融合局部和全局稀疏表示的圖像顯著性檢測 [J].計算機(jī)應(yīng)用 , 2018 . 38( 3 ) : 866-872.
WANG Xin, ZHOU Yun. NING Chen. et al. Image saliencydetection via adaptive fusion of local and global sparse repre-sentation [J]. Journal of computer applications, 2018, 38 (3) :866-872.
[8] WEI X S, LUO J H, WU J. Selective convolutional descriptoraggregation for fine-grained image retrieval [J]. IEEE transac-tions on image processing, 2017, 26(6): 2868-2881.
[9] CHENG M M. MITRA N J,HUANG X, et al.Global contrastbased salient region detection [J]. IEEE transactions on patternanalysis and machine intelligence, 2015, 37(3):569-582.
[10] LIU N, HAN J.DHSNet: deep hierarchical saliency networkfor salient object detection [C]// Proceedings of 2016 IEEEConference on Computer Vision and Pattern Recognition.Washington: IEEE Computer Society. 2016: 678-686.
[11] KIM W, KIM C.Spatiotemporal saliency detection using tex-tural contrast and its applications [J]. IEEE transactions oncircuits&systems for video technology, 2014, 24(4): 646- 659.
[12] SHARMA D, CHATTOPADHYAY C.High-level feature ag-gregation for fine-grained architectural floor plan retrieval [J].Iet computer vision. 2018. 12(5): 702-709.
[13]赫高進(jìn),熊偉,陳犖,等,基于MPI的大規(guī)模遙感影像金字塔并行構(gòu)建方法[J].地球信息科學(xué)學(xué)報,2015. 17(5):515-522.
HE Gaojin, XIONG Wei. CHEN Luo. et al.An MPI-basedparallel pyramid building algorithm for large - scale RS image[J]. Journal of geo-information science. 2015. 17(5): 515- 522.
[14]單玉剛,汪家寶.魯棒的白適應(yīng)尺度和方向的目標(biāo)跟蹤方法[J].計算機(jī)工程與應(yīng)用,2018.54( 21):208-216.
SHAN Yugang, WANG Jiabao. Robust object tracking meth-od of adaptive scale and direction[J].Computer engineeringand application, 2018, 54( 21): 208-216.
[15]申小霞,張樺,高贊,基于Kinect和金字塔特征的行為識別算法[J]光電子·激光,2014(2):357-363.
SHEN X X. ZHANG H. GAO Z.Behavior recognition algo-rithm based on Kinect and pyramid feature [J]. Journal of opto-electronics-laser. 2014(2): 357-363.
作者簡介:田婧(1985-),女,江西九江人,碩士,副教授,研究方向為環(huán)境與數(shù)字媒體藝術(shù)。