国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

方向感知的網(wǎng)格模型特征識(shí)別

2019-01-06 07:27郭藝輝黃承慧鐘雪靈陸寄遠(yuǎn)
計(jì)算機(jī)應(yīng)用 2019年12期

郭藝輝 黃承慧 鐘雪靈 陸寄遠(yuǎn)

摘 要:針對網(wǎng)格模型平滑區(qū)域提取特征困難,以及現(xiàn)有特征識(shí)別方法無法檢測僅沿某一特定方向分布的特征點(diǎn)的問題,提出一種方向感知的網(wǎng)格模型特征識(shí)別方法。首先,分別從x、y、z三個(gè)方向探測網(wǎng)格頂點(diǎn)鄰接面法向量沿不同方向變化的情況。設(shè)定合適的閾值,只要檢測到在任何一個(gè)方向上頂點(diǎn)鄰接面法向量的變化超過閾值,該頂點(diǎn)即被識(shí)別為特征點(diǎn)。然后,針對現(xiàn)有網(wǎng)格模型特征識(shí)別算法無法檢測三維醫(yī)學(xué)模型普遍存在的一種僅沿z軸方向分布的梯田型結(jié)構(gòu)的問題,單獨(dú)探測醫(yī)學(xué)模型網(wǎng)格頂點(diǎn)鄰接面法向量沿z軸方向變化的情況,將變化超出閾值的頂點(diǎn)識(shí)別為梯田型結(jié)構(gòu)頂點(diǎn),正確地將非正常梯田型結(jié)構(gòu)從人體模型正常結(jié)構(gòu)特征中分離出來。與二面角法的對比實(shí)驗(yàn)的結(jié)果顯示:在相同閾值設(shè)置下,所提方法能更好地識(shí)別出網(wǎng)格模型特征,解決了二面角法在沒有明顯折線的平滑區(qū)域上無法有效識(shí)別特征點(diǎn)的問題;同時(shí),也解決了現(xiàn)有網(wǎng)格模型特征檢測算法因不具備方向探測能力而無法將醫(yī)學(xué)模型非正常梯田型結(jié)構(gòu)與正常人體結(jié)構(gòu)區(qū)分開來的問題,為醫(yī)學(xué)模型后續(xù)數(shù)字幾何處理工作提供了條件。

關(guān)鍵詞:網(wǎng)格特征識(shí)別;平滑特征區(qū)域;方向?qū)傩?醫(yī)學(xué)三維重建;梯田型結(jié)構(gòu)

中圖分類號: TP391.72文獻(xiàn)標(biāo)志碼:A

Direction-perception feature recognition on mesh model

GUO Yihui*, HUANG Chenghui, ZHONG Xueling, LU Jiyuan

(School of Internet Finance and Information Engineering, Guangdong University of Finance, Guangzhou Guangdong 510020, China)

Abstract: In order to solve the problems of the difficulty to extract features on the smooth regions of mesh models and the impossibility to recognize the feature vertices distributed only along one specific direction by the existing feature detection methods, a direction-perception method of feature recognition on mesh models was proposed. Firstly, the changes of the normal vectors of the mesh vertex adjacent surfaces were detected in x, y and z directions separately. With a suitable threshold set, if the change of a normal vector of the mesh vertex adjacent surfaces exceeded the threshold in any direction, the vertex would be recognized as a feature vertex. Then, concerning the problem that the existing mesh model feature detection algorithms cannot recognize the terraced field structure only distributed along the z-axis of three-dimensional medical model, the algorithm detected the change of normal vectors of the mesh vertex adjacent surfaces just along the z-axis direction, and recognized the vertex as a terraced field structure vertex once the change of the vertex exceeds the threshold. The abnormal terraced field structures were separated from the normal structures of the human body successfully. The experimental results show that, compared with the dihedral angle method, the proposed method can identify the features of the mesh model better under the same conditions. The proposed method solves the problem that the dihedral angle method cannot effectively identify the feature vertices on the smooth regions without obvious broken lines, and also solves the problem that the existing mesh model feature detection algorithms cannot distinguish the abnormal terraced field structures from the normal human body structures due to the lack of the direction detection ability, and establishes a base for the following digital geometry processing of the medical model.

Key words: mesh feature recognition; smooth feature region; directionality property; three-dimensional medical reconstruction; terraced field structure

0 引言

三維網(wǎng)格模型特征識(shí)別是網(wǎng)格簡化、網(wǎng)格分割、網(wǎng)格光順以及模型重建等諸多數(shù)字幾何處理工作的關(guān)鍵步驟。眾多網(wǎng)格模型特征識(shí)別方法被提出。Guskov等[1]提出二面角法。Lee等[2]提出以感知為基礎(chǔ)的(Perception inspired)視覺顯著度模型“Mesh saliency”。Kim等[3]將網(wǎng)格顯著性測度模型與人類視覺注意模型作對比分析,將對模型顯著域的處理轉(zhuǎn)化為曲率域的處理以實(shí)現(xiàn)基于視覺顯著性的模型顯著區(qū)域形狀調(diào)控。Sipiran等[4]提出3D-Harris方法,將用于二維圖像特征點(diǎn)檢測的Harris算子擴(kuò)展到三維空間,用于提取三維模型特征點(diǎn)。Laga等[5]提出有同樣顯著特征的模型屬于同一語義類,而屬于同一語義類的模型有著相似的最佳視點(diǎn),將模型最佳視點(diǎn)選擇的問題轉(zhuǎn)變?yōu)槟P吞卣鬟x擇和分類的問題。Dutagaci等[6]提出一個(gè)基于人手工標(biāo)定標(biāo)準(zhǔn)語義特征點(diǎn)數(shù)據(jù)集的公開測試平臺(tái),用于評價(jià)各種三維模型語義特征點(diǎn)檢測算法的有效性。Song等[7]首先在譜圖域計(jì)算網(wǎng)格顯著性,接著將顯著信息傳遞回網(wǎng)格空間域,提取出三維模型語義特征點(diǎn)。Wu等[8]提出符合人類視覺感知的基于局部反差與全局稀疏理論的網(wǎng)格模型顯著性檢測算法。朱帆等[9]提出一種基于局部平均形心距離差的頂點(diǎn)顯著性度量方法。王海玲等[10]提出融合幾何特征信息和視覺特征信息的多特征融合度量方法。Gupta等[11]提出了一種計(jì)算機(jī)輔助設(shè)計(jì)(Computer Aided Design, CAD)模型零件變形特征分類、表示和提取方法。孫挺等[12]提出了基于局部特征概率密度估計(jì)的三維模型特征提取體系框架。Levallois等[13]提出了一種基于積分不變量的魯棒的離散特征估計(jì)方法,可以對邊緣、光滑區(qū)域和平坦區(qū)域的特征進(jìn)行準(zhǔn)確分類。Liu等[14]提出了一種從噪聲三角網(wǎng)格中提取特征曲線的魯棒算法。Kong等[15]提出了一種基于拓?fù)渥儞Q的自由曲面特征識(shí)別方法。Muraleedharan等 [16]提出了一種CAD網(wǎng)格模型孔、槽、穴特征識(shí)別方法。Torrente等[17]將霍夫變換 (Hough Transform, HT)技術(shù)擴(kuò)展到三維圖形領(lǐng)域,識(shí)別和定位網(wǎng)格模型語義特征。Soltanpour等[18]對三維人臉局部特征提取方法進(jìn)行了綜述。Song等[19]提出了一種從局部到全局的網(wǎng)格顯著特征計(jì)算方法,有效地檢測出符合人類感知的顯著特征。Chen等[20]提出了通過線性組合部件突出程度、部件相對大小以及部件邊緣強(qiáng)度的網(wǎng)格特征測量方法。劉斌 [21]針對三角網(wǎng)格曲面上復(fù)雜特征陣列式設(shè)計(jì)重用困難問題,提出一種兩步法特征陣列重用策略,該方法可用于復(fù)雜特征的陣列式實(shí)時(shí)交互設(shè)計(jì)。楊賢康等[22]提出了基于L0優(yōu)化的網(wǎng)格曲面特征線提取算法。胡俊等[23]提出一種流形網(wǎng)格曲面上自由形狀特征可參數(shù)驅(qū)動(dòng)的陣列重用設(shè)計(jì)方法。

然而,對于網(wǎng)格模型平滑區(qū)域特征檢測,上述眾多特征識(shí)別算法要么雖然能準(zhǔn)確識(shí)別,但是算法實(shí)施過程較為復(fù)雜;要么雖然計(jì)算簡單直觀,但是當(dāng)模型表面沒有銳利的折線存在時(shí),對網(wǎng)格平滑區(qū)域的特征檢測會(huì)失效,例如二面角法[1]即是如此。本文提出了一個(gè)既簡單直觀又能很好地識(shí)別網(wǎng)格平滑區(qū)域特征的方法。對于每一個(gè)頂點(diǎn),分別從三維空間的三個(gè)方向探測其鄰接面法向量方向變化的情況,只要有任何一個(gè)方向的變化超過閾值,即便是該頂點(diǎn)位于網(wǎng)格平滑特征區(qū)域,也會(huì)被準(zhǔn)確地識(shí)別出來。

同時(shí),由于本文方法的方向特性,該方法還能解決現(xiàn)有特征檢測方法無法有效識(shí)別醫(yī)學(xué)模型梯田型結(jié)構(gòu)的問題。通過一組二維計(jì)算機(jī)斷層掃描(Computed Tomography, CT)數(shù)據(jù)重建的三維醫(yī)學(xué)模型目前已廣泛地應(yīng)用于解剖三維重建、立體仿真手術(shù)與導(dǎo)航、放射治療規(guī)劃、計(jì)算機(jī)輔助診斷以及個(gè)性化假肢再造等領(lǐng)域。然而由于機(jī)器設(shè)備掃描分辨率以及環(huán)境噪聲的影響,重建的三維醫(yī)學(xué)模型普遍含有一種特殊的梯田型結(jié)構(gòu),如圖1所示。

這種梯田型結(jié)構(gòu)不僅會(huì)使組織器官呈現(xiàn)出非正常外觀,同時(shí)還會(huì)干擾醫(yī)生對疾病的診斷,對后續(xù)的臨床治療也會(huì)產(chǎn)生極其不利的影響。然而,盡管已有上述眾多三維模型特征識(shí)別方法被提出,這些算法均無法有效標(biāo)識(shí)醫(yī)學(xué)模型梯田型結(jié)構(gòu),其原因是:醫(yī)學(xué)模型梯田型結(jié)構(gòu)僅沿z軸方向分布,而目前還沒有一種特征檢測方法能有效區(qū)分方向,將僅沿一個(gè)方向分布的特征點(diǎn)標(biāo)識(shí)出來。

本文提出的方向感知的特征檢測方法可以準(zhǔn)確識(shí)別出模型中僅沿z軸方向分布的梯田型結(jié)構(gòu),將梯田型結(jié)構(gòu)與人體骨骼模型固有特征結(jié)構(gòu)區(qū)分開來,為后續(xù)有效進(jìn)行數(shù)字幾何處理有針對性去除這些非正常人體結(jié)構(gòu)提供了可能。

1 方向感知的網(wǎng)格模型特征識(shí)別方法

首先,構(gòu)建笛卡爾坐標(biāo)系,如圖2所示。

接著,定義網(wǎng)格模型特征檢測函數(shù),計(jì)算式如下:

δx,i=max(θx,nfk)-min(θx,nfk)(1)

其中:k為網(wǎng)格頂點(diǎn)i一鄰域鄰接三角形,nfk為一鄰域鄰接三角形面法向量;計(jì)算頂點(diǎn)i一鄰域鄰接三角形面法向量nfk與x軸之間的角度差,記為θx,nfk;找出網(wǎng)格頂點(diǎn)i一鄰域三角形沿x軸方向的最大偏離max(θx,nfk)以及最小偏離min(θx,nfk);計(jì)算沿x軸方向的最大偏離max(θx,nfk)以及最小偏離min(θx,nfk)之間的差,記為δx,i。同理,在y軸以及z軸方向也執(zhí)行上述相同的操作,得到δy,i 與 δz,i,計(jì)算式如下:

δy,i=max(θy,nfk)-min(θy,nfk)(2)

δz,i=max(θz,nfk)-min(θz,nfk)(3)

設(shè)置一個(gè)合理的閾值τ,若頂點(diǎn)i的δx,i> τ或者 δy,i> τ或者 δz,i>τ,則頂點(diǎn)i為網(wǎng)格模型的特征頂點(diǎn),如圖3(a)所示;若頂點(diǎn)i的δx,i>τ,則頂點(diǎn)i為網(wǎng)格模型的x軸方向特征頂點(diǎn),如圖3(b)所示;若頂點(diǎn)i的δy,i>τ,則頂點(diǎn)i為網(wǎng)格模型的y軸方向特征頂點(diǎn),如圖3(c)所示;若頂點(diǎn)i的δz,i>τ,則頂點(diǎn)i為網(wǎng)格模型的z軸方向特征頂點(diǎn)。由于三維醫(yī)學(xué)模型的梯田型結(jié)構(gòu)僅沿z軸方向分布,因此,若三維醫(yī)學(xué)模型網(wǎng)格頂點(diǎn)i的δz,i>τ,則頂點(diǎn)i為梯田型結(jié)構(gòu)頂點(diǎn),如圖3(d)所示。

2 實(shí)驗(yàn)與結(jié)果分析

本文實(shí)驗(yàn)環(huán)境的配置為Intel Pentium i5 2.60GHz、RAM 2GB的PC,操作系統(tǒng)是Windows 10,使用Visual C++ 2010編程實(shí)現(xiàn)。

2.1 網(wǎng)格模型平滑特征識(shí)別結(jié)果

實(shí)驗(yàn)中,采用Princeton大學(xué)公開測試平臺(tái)[24]提供的Fish模型、Teddy模型、Chair模型、Casting模型、Girl模型以及Torso模型(圖4)進(jìn)行網(wǎng)格模型特征識(shí)別,同時(shí)與二面角方法進(jìn)行對比,以驗(yàn)證本文方法的有效性。算法運(yùn)算時(shí)間以及參數(shù)設(shè)置如表1所示。

對于Fish網(wǎng)格模型、Teddy模型以及Chair模型,圖4(a)為原始網(wǎng)格模型。分別采用二面角法以及本文方法識(shí)別模型特征,兩種方法閾值設(shè)置均完全相同,分別為29°、18.5°以及25°。圖4(b)為采用二面角法識(shí)別的模型特征點(diǎn),觀察到:Fish網(wǎng)格模型魚背部位、魚鰭與身體連接處光滑彎曲部位因沒有明顯的折線,這些部位特征點(diǎn)沒有被二面角法有效識(shí)別到;Teddy模型耳朵與頭部連接處、左臂與身體連接處光滑彎曲部位的特征點(diǎn)沒有被二面角法有效識(shí)別到;Chair模型椅腿與椅面光滑連接的彎曲部位特征點(diǎn)沒有被二面角法識(shí)別到,同時(shí)椅腳遠(yuǎn)端也有漏檢的特征點(diǎn)。圖4(c)為采用本文方法識(shí)別出的模型特征,觀察到:對于Fish、Teddy模型,盡管平滑特征區(qū)域沒有尖銳的折線,但是本文方法依然準(zhǔn)確識(shí)別出這些部位特征點(diǎn);對于Chair模型盡管椅腿與椅面光滑連接部位沒有明顯的折線,但是在相同閾值設(shè)置下,本文方法準(zhǔn)確識(shí)別出該部位所有特征點(diǎn),同時(shí)相較于二面角法,本文方法在椅腳遠(yuǎn)端也識(shí)別到更多特征點(diǎn)。

對于有更多細(xì)節(jié)表現(xiàn)的Casting模型、Girl模型以及Torso模型(圖4),本文方法依然有良好的特征檢測能力。對于每一個(gè)模型,在二面角法以及本文方法均采用相同閾值的情況下(分別為22°、28°以及24.5°),觀察到:對于Casting模型,本文方法識(shí)別出了更多模型光滑彎曲部位的特征點(diǎn);對于Girl模型以及Torso模型,相較于二面角法,本文方法識(shí)別出了更多眼睛、嘴唇、鼻以及Girl發(fā)飾等部位的特征點(diǎn)。

使用本文方法進(jìn)行模型特征檢測運(yùn)算時(shí)間以及參數(shù)設(shè)置如表1所示。實(shí)驗(yàn)結(jié)果表明,由于本文方法可以從三維空間三個(gè)方向分別探測模型頂點(diǎn)鄰接面法向量沿x軸、y軸以及z軸方向偏離的情況,并且規(guī)定:三個(gè)方向中只要有任何一個(gè)方向偏離值大于閾值(執(zhí)行邏輯或的運(yùn)算),該頂點(diǎn)就被標(biāo)識(shí)為特征點(diǎn)。因此,使用本文方法能準(zhǔn)確捕捉到頂點(diǎn)鄰接面彎曲的狀況,相較于二面角法,在表1中所示相同閾值設(shè)置下,本文方法能更加靈敏地識(shí)別出網(wǎng)格模型特征點(diǎn),即使該特征點(diǎn)位于沒有明顯折線的平滑特征區(qū)域也能被準(zhǔn)確檢測出來。

2.2 特定方向感知特征識(shí)別結(jié)果

本文提出的方向感知特征檢測方法可以利用自身能夠區(qū)分頂點(diǎn)方向?qū)傩缘奶匦?,?zhǔn)確標(biāo)識(shí)出三維醫(yī)學(xué)模型僅沿z軸方向分布的梯田型結(jié)構(gòu)。本實(shí)驗(yàn)所用到的三維醫(yī)學(xué)模型是由二維醫(yī)學(xué)CT切片數(shù)據(jù)通過移動(dòng)立方體(Marching Cubes, MC)算法三維重建而成。

分別采用二面角法以及本文方法識(shí)別股骨髁模型(如圖5所示)、股骨頭模型(如圖6所示)以及脛骨模型(如圖7所示)的梯田型結(jié)構(gòu)。兩種方法閾值設(shè)置相同,對于股骨髁模型均為47°,股骨頭模型均為70°,脛骨模型均為32°。對于每一個(gè)模型,圖(a)均為原始醫(yī)學(xué)網(wǎng)格模型及局部放大圖;對于每一個(gè)模型,圖(b)為采用二面角法識(shí)別的模型梯田型結(jié)構(gòu)及局部放大圖;對于每一個(gè)模型,圖(c)為采用本文方向感知的特征提取方法提取的梯田型結(jié)構(gòu)及局部放大圖。

由圖5~7中圖(b)可以看出:圖5(b)中二面角法提取的結(jié)果既包含非正常梯田型結(jié)構(gòu),又包含股骨髁的髁間窩以及外側(cè)髁突出部位的正常人體特征。圖6(b)中二面角法提取的結(jié)果既包含非正常梯田型結(jié)構(gòu),又包含正常人體脛骨邊緣突起的脛骨粗線結(jié)構(gòu)特征。圖7(b)中二面角法提取的結(jié)果既包含非正常梯田型結(jié)構(gòu),又包含正常的人體股骨粗隆結(jié)構(gòu)特征。由此可知,二面角法因無法探知特征點(diǎn)的方向?qū)傩裕蚨鵁o法將梯田型結(jié)構(gòu)與正常人體特征結(jié)構(gòu)區(qū)分開來。

由圖5~7中圖(c)可以看出:圖5(c)中本文方法準(zhǔn)確提取到梯田型結(jié)構(gòu),提取的結(jié)果沒有包含人體正常股骨髁的髁間窩凹陷特征以及外側(cè)髁突出部位的特征。圖6(c)中本文方法準(zhǔn)確提取到非正常梯田型結(jié)構(gòu),而沒有包含正常人體脛骨邊緣突起的脛骨粗線特征。同樣,圖7(c)中本文方法也是準(zhǔn)確提取到非正常梯田型結(jié)構(gòu),而沒有包含正常人體股骨粗隆特征。本文方法有效地將非正常梯田型結(jié)構(gòu)從正常人體模型結(jié)構(gòu)特征中分離出來,在后續(xù)的數(shù)字幾何處理過程中,就可以有針對性地將這些非正常的梯田型結(jié)構(gòu)去除,得到最大限度逼近于正常人體特征的醫(yī)學(xué)網(wǎng)格模型,最終更好地適用于數(shù)字醫(yī)學(xué)診療的需求。

本文方法進(jìn)行醫(yī)學(xué)模型梯田型結(jié)構(gòu)檢測運(yùn)算時(shí)間以及參數(shù)設(shè)置如表2所示。

實(shí)驗(yàn)結(jié)果表明,由于本文方法可以獨(dú)立探測醫(yī)學(xué)模型網(wǎng)格頂點(diǎn)鄰接面法向量僅沿z軸方向的變化情況,因此,相較于二面角法,在表2中相同閾值設(shè)置下,本文方法能忽略掉骨骼模型人體正常特征,而僅將梯田型結(jié)構(gòu)準(zhǔn)確識(shí)別出來。本文方法解決了二面角法等模型特征檢測方法因不能識(shí)別僅沿某一特定方向分布的特征點(diǎn),而無法將醫(yī)學(xué)模型非正常梯田型結(jié)構(gòu)與正常人體結(jié)構(gòu)區(qū)分開來的問題。

[11]GUPTA R K, GURUMOORTHY B. Classification, representation, and automatic extraction of deformation features in sheet metal parts [J]. Computer-Aided Design, 2013, 45(11): 1469-1484.

[12]孫挺,張錦華,耿國華.基于局部特征概率密度估計(jì)的三維模型特征提取方法[J].計(jì)算機(jī)科學(xué),2015,42(6):293-295,312.(SUN T, ZHANG J H, GENG G H. New architecture for extraction of 3D model features based on probabilistic density estimation of local surface features [J]. Computer Science, 2015, 42(6): 293-295, 312.)

[13]LEVALLOIS J, COEURJOLLY D, LACHAUD J. Scale-space feature extraction on digital surfaces [J]. Computers and Graphics, 2015, 51: 177-189.

[14]LIU H, DAI N, ZHONG B, et al. Extract feature curves on noisy triangular meshes [J]. Graphical Models, 2017, 93: 1-13.

[15]KONG T, ZHANG Y, FU X B. The model of feature extraction for free-form surface based on topological transformation [J]. Applied Mathematical Modelling, 2018, 64: 386-397.

[16]MURALEEDHARAN L P, KANNAN S S, KARVE A, et al. Random cutting plane approach for identifying volumetric features in a CAD mesh model [J]. Computers and Graphics, 2018, 70: 51-61.

[17]TORRENTE M, BIASOTTI S, FALCIDIENO B. Recognition of feature curves on 3D shapes using an algebraic approach to Hough transforms [J]. Pattern Recognition, 2018, 73: 111-130.

[18]SOLTANPOUR S, BOUFAMA B, WU Q M J. A survey of local feature methods for 3D face recognition [J]. Pattern Recognition, 2017, 72: 391-406.

[19]SONG R, LIU Y, MARTIN R R. Local-to-global mesh saliency [J]. The Visual Computer, 2018, 34(3): 323-336.

[20]CHEN H, LI M. A novel mesh saliency approximation for polygonal mesh segmentation [J]. Multimedia Tools and Applications, 2018, 77(13): 17223-17246.

[21]劉斌.三角網(wǎng)格曲面上的特征陣列[J].機(jī)械工程學(xué)報(bào),2019,55(3):120-129.(LIU B. Pattern design of freeform features on triangular meshes [J]. Journal of Mechanical Engineering, 2019, 55(3): 120-129.)

[22]楊賢康,潘茂東,童偉華,等.基于L0優(yōu)化的網(wǎng)格曲面特征線提取算法[J].計(jì)算機(jī)工程,2019,45(7):251-257,263.(YANF X K, PAN M D, TONG W H, et al. Feature lines extraction on meshes using L0 minimization [J]. Computer Engineering, 2019, 45(7): 251-257, 263.)

[23]胡俊,劉斌,黃常標(biāo),等.網(wǎng)格曲面上自由形狀特征交互式陣列設(shè)計(jì)[J].計(jì)算機(jī)集成制造系統(tǒng),2019,25(1):61-70.(HU J, LIU B, HUANG C B, et al. Interactive pattern design of freeform features on mesh surface [J]. Computer Integrated Manufacturing Systems, 2019, 25(1): 61-70.)

[24]CHEN X, GOLOVINSKIY A, FUNKHOUSER T. A benchmark for 3D mesh segmentation [J]. ACM Transactions on Graphics, 2009, 28(3): Article No. 73.

[25]嚴(yán)嚴(yán),陳日偉,王菡子,等.基于深度學(xué)習(xí)的人臉分析研究進(jìn)展[J].廈門大學(xué)學(xué)報(bào)(自然科學(xué)版),2017,56(1):13-24.(YAN Y, CHEN R W, WANG H Z, et al. Recent advances on deep-learning-based face analysis [J]. Journal of Xianmen University (Natural Science), 2017, 56(1): 13-24.)

[26]劉棟,李素,曹志冬.深度學(xué)習(xí)及其在圖像物體分類與檢測中的應(yīng)用綜述[J].計(jì)算機(jī)科學(xué),2016,43(12):13-23.(LIU D, LI S, CAO Z D. State-of-the-art on deep learning and its application in image object classification and detection [J]. Computer Science, 2016, 43(12): 13-23.)

[27]李鑫,陳雷霆,蔡洪斌.基于結(jié)構(gòu)感知深度神經(jīng)網(wǎng)絡(luò)的顯著性對象檢測算法[J].計(jì)算機(jī)應(yīng)用研究,2019,36(7):2195-2199.(LI X, CHEN L T, CAI H B. Salient object detection algorithm based on structure-sensitive deep neural network [J]. Application Research of Computers, 2019, 36(7): 2195-2199.)

[28]楊軍,王順,周鵬.基于深度體素卷積神經(jīng)網(wǎng)絡(luò)的三維模型識(shí)別分類[J].光學(xué)學(xué)報(bào),2019,39(4):314-324.(YANG J, WANG S, ZHOU P. Recognition and classification for three-dimensional model based on deep voxel convolution neural network [J]. Acta Optica Sinica, 2019, 39(4): 314-324.)

[29]CHARLES R Q, SU H, MO K. PointNet: deep learning on point sets for 3D classification and segmentation [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 77-85.

[30]LUCIANO L, HAMZA A B. Deep learning with geodesic moments for 3D shape classification [J]. Pattern Recognition Letters, 2018, 105: 182-190.

[31]FEY M, LENSSEN J E, WEICHERT F, et al. SplineCNN: fast geometric deep learning with continuous B-spline kernels [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 869-877.

This work is partially supported by the National Natural Science Foundation of China (71501051), the National Natural Science Foundation of China International (Regional) Cooperation and Exchange Project? (61320106008), the Natural Science Foundation of Guangdong Province (2017A050501042), the Key Project of the Humanities and Social Sciences Research in Universities of Guangdong Province (2018WZDXM032).

GUO Yihui, born in 1976, Ph. D., lecturer. Her research interests include computer graphics, digital geometry processing.

HUANG Chenghui, born in 1976, Ph. D., associate professor. His research interests include machine learning.

ZHONG Xueling, born in 1980, Ph. D., professor. His research interests include financial technology, big data.

LU Jiyuan, born in 1976, Ph. D., professor. His research interests include multimedia data processing.

收稿日期:2019-05-13;修回日期:2019-07-19;錄用日期:2019-07-22。

基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(71501051);國家自然科學(xué)基金國際(地區(qū))合作與交流項(xiàng)目(61320106008);廣東省自然科學(xué)基金資助項(xiàng)目(2017A050501042);廣東省普通高校人文社會(huì)科學(xué)研究重點(diǎn)項(xiàng)目(2018WZDXM032)。

作者簡介:郭藝輝(1976—),女,山東濟(jì)南人,講師,博士,主要研究方向:計(jì)算機(jī)圖形學(xué)、數(shù)字幾何處理; 黃承慧(1976—),男,湖南郴州人,副教授,博士,主要研究方向:機(jī)器學(xué)習(xí); 鐘雪靈(1980—),男,廣東河源人,教授,博士,主要研究方向:金融科技、大數(shù)據(jù);陸寄遠(yuǎn)(1976—),男,廣東南海人,教授,博士,主要研究方向:多媒體數(shù)據(jù)處理。

文章編號:1001-9081(2019)12-3673-05DOI:10.11772/j.issn.1001-9081.2019050799

株洲县| 长岛县| 无极县| 博湖县| 桐梓县| 栾城县| 巴塘县| 中西区| 庐江县| 儋州市| 革吉县| 黄大仙区| 海安县| 桐庐县| 五莲县| 饶河县| 沁源县| 肃宁县| 久治县| 南阳市| 壶关县| 威信县| 偃师市| 张家川| 来宾市| 朝阳市| 德保县| 崇礼县| 定远县| 桃源县| 仁怀市| 同仁县| 庆安县| 东乡县| 麻栗坡县| 定襄县| 南开区| 盐山县| 凤翔县| 息烽县| 荔波县|