国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于網(wǎng)頁圖像分類的自動化網(wǎng)頁正文抽取模型

2023-02-21 12:53李曉戈穆諍輝
計算機(jī)工程與設(shè)計 2023年2期
關(guān)鍵詞:截屏列表正文

秦 龍,李曉戈+,穆諍輝,李 濤

(1.西安郵電大學(xué) 計算機(jī)學(xué)院,陜西 西安 710121;2.西安郵電大學(xué)陜西省網(wǎng)絡(luò)數(shù)據(jù)分析與智能處理重點實驗室,陜西 西安 710121)

0 引 言

在網(wǎng)頁文本信息提取領(lǐng)域,已經(jīng)有大量的研究工作和成熟的方法。Chen等[1]針對網(wǎng)頁結(jié)構(gòu)特征進(jìn)行抽取,在內(nèi)容分析算法的基礎(chǔ)上改進(jìn)網(wǎng)頁抽取模型。Yi等[2]利用機(jī)器學(xué)習(xí)的思想將支持向量機(jī)和DOM重心半徑相結(jié)合抽取網(wǎng)頁正文;Zhou等[3]將支持向量機(jī)和文本密度結(jié)合提取網(wǎng)頁正文;Ye等[4]采用向量空間模型作為文本的描述,提出一種基于Bean優(yōu)化特征提取算法。Luo等[5]提出一種基于特征的Web數(shù)據(jù)抽取算法,該算法根據(jù)網(wǎng)頁的特征相似度將網(wǎng)頁聚類在一起,并將其它動態(tài)網(wǎng)頁與所識別的網(wǎng)頁的模板進(jìn)行對比抽取網(wǎng)頁正文。Liu等[6]采用文本密度和標(biāo)簽路徑覆蓋率結(jié)合的抽取算法;Wang等[7]提出一種多特征融合的正文抽取算法。Chen等[8]采用長短期記憶網(wǎng)絡(luò)的深度學(xué)習(xí)方法進(jìn)行網(wǎng)頁正文提取。王輝等[9]將知識圖譜引入信息抽取系統(tǒng)進(jìn)行數(shù)據(jù)抽取。

以上算法大都針對文章類型網(wǎng)頁,而當(dāng)今網(wǎng)頁形式多樣,單一類型的網(wǎng)頁抽取已經(jīng)無法滿足海量數(shù)據(jù)自動采集的需求。本文將網(wǎng)頁分為列表網(wǎng)頁和文章網(wǎng)頁,提出基于截屏網(wǎng)頁圖像分類的自動化網(wǎng)頁正文抽取模型。該模型利用神經(jīng)網(wǎng)絡(luò)將截屏網(wǎng)頁圖像進(jìn)行分類,然后根據(jù)網(wǎng)頁類型分別采用改進(jìn)的基于多特征融合的網(wǎng)頁正文抽取算法。該算法不需要人工配置,不依賴網(wǎng)頁模版,實現(xiàn)數(shù)據(jù)抓取和網(wǎng)頁正文抽取自動化。

1 模 型

1.1 自動化網(wǎng)頁抽取模型

自動化網(wǎng)頁正文抽取模型如圖1所示。

圖1 自動化網(wǎng)頁正文抽取模型

模型分為爬蟲模塊—分類模塊—正文抽取模塊。爬蟲模塊采用網(wǎng)絡(luò)爬蟲技術(shù)將網(wǎng)頁HTML源碼抓取保存并利用Phantomjs將網(wǎng)頁截圖;分類模塊利用卷積神經(jīng)網(wǎng)絡(luò)將網(wǎng)頁截圖分為文章網(wǎng)頁和列表網(wǎng)頁;正文抽取模塊根據(jù)網(wǎng)頁類型分別采用基于相同深度的文本長度標(biāo)準(zhǔn)差算法和基于相同深度的同類名元素排序算法抽取網(wǎng)頁正文內(nèi)容。

1.2 分類模塊

CNN是一個多層感知器神經(jīng)網(wǎng)絡(luò),從輸入數(shù)據(jù)中提取特征,并使用神經(jīng)網(wǎng)絡(luò)的反向傳播算法進(jìn)行訓(xùn)練。圖像分類中使用了很多CNN架構(gòu):AlexNet、GoogLeNet、DenseNet[10]、VGGNet、ResNet和EfficientNet。LeNet-5模型的提出為使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類研究奠定了基礎(chǔ)。Kayed等[11]將LeNet-5應(yīng)用于電子商務(wù)領(lǐng)域,解決服裝分類問題;Chen等[12]將其應(yīng)用在雷達(dá)輻射源個體識別。ResNet[13]利用殘差網(wǎng)絡(luò)解決深度增加后網(wǎng)絡(luò)退化的問題,很多研究者在其它圖像領(lǐng)域進(jìn)行應(yīng)用,如為了解決化學(xué)試劑標(biāo)簽圖像分類問題,Xu等[14]引入遷移學(xué)習(xí)方法,在ResNet-101基礎(chǔ)模型上進(jìn)行微調(diào),訓(xùn)練化學(xué)試劑分類模型;Zhou等[15]將ResNet-101模型應(yīng)用在列車高度閥故障檢測中。

本文將網(wǎng)頁分為文章網(wǎng)頁或列表網(wǎng)頁,采用網(wǎng)頁截屏圖像作為訓(xùn)練數(shù)據(jù)。網(wǎng)頁截屏圖像不同于其它公開的圖像分類數(shù)據(jù)集,一張圖像的大小在10MB左右,因此圖像特征要多于其它通用數(shù)據(jù)集,并且因為網(wǎng)頁的特殊性,文章網(wǎng)頁圖像和列表網(wǎng)頁圖像的特征存在重復(fù)。文章網(wǎng)頁和列表網(wǎng)頁如圖2和圖3所示。接下來簡單介紹本文的圖像分類模型。

圖2 文章網(wǎng)頁

圖3 列表文章

本文在LeNet-5模型上對截屏網(wǎng)頁圖像進(jìn)行分類,具體模型如圖4所示。

圖4 LeNet模型

輸入層:如圖4所示,輸入層為224×224的圖像。

Conv2D:這幅圖像經(jīng)過第一個卷積層,該層有6個尺寸為3×3的卷積核,步長為1。圖像尺寸將從224×224×1變成222×222×6。

MaxPooling2D:該池化層經(jīng)過2×2的卷積核,步長為2,最終圖像減少為111×111×6。

ReLU:激活函數(shù)層。

Conv2D:第二個卷積層為16個大小為3×3,步長為1的卷積核,圖像變?yōu)?09×109×16。

MaxPooling2D:第二個池化層同第一個池化層一樣,將圖像變?yōu)?4×54×16。

ReLU:激活函數(shù)層。

Flatten:將數(shù)據(jù)拉直,得到46 656個特征參數(shù)。

Dense:最后三層為全連接層,特征參數(shù)分別為120、84和2。得到代表網(wǎng)頁類型的文章網(wǎng)頁和列表網(wǎng)頁的概率,將最大值作為分類結(jié)果輸出。

本文不但在常見的分類模型上對網(wǎng)頁截屏圖像研究,還采用遷移學(xué)習(xí)的思想,通過微調(diào)ResNet-101和EfficientNet[16]預(yù)訓(xùn)練模型進(jìn)行研究,比較模型訓(xùn)練參數(shù)和訓(xùn)練的準(zhǔn)確率。ResNet-101的核心思想來自于殘差網(wǎng)絡(luò),殘差網(wǎng)絡(luò)由一系列殘差塊組成。一個殘差塊如圖5所示。

圖5 殘差塊

殘差塊分為直接映射和殘差部分。X是直接映射,反映在圖中曲線部分;F(x)是殘差部分,一般由兩個或者3個卷積操作構(gòu)成,即圖中左側(cè)包含卷積操作的部分。

如圖6所示,采用遷移學(xué)習(xí)的思想,通過微調(diào)ResNet-101預(yù)訓(xùn)練模型,訓(xùn)練網(wǎng)頁圖像分類模型。在模型微調(diào)的過程中,嚴(yán)格遵守常見的做法,即凍結(jié)所有內(nèi)部層的權(quán)重,只對預(yù)測文章網(wǎng)頁和列表網(wǎng)頁這兩個類的最終邏輯層進(jìn)行再訓(xùn)練。即去掉原ResNet-101后面的全局平均池化和全連接層,然后在模型后加入兩個全連接層,節(jié)點數(shù)分別為1024和2。Batch_size大小為16,epochs為30次,學(xué)習(xí)率為0.0002。采用Adam優(yōu)化器,損失函數(shù)為交叉損失函數(shù)(categorical cross entropy),公式如下

圖6 遷移學(xué)習(xí)微調(diào)ResNet-101模型

(1)

其中,y為期望的輸出,a為神經(jīng)元的實際輸出。

通過微調(diào)EfficientNet預(yù)訓(xùn)練模型,在訓(xùn)練過程中只訓(xùn)練最后10層,并加入全局平均池化,將最后的節(jié)點數(shù)改為2,其它參數(shù)同ResNet-101模型。在學(xué)習(xí)率設(shè)置上,本文采用學(xué)習(xí)率隨epochs進(jìn)行動態(tài)變化的方法,其計算公式分別如下

LR=(LRmax-LRst)/LRre*epoch+LRst

(2)

LR=(LRmax-LRst)*LRed**
(epoch-LRre-LRse)+LRmin

(3)

其中,LR代表不同的學(xué)習(xí)率, LRst=0.00001, 代表初始化學(xué)習(xí)率,LRmax=0.0004, 代表最大學(xué)習(xí)率,LRmin=0.00001, 代表最小學(xué)習(xí)率, LRre=15, 代表學(xué)習(xí)率上升過程的epochs個數(shù), LRse=0, 代表學(xué)習(xí)率保持不變的epochs個數(shù), LRed=0.8, 代表指數(shù)衰減因子。在前14個epoch采用式(2)設(shè)置學(xué)習(xí)率,第15個epoch學(xué)習(xí)率最大,在剩下的epoch中采用式(3)來設(shè)置。

1.3 正文抽取模塊

解析:網(wǎng)頁正文信息抽取技術(shù)大多是在網(wǎng)頁解析的基礎(chǔ)上進(jìn)行的,從DOM生成效率和遍歷HTML文檔中的節(jié)點兩個方面考慮,本文采用python中Pyquery庫對HTML進(jìn)行解析和查找。

去噪:為了提高處理效率,減少噪音對正文抽取算法的影響,將源文件中的噪音數(shù)據(jù)清洗。經(jīng)過對數(shù)據(jù)集的研究發(fā)現(xiàn),在文章類型的網(wǎng)頁中,噪音數(shù)據(jù)包含腳本信息 , 樣式信息 [17], 鏈接信息多存在于 標(biāo)簽中,導(dǎo)航欄信息 , 因為正文信息包含在body體中,頭部信息 也屬于噪音信息。在將原始html網(wǎng)頁利用Pyquery轉(zhuǎn)換為Dom后,直接刪除,見表1。

表1 文章類型網(wǎng)頁噪音及刪除

在列表類型網(wǎng)頁中,噪音信息大多為廣告鏈接信息,存在于 , 腳本信息 。 見表2。

表2 列表類型網(wǎng)頁噪音及刪除

網(wǎng)頁正文提取方法:根據(jù)網(wǎng)頁類型將其分為文章網(wǎng)頁和列表網(wǎng)頁,針對文章網(wǎng)頁,提出基于相同深度文本長度標(biāo)準(zhǔn)差的正文抽取算法。針對列表網(wǎng)頁,提出基于相同節(jié)點深度的同類名元素排序的抽取算法。以下對節(jié)點深度進(jìn)行敘述:

元素節(jié)點深度經(jīng)過解析后的html網(wǎng)頁如下:

自動化網(wǎng)頁正文抽取

HTML解析庫性能的比較

假定html標(biāo)簽的元素根節(jié)點深度為1,依次標(biāo)記每一個元素,得到每個元素在網(wǎng)頁中的元素節(jié)點深度,如圖7所示。

圖7 元素節(jié)點深度標(biāo)記示例

2 算法實現(xiàn)

算法1:文章網(wǎng)頁正文抽取算法

文章類型網(wǎng)頁的正文通常包含在一個網(wǎng)頁元素中,另一種情況是網(wǎng)頁正文信息分塊存在于多個連續(xù)的元素中,每個包含正文信息的元素塊代表正文的一個段落,其文本長度不一。對于第一種情況,通過比較網(wǎng)頁內(nèi)容存在的元素和其同級別元素中文本的長度得到具有正文信息的元素。對于第二種情況,將文本長度大致相等的元素的父元素作為網(wǎng)頁正文信息抽取的節(jié)點。算法的偽代碼如下所示:

偽代碼:基于相同深度文本長度標(biāo)準(zhǔn)差的文章網(wǎng)頁正文抽取算法

輸入:element

輸出:text

(1)function ArticleExtract(element)

(2) childEle=element.allChild //查找每一個元素的子元素個數(shù)

(3) if childEle,length==0 then //如果子元素個數(shù)為0, 則返回該節(jié)點的父節(jié)點的文本

(4) return element.parent.text

(5) if childEle.length==1 then //如果子元素數(shù)量為1, 則遞歸查找子元素

(6) return ArticleExtract(childEle)

(7) m1,m2=getTwoMax(childEle) //得到子元素中最大的兩個子元素

(8) lm1=wordcount(m1.text) //求兩個子元素的文本長度

(9) lm2=wordcount(m2.text)

(10)stdDev=calcStdElv(childEle) //求所有子元素的文本長度標(biāo)準(zhǔn)差

(11) if(lm1-lm2)>stdDev then

(12) if(lm1-lm2)>100 then //如果lm1和lm2的差值小于100, 則輸出元素Element的文本

(13) if m1 before m2 then //如果m1元素位置靠前, 則輸出m1的文本

(14) return m1.text

(15) return m2.text0 //反之, 輸出m2的文本

(16) return element.text

(17)return ArticleExtract(m1) //如果lm1和lm2的差值小于文本長度標(biāo)準(zhǔn)差, 則繼續(xù)遞歸找子元素

算法2:列表網(wǎng)頁正文抽取算法

在列表網(wǎng)頁中,網(wǎng)頁的正文內(nèi)容通常存在于深度級別相同的元素中,通常它們還擁有相同的類名,并且該元素?zé)o子節(jié)點,將深度級別相同并且類名也相同的元素作為一個衡量單元。而網(wǎng)頁正文信息所在的元素在網(wǎng)頁中文本長度可以作為一個特征來衡量該元素是否為正文的節(jié)點,因此通過對每一種元素節(jié)點所擁有的文本長度進(jìn)行比較,就可以確定含有網(wǎng)頁正文信息的元素節(jié)點。因為在網(wǎng)頁中,類名的種類通常較多,如果對每一個類名都統(tǒng)計出現(xiàn)的深度、次數(shù)和文本長度,將需要較大的存儲空間開銷。因此,在實際的算法中,需要將統(tǒng)計的衡量單元限定在n=15。

列表網(wǎng)頁采用基于相同節(jié)點深度的同類名元素排序抽取算法,該算法通過對具有相同類名和深度級別的元素進(jìn)行排序來識別正文內(nèi)容,并且只抽取1種包含正文內(nèi)容的元素。該算法的偽代碼如下:

偽代碼:基于相同節(jié)點深度的同類名元素排序的列表網(wǎng)頁抽取算法

輸入:element

輸出:text

(1) global variables

(2) idCount // IDs出現(xiàn)的次數(shù)

(3) idText//IDs中的文本

(4) end global variables

(5) function UpdateInfo(element,level)

(6) id=combine(level,element.className) //將類名和深度級別對應(yīng)起來, 形成一個新的id

(7) idCount[id]=idCount[id]+1

(8) idText[id]=idText[id]+element.text

(9) function RetrieveEle(element,level)

(10) UpdateInfo(element,level)

(11) for child in element.child do

(12) UpdateInfo(child,level+1)

(13)function ListViewExtract(element,n) //主函數(shù),element: HTML的第一個元素, n: 表示考慮的候選類的數(shù)量

(14) RetrieveEle(element,0) //遞歸迭代HTML中所有元素, 檢索每個類出現(xiàn)的次數(shù)和其文本

(15) idR=calaRScores(idCount,idText) // 統(tǒng)計每個id出現(xiàn)的次數(shù)和其文本長度

(16) topNId=getTop(idR,n) // 計算排序特征值R和平均文本長度TL, 并取前n個結(jié)果

(17) predicedId=getMaxTL(topNId) //獲取前n個結(jié)果中的第一個進(jìn)行文本抽取

(18) return predicedId.text

根據(jù)ID的出現(xiàn)次數(shù)O和來自相應(yīng)ID的文本長度L來計算排名分?jǐn)?shù)R

(4)

根據(jù)上式計算出R值并用該值對ID進(jìn)行排序,按照順序取前n個列表中每個ID的平均文本長度TL值

(5)

3 實驗與分析

3.1 數(shù)據(jù)集

為了驗證本文提出方法的可行性,選擇網(wǎng)易、新浪、國家稅務(wù)總局、中國商務(wù)部、廣東省人民政府、中國科學(xué)院、新華網(wǎng)、中國網(wǎng)、人民網(wǎng)、鳳凰資訊、中國新聞網(wǎng)、知乎專欄、簡書、豆瓣影評、天涯論壇、百度貼吧等16個網(wǎng)站手動構(gòu)造了圖像分類數(shù)據(jù)集和正文抽取數(shù)據(jù)集。

將TensorFlow花朵數(shù)據(jù)集中的雛菊和玫瑰數(shù)據(jù)作為驗證數(shù)據(jù)集來驗證分類模型。兩個數(shù)據(jù)集具體見表3和表4。

表3 網(wǎng)頁分類數(shù)據(jù)集

表4 花朵分類數(shù)據(jù)集

在驗證正文抽取算法時,選取910個網(wǎng)頁作為驗證集,其中文章類型520個,列表類型390個。

3.2 實驗結(jié)果與分析

3.2.1 圖像分類實驗

研究不同圖像分類模型在網(wǎng)頁圖像數(shù)據(jù)集上的性能,得到準(zhǔn)確率見表5。

表5 網(wǎng)頁圖像分類模型結(jié)果

從訓(xùn)練參數(shù)和準(zhǔn)確率考慮,截屏網(wǎng)頁圖像在最簡單的圖像分類模型LeNet-5上取得最優(yōu)的性能??紤]截屏網(wǎng)頁圖像的特殊性,因此研究通用圖像數(shù)據(jù)集是否也會有類似的結(jié)果,利用花朵數(shù)據(jù)集在LeNet-5和預(yù)訓(xùn)練模型ResNet-101以及EfficientNet模型上進(jìn)行對比。其結(jié)果見表6。

表6 花朵數(shù)據(jù)集分類模型結(jié)果

從結(jié)果可以知道,因為截屏網(wǎng)頁圖像樣本的特殊性,該數(shù)據(jù)集在簡單圖像分類模型上的性能優(yōu)于復(fù)雜網(wǎng)絡(luò)。而通用數(shù)據(jù)集,則在復(fù)雜圖像分類模型上的效果更好,因為復(fù)雜模型能更好提取特征,減少梯度消失等問題。

考慮到輸入圖像的大小,我們在花朵數(shù)據(jù)集上研究不同輸入大小在ResNet-101、LeNet-5和EfficientNet模型上的不同表現(xiàn),結(jié)果如圖8所示。

圖8 不同模型不同輸入對比

在通用數(shù)據(jù)集上,將圖像輸入大小改變后,在復(fù)雜模型上改變輸入大小準(zhǔn)確率有明顯提升,其中ResNet-101模型在測試集上的準(zhǔn)確率提高1.8%。說明在將輸入大小變大后,模型提取特征效果優(yōu)于之前。

將上述結(jié)果遷移到網(wǎng)頁截屏圖像,研究提高輸入圖像的大小對網(wǎng)頁截屏圖像是否有提升,在ResNet-101模型上進(jìn)行對比實驗,得到結(jié)果如圖9所示。

圖9 不同輸入在ResNet-101模型上的結(jié)果

從對比結(jié)果來看,針對網(wǎng)頁截屏圖像,與圖像輸入大小為224*224相比,1366*1366在測試集上的表現(xiàn)更好,在第4個epoch上就已經(jīng)達(dá)到100%的正確率,而明顯在30個epoch上1366*1366的結(jié)果優(yōu)于224*224。這和普通數(shù)據(jù)集的結(jié)果一致,說明在增大輸入后,特征提取優(yōu)于之前。

3.2.2 抽取模型實驗

采用查全率和查準(zhǔn)率來表示抽取結(jié)果,其數(shù)學(xué)公式分別如下

(6)

(7)

其中,P表示查準(zhǔn)率,R表示查全率。C1表示所有網(wǎng)頁的總數(shù),C2表示所有網(wǎng)頁中提取正確的個數(shù),C3表示正確網(wǎng)頁數(shù)中完全提取的網(wǎng)頁數(shù)。

為了驗證模型的可行性,計算模型抽取的內(nèi)容和手工抽取的網(wǎng)頁正文內(nèi)容是否一致,采用漢明距離計算文本相似度。規(guī)定漢明距離小于30為提取正確,漢明距離小于10為完全提取正確。

在框架抽取模塊,考慮以后隨著網(wǎng)頁分類復(fù)雜化和多種化,在對比各類模型后,從訓(xùn)練參數(shù)和準(zhǔn)確率方面考慮,選擇了ResNet-101模型作為截屏網(wǎng)頁圖像分類模型。ResNet-101在正文抽取框架中圖像分類的準(zhǔn)確率為98.68%,其中文章類型準(zhǔn)確率為100%,列表類型網(wǎng)頁準(zhǔn)確率為96.92%。

將I-AWCE模型和Boilerpipe(https://code.google.com/p/boilerpipe)正文內(nèi)容提取庫進(jìn)行對比,評價指標(biāo)采用查全率和查準(zhǔn)率。Boilerpipe模型采用開源的python版本。表7和表8是兩個模型進(jìn)行對比的結(jié)果。研究對比I-AWCE模型和Boilerpipe模型在兩種網(wǎng)頁上正文抽取的效果,在文章網(wǎng)頁數(shù)據(jù)上,I-AWCE模型在查準(zhǔn)率和查全率上優(yōu)于Boilerpipe模型;在列表網(wǎng)頁數(shù)據(jù)上,I-AWCE模型在查準(zhǔn)率和查全率上達(dá)到95%以上。

表7 文章類型網(wǎng)頁正文抽取對比

表8 列表類型網(wǎng)頁正文抽取對比

4 結(jié)束語

本文提出一種基于圖像分類的自動化正文抽取模型,該模型利用卷積神經(jīng)網(wǎng)絡(luò)對截屏網(wǎng)頁圖像進(jìn)行類型判斷,并根據(jù)不同網(wǎng)頁類型分別改進(jìn)多特征融合的統(tǒng)計學(xué)正文抽取模型,這兩種算法根據(jù)文本長度和節(jié)點深度兩種特征進(jìn)行正文抽取,不依賴于大量數(shù)據(jù)集進(jìn)行訓(xùn)練。實驗結(jié)果表明,本文提出的I-AWCE模型可以滿足網(wǎng)頁自動化抽取的實際需要。

在針對截屏網(wǎng)頁圖像分類領(lǐng)域,對比各類圖像分類模型,結(jié)果顯示在LeNet-5模型上和預(yù)訓(xùn)練模型上訓(xùn)練時間和準(zhǔn)確率優(yōu)于其它模型;在通用數(shù)據(jù)集上,增大圖像特征輸入,在復(fù)雜模型上有提升效果,其中在ResNet-101模型上測試集準(zhǔn)確率提高了1.8%。在網(wǎng)頁截屏圖像上,對比不同輸入大小,增大輸入后模型在測試集上的效果顯著提升。

隨著網(wǎng)頁不斷發(fā)展,網(wǎng)頁類型不局限于列表類型和文章類型并且網(wǎng)頁中其它非正文信息越來越多。因此在針對網(wǎng)頁圖像分類模塊,隨著網(wǎng)頁類型增多,加入圖像注意力機(jī)制可以適應(yīng)網(wǎng)頁分類增多的情況。噪音數(shù)據(jù)太多會影響抽取結(jié)果,因此加入網(wǎng)頁分塊提取網(wǎng)頁正文可以減少噪音數(shù)據(jù)的影響。這兩點是以后工作研究的重點。

猜你喜歡
截屏列表正文
截屏打卡不夠89次算曠工 如此居家辦公就有高效率了?
更正聲明
更正啟事
學(xué)習(xí)運用列表法
擴(kuò)列吧
Solution of the Dipoles in Noncommutative Space with Minimal Length?
葉佑天作品選
2012款奔馳R300車修改最高車速限制
2014款雪佛蘭科魯茲車安全氣囊控制模塊在線編程操作方法
列表畫樹狀圖各有所長
广饶县| 兰坪| 澎湖县| 蓝田县| 资中县| 广德县| 阜康市| 临武县| 阿拉善右旗| 廊坊市| 汉源县| 井陉县| 高淳县| 星子县| 宁德市| 合肥市| 罗源县| 青州市| 东阿县| 商城县| 招远市| 吉安县| 南开区| 彰化市| 本溪| 新竹市| 泸西县| 静安区| 革吉县| 台山市| 无锡市| 富宁县| 三明市| 时尚| 莒南县| 定日县| 津南区| 宝山区| 镇沅| 扎囊县| 灵台县|