国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種基于標點密度的網(wǎng)頁正文提取方法

2015-05-30 22:06:44楊欽楊沐昀
智能計算機與應(yīng)用 2015年4期

楊欽 楊沐昀

摘 要:本文提出了一種基于DOM樹的正文提取方法。該方法是在基于DOM樹的文本密度的正文提取算法的框架上改進而來的?;趯ξ难晕姆g網(wǎng)站的觀察,本方法使用標點符號密度取代原方法的文本密度。通過隨機選取50篇文言文翻譯網(wǎng)頁作為測試集,本文提出的方法獲得了更好的準確率、召回率和F值。

關(guān)鍵詞:DOM;標點密度;文本密度;正文提取

中圖分類號:TP312 文獻標識碼:A 文章編號:2095-2163(2015)04-

A Method of Webpage Content Extraction based on Point Density

YANG Qin, YANG Muyun

(School of Computer Science and Technology, Harbin Institute of Technology, Harbin 150001, China)

Abstract: This paper proposes a DOM based content extraction method. It is improved from the DOM based content extraction via text density. Based on the observation of classical Chinese translation websites, the paper uses point density to replace text density.50 classical Chinese translaiton webpages are randomly chosen as the test data set, the proposed method obtains better precision, recall, and F-measure.

Keywords: DOM; Point Density; Text Density; Content Extraction

0引 言

互聯(lián)網(wǎng)的快速發(fā)展使其已經(jīng)成為一個天然龐大的數(shù)據(jù)來源,而且其影響也正在日漸提升之中。搜索引擎、網(wǎng)絡(luò)數(shù)據(jù)挖掘等技術(shù)正是使用這些網(wǎng)絡(luò)數(shù)據(jù)來發(fā)現(xiàn)有用的信息和知識。具體來說,這些技術(shù)的研究對象就是網(wǎng)頁的正文內(nèi)容。但在現(xiàn)實狀況下,網(wǎng)頁的正文卻通常是和網(wǎng)頁的其他內(nèi)容如導(dǎo)航信息、廣告、版權(quán)說明等混合摻雜在一起。這些內(nèi)容和網(wǎng)頁的主題并無任何關(guān)系,而只是噪聲信息,因而對有關(guān)網(wǎng)頁課題的探索研究造成全局性的復(fù)雜且重大的影響。

基于此,為了提升網(wǎng)絡(luò)數(shù)據(jù)挖掘和信息檢索等的設(shè)計研究性能,即可利用網(wǎng)頁正文提取技術(shù)從網(wǎng)頁中去除噪聲信息提取網(wǎng)頁正文。總體來說,正文提取可以提升相關(guān)研究的工程實際性能,并已在現(xiàn)實中獲得了廣泛的應(yīng)用。使用WEB作為語料庫吸引了自然語言處理領(lǐng)域眾多的研究者的關(guān)注參與。通過自動下載相關(guān)網(wǎng)頁,并進行正文提取,就可以較短的時間,較小的代價構(gòu)建一個大型語料庫。此外,移動手機的大量普及則使得網(wǎng)頁需要適應(yīng)較小的屏幕。綜上可知,針對網(wǎng)頁進行正文提取的需求已是日顯迫切。然而,提取網(wǎng)頁正文卻是一個困難的任務(wù)。早在2005年,Gibson等[1]就估計出網(wǎng)絡(luò)上的噪聲信息的比例將在40%~50%,并且準確預(yù)言了這個比例還會不斷上升?,F(xiàn)如今,網(wǎng)頁的布局和風格已比從前更趨復(fù)雜,這一現(xiàn)象也隨即愈加嚴重?,F(xiàn)在的網(wǎng)頁大多使用格式標簽和

等代替結(jié)構(gòu)標簽來展示網(wǎng)頁的格式信息。但諸多較早使用的正文提取方法卻已無法適應(yīng)這一變化,其表現(xiàn)則呈顯著大幅下降態(tài)勢。根本原因在于,近年來的網(wǎng)頁很多都不再使用如、等特定的HTML線索,而那些正文提取算法中使用的卻仍是這些經(jīng)典標志。

在本文中,提出了一個從網(wǎng)頁中提取正文的高效算法。該算法不僅可以提取網(wǎng)頁正文,而且保持了原有的網(wǎng)頁結(jié)構(gòu)信息。文中的正文提取方法主要基于對文言文翻譯網(wǎng)站的觀察:網(wǎng)站中的噪聲信息往往是一些導(dǎo)航和其他鏈接信息,基本沒有標點符號;而網(wǎng)頁的正文則含有大量的標點符號。同時,噪聲信息和正文信息在網(wǎng)頁中總是作為整體出現(xiàn),因此在DOM樹中屬于某一個祖先節(jié)點。

首先,研究提出了衡量網(wǎng)頁標簽重要性的指標:標點符號密度(簡稱標點密度,記為PointDensity)。當一個網(wǎng)頁用一顆DOM樹來表示后,即需計算DOM樹中每個節(jié)點的標點密度。標點密度高的節(jié)點表示這個節(jié)點在網(wǎng)頁中對應(yīng)的標簽的內(nèi)容更可能是正文,相反則更可能是噪聲信息。此后,則將沿用基于DOM樹的文本密度的正文提取框架,并使用標點密度和(PointDensitySum)來提取完整的正文。最終仿真實驗表明,本文提出的方法快速、準確,且可獲得比文本密度方法更好的結(jié)果。

不近如此,研究提出的方法還具有和文本密度方法一樣的優(yōu)勢,也就是沒有過多考慮網(wǎng)頁的結(jié)構(gòu),同時也沒有尋找特定的HTML線索。另外,本文研究也保持了網(wǎng)頁原有的結(jié)構(gòu)信息,利用本文方法將能輸出處理后的html文檔,并不僅僅是沒有任何格式的文本。

本文的后續(xù)章節(jié)內(nèi)容如下:第二節(jié)介紹正文提取的相關(guān)工作,第三節(jié)重點介紹本文提出的基于DOM的標點密度的正文提取。本文在第四節(jié)給出了詳細的實驗設(shè)置和結(jié)果分析,并在第五節(jié)進行了工作總結(jié)。

1相關(guān)工作

Rahman等[2]在2001年提出正文提?。–ontent Extraction)這個術(shù)語。近十余年,專家學者集中研究如何從網(wǎng)頁中抽取正文并提出了眾多的解決方法。

正文提取研究的早期,研究者使用正則表達式,通過查找特定的HTML標記形成公共模板,而后使用人工制定的網(wǎng)絡(luò)抽取器把內(nèi)嵌在公共模版間的內(nèi)容抽取出來。這些方法的優(yōu)勢在于其準確性非常高,而其明顯的劣勢則表現(xiàn)在對不同的網(wǎng)站要創(chuàng)建不同的正則表達式。甚至一個網(wǎng)站可能會有多種結(jié)構(gòu),而且這些網(wǎng)站還可能會改變其結(jié)構(gòu)或布局。上述情況表明,這類方法需要動態(tài)更新。

研究者提出了很多基于網(wǎng)頁統(tǒng)計信息的正文提取方法。Finn[3]等在2001年提出Body Text Extraction (BTE)算法。這個算法是為了提升數(shù)字圖書館正文分類器的準確性。研究將HTML文檔表示為一系列詞和標簽符號,再通過識別單一的連續(xù)的區(qū)域來抽取正文,通常識別出來的這個區(qū)域包含最多的詞和最少的HTML標簽。為了克服BTE方法只能發(fā)現(xiàn)一個單一的連續(xù)的文本塊的限制,Pinto等[4]把這個方法擴展成Document Slope Curves (DSC)方法。在該方法中,視窗技術(shù)可用于定位文檔區(qū)域,在這個區(qū)域中詞標記比標簽標記要更加頻繁。此次開發(fā)技術(shù)可用來提升QuASM系統(tǒng)使用網(wǎng)絡(luò)數(shù)據(jù)回答問題的性能和效率。

Debnath等[5]提出基于HTML文檔塊分割的Feature Extractor (FE)和K Feature Extractor (KFE)技術(shù)。該方法對每個塊分析了設(shè)定的特征例如文本的數(shù)量,圖像和腳本代碼,而后再通過選擇最符合某個期望特征(如最多的文本)的塊來提取正文。Gupta等[6]在2003年嘗試把不同的啟發(fā)式方法結(jié)合到Crunch的系統(tǒng)框架中。這個框架基于DOM樹,通過定義兩類過濾器發(fā)現(xiàn)并從DOM樹刪除非正文內(nèi)容。這一研究證明了,不同正文提取算法的適當組合會產(chǎn)生比單一的方法更好的結(jié)果。此后,Gottron[7]則設(shè)計了CombineE框架。這是一個最新的集成框架,能使得正文提取算法的配置變得更加簡單。

Mantratzis等[8]在2005年提出Link Quota Filter (LQF)方法。LQF通過識別文本與超鏈接比例高的DOM元素來確定鏈接列表和導(dǎo)航信息。這個方法實際是從文檔中刪除鏈接塊來提取正文。LQF的缺點是算法本身依賴于結(jié)構(gòu)元素,并且只能清除超鏈接類型的噪聲。Gottron[9]在2008年提出Content Code Blurring(CCB)算法。這個方法可在具有相同格式的源碼序列中進行正文提取。Weninger等[10]在2010年提出標簽比例(CETR)算法。該方法使用HTML文檔標簽比例從網(wǎng)頁中抽取正文。方法中,以行為基礎(chǔ)計算標簽比例,再將比例結(jié)果的直方圖聚類成正文和噪聲區(qū)域。CETR算法簡潔且高效的方法,但卻容易受到網(wǎng)頁源代碼風格變化的影響。Kohlschütter等[11]在2010年提出了一個可對網(wǎng)頁文本元素實施分類的簡單有效的應(yīng)用技術(shù)。具體就是通過分析一些淺文本特征(如平均句長、字數(shù)以及文本位置)來識別樣板,該方法的理論基礎(chǔ)是數(shù)量語言學的隨機文本生成。

孫飛等[12]在2011年提出Content Extraction via Text Density (CETD)算法。這個方法基于DOM樹,使用DOM樹節(jié)點的文本密度Text Density 和Composite Text Density衡量節(jié)點重要性,同時結(jié)合DensitySum區(qū)分出正文區(qū)域和噪聲區(qū)域,進而提取出正文內(nèi)容。該方法具有快速、準確、通用的特點,并且最終得到的是結(jié)構(gòu)化文本而不是大多數(shù)方法的純文本。Qureshi等[13]在2012年提出一個基于DOM樹的混合模型。研究中結(jié)合兩個不同的模型,一個模型基于統(tǒng)計特征(文本信息和鏈接密度),另一個模型則基于格式特性(如字體、風格、位置)。Uzun等[14]在2013年提出一個兩步驟相互促進的混合方法。其中的步驟一是使用決策樹學習得到抽取正文的規(guī)則,步驟二是利用得到的規(guī)則進行正文提取。相應(yīng)地,Insa等[15]也在2013年提出了Words/Leafs Ratio(WLR)算法。這個方法基于DOM樹,通過分析結(jié)點的文字葉子比率(WLR)和結(jié)點的層級關(guān)系,從而識別出包含正文的塊。

2基于DOM的標點密度的正文提取

這一節(jié)將主要介紹基于DOM樹的標點密度的正文提取算法。本文的這一算法是參考孫飛等[12]的基于DOM樹的文本密度算法的框架上,并通過優(yōu)化改進而最終獲得實現(xiàn)的。

2.1DOM樹

DOM(Document Object Model)的中文名是文檔對象模型,也就是一個與語言和平臺都無關(guān)的協(xié)議。該協(xié)議允許程序和腳本動態(tài)地獲取和更新HTML等文檔的內(nèi)容、結(jié)構(gòu)和風格。DOM提供了一系列接口,通過這些接口就可以對文檔進行處理,并將這些處理進行展現(xiàn)。DOM把HTML中的所有元素都定義成節(jié)點。DOM實際是一個樹狀結(jié)構(gòu),DOM樹通過樹的父子節(jié)點和兄弟節(jié)點來表示HTML中標簽的嵌套關(guān)系和并列關(guān)系。使用DOM處理HTML網(wǎng)頁,實際是把HTML文檔處理成一顆樹,DOM提供各種處理接口,這樣就能通過接口以樹的形式對HTML文檔進行訪問、處理以及呈現(xiàn)。

2.2標點密度

通過對古漢語現(xiàn)代漢語相應(yīng)網(wǎng)站的觀察和分析,可以發(fā)現(xiàn)有一個比文本密度更適合的特征。文本密度把所有的文本統(tǒng)一對待,但是文本不同,對于確定一個節(jié)點是否為正文節(jié)點的作用也是不一樣的。相對于其他文本內(nèi)容來說,標點符號則具有更為顯著的標識的作用。

從古漢語現(xiàn)代漢語網(wǎng)頁可以看出,標點符號只存在于正文中,不存在于噪聲信息中。其他兩個即將用到的網(wǎng)站也是這種情況?;谶@一原因,即可使用標點替換文本來計算密度更能區(qū)分正文和噪聲。為了和文本密度進行區(qū)分,可將其定義為標點密度。節(jié)點i的標點密度是節(jié)點i的標點個數(shù)PointNumber和節(jié)點i的節(jié)點個數(shù)NodeNumber的比值。其中,PointNumber表示節(jié)點所有子樹的標點個數(shù)之和;NodeNumber表示節(jié)點所有子樹的節(jié)點個數(shù)之和。

在算法的實現(xiàn)中,通過對DOM樹的遍歷,可以得到每一個節(jié)點的標點個數(shù)和節(jié)點個數(shù)并計算出其標點密度。這樣,DOM樹中的節(jié)點i的標點密度定義如下:

(1)

式中,Pi表示節(jié)點i的標點個數(shù),即PointNumber;Ni表示節(jié)點的節(jié)點個數(shù),即NodeNumber。當Ni是0時,令Ni=1。

PointDensity反映了網(wǎng)頁中對應(yīng)標簽的標點密度。結(jié)構(gòu)簡單且包含較多標點符號的標簽,其標點密度較高;結(jié)構(gòu)復(fù)雜且包含較少標點的節(jié)點其標點密度較小。同時,標點密度相對文本密度更獨立于網(wǎng)站的結(jié)構(gòu),而且對正文信息和噪聲的區(qū)分也將更加有效。

基于鏈接噪聲沒有或者很少有標點符號這個觀察事實,所提出的標點密度很必然地實現(xiàn)了對超鏈接噪聲的排除,所以此處將不再參照復(fù)雜文本密度定義復(fù)雜標簽密度。

2.3標點密度和

這里,參照文本密度和DensitySum定義標簽密度和PointDensitySum。節(jié)點i的標簽密度和定義為節(jié)點i的直接孩子節(jié)點的標簽密度之和,其公式如下:

(2)

其中,child(i)表示節(jié)點i的直接孩子節(jié)點集合,PointDensityj表示節(jié)點j的文本密度。閾值的選取,將文本密度、文本密度和分別替換為標點密度、標點密度和。這樣,先找到標簽密度和最大的節(jié)點,再將body節(jié)點到該節(jié)點路徑上的最小的節(jié)點標簽密度作為閾值。

2.4正文提取算法

研究使用孫飛等[16]開發(fā)的提取算法,只是將相應(yīng)的文本密度、文本密度和分別替換為標點密度、標點密度和。算法的輸入是網(wǎng)頁DOM樹的根節(jié)點R,和閾值t,輸出是網(wǎng)頁正文,算法描述如下:

(1)如果節(jié)點R的標點密度大于閾值t,則轉(zhuǎn)(2),否則結(jié)束;

(2)找到節(jié)點R的子樹(包括R本身)中標點密度和最大的節(jié)點C;

(3)將節(jié)點C標記為正文節(jié)點;

(4)對節(jié)點R的每個孩子節(jié)點提取正文。

3 實驗

在本節(jié)中,首先介紹了實驗數(shù)據(jù)和評價指標。然后,對實驗結(jié)果進行呈現(xiàn)和討論。

數(shù)據(jù)集

本文針對的是古漢語現(xiàn)代漢語平行篇章存在的網(wǎng)站及網(wǎng)頁。其中采用的實驗數(shù)據(jù)是隨機抽取50個古漢語現(xiàn)代漢語平行篇章網(wǎng)頁。標準正文是通過人工方式從網(wǎng)頁采選獲得的。

3.2評價指標

實驗結(jié)果的評價采用準確率Precision、召回率Recall和F值。設(shè)O為算法輸出的網(wǎng)頁正文,H為標準正文。把O,H看作漢字及標點符號組成的字符串,那么:

(3)

(4)

(5)

其中,LCS(O,H)表示字符串O,H的最長公共子串,len(LCS(O,H))表示LCS(O,H)的長度,len(O)表示字符串O的長度,len(H)表示字符串H的長度。

3.3實驗結(jié)果和分析

研究設(shè)計實現(xiàn)了文本密度、復(fù)雜文本密度和標點密度三個正文提取算法。其在數(shù)據(jù)集上的實驗結(jié)果對比可如表1所示。

表1 三種正文提取算法的性能比較

Tab.1 Comparison of three content extraction algorithm

方法\性能 準確率 召回率 F值

標點密度算法 0.891 1 1 0.942 4

文本密度算法 0.881 3 0.983 7 0.929 7

復(fù)雜文本密度算法 0.887 9 0.997 3 0.939 4

從實驗結(jié)果可以看到,使用標點密度的正文提取算法準確率、召回率和F值上均要高于其他兩種方法。

4 結(jié)束語

本文提出的基于標點密度的網(wǎng)頁正文提取方法,該方法的改進創(chuàng)新主要在于使用了更為合適的標點密度替換文本密度??偠灾?,這一研究進程就是基于文言文翻譯網(wǎng)站上的一個觀測事實,即:正文信息含有更多的標點符號而噪聲信息基本沒有標點符號。由此出發(fā),本文提出的方法獲得了比文本密度更好的性能,而且在準確率、召回率和F-值上都有一定的提升。

參考文獻:

[1] PUNERA K, GIBSON D, TOMKINS A. The volume and evolution of Web Page Templates[C]// Special interest tracks and posters of the 14th international conference on World Wide Web, Chiba:ACM, 2005:830-839.

[2] RAHMAN A F R, ALAM H, HARTONO R. Content extraction from html documents[C]//1st Int. Workshop on Web Document Analysis (WDA2001), Seattle:[s.n.], 2001: 1-4.

[3] FINN A, KUSHMERICK N, SMYTH B. Fact or fiction: Content classification for digital libraries[C]// DELOS Workshops, Citeseer:Dublin, 2001:1-6.

[4] PINTO D, BRANSTEIN M, COLEMAN R, et al. QuASM: a system for question answering using semi-structured data[C]//Proceedings of the 2nd ACM/IEEE-CS joint conference on Digital libraries, New York:ACM, 2002: 46-55.

[5] DEBNATH S, MITRA P, GILES C L. Automatic extraction of informative blocks from webpages[C]//Proceedings of the Acm Sac, Santa Fe:ACM, 2005:1722-1726.

[6] GUPTA S, KAISER G, STOLFO S. Extracting context to improve accuracy for HTML content extraction[C]//Special interest tracks and posters of the 14th international conference on World Wide Web, Chiba:ACM, 2005: 1114-1115.

[7] GOTTRON T. Combining content extraction heuristics: the CombinE system[C]//Proceedings of the 10th International Conference on Information Integration and Web-based Applications & Services, Linz:ACM, 2008: 591-595.

[8] MANTRATZIS C, ORGUN M, CASSIDY S. Separating XHTML content from navigation clutter using DOM-structure block analysis[C]// Hypertext 05 Proceedings of the Sixteenth Acm Conference on Hypertext & Hypermedia, New York:ACM, 2005:145-147.

[9] GOTTRON T. Content code blurring: A new approach to content extraction[C]// Proceedings of the 2008 19th International Conference on Database and Expert Systems Application, [s.1.]:IEEE Computer Society, 2008:29-33.

[10] WENINGER T, HSU W H, HAN J. CETR: content extraction via tag ratios.[C]// Proceedings of the 19th international conference on World wide web, Raleigh:ACM, 2010:971-980.

[11] KOHLSCHUTTER C, FANKHAUSER P, NEJDL W. Boilerplate detection using shallow text features[C]//Proceedings of the third ACM international conference on Web search and data mining, NewYork:ACM, 2010: 441-450.

[12] SUN F, SONG D, LIAO L. DOM based content extraction via text density[C]// Proceedings of the 34th international ACM SIGIR conference on Research and development in Information Retrieval, Beijing:ACM, 2011:245-254.

[13] QURESHI P A R, MEMON N. Hybrid model of content extraction[J]. Journal of Computer & System Sciences, 2012, 78(4):1248–1257.

[14] UZUN E, AGUN H V, YERLIKAYA T. A hybrid approach for extracting informative content from web pages[J]. Information Processing & Management, 2013, 49(4): 928-944.

[15] INSA D, SILVA J, TAMARIT S. Using the words/leafs ratio in the DOM tree for content extraction[J]. J. Log. Algebr. Program., 2013, 82(8): 311-325.

东阿县| 三河市| 大冶市| 东城区| 泽库县| 开封县| 吴川市| 策勒县| 廊坊市| 西平县| 全州县| 晋宁县| 沾益县| 扎囊县| 荔浦县| 普宁市| 楚雄市| 新乡市| 长乐市| 镇宁| 年辖:市辖区| 洛扎县| 化州市| 宝应县| 新竹市| 锡林浩特市| 松溪县| 娱乐| 淅川县| 汉中市| 仪征市| 渝中区| 崇明县| 广汉市| 若尔盖县| 稷山县| 将乐县| 古丈县| 平阴县| 岳西县| 交口县|