李雅靜 丁海洋
收稿日期:2023-04-17
基金項(xiàng)目:國(guó)家自然科學(xué)基金(61370188);北京市教委科研計(jì)劃(KM202010015009,KM202110015004);北京印刷學(xué)院科研創(chuàng)新團(tuán)隊(duì)項(xiàng)目(Eb202101);北京印刷學(xué)院重點(diǎn)教改項(xiàng)目(22150121033/009);北京印刷學(xué)院科研基礎(chǔ)研究一般項(xiàng)目(Ec202201);北京印刷學(xué)院博士啟動(dòng)金項(xiàng)目(27170120003/020,27170122006)
DOI:10.19850/j.cnki.2096-4706.2023.21.019
摘? 要:當(dāng)前網(wǎng)絡(luò)視頻中充斥著涉及敏感信息的內(nèi)容且不易識(shí)別,提出了一種基于最大穩(wěn)定極值區(qū)域和字典樹(shù)的視頻字幕敏感詞過(guò)濾算法,達(dá)到對(duì)此類(lèi)視頻內(nèi)容過(guò)濾、處理的目的。該方法采用MSER算法對(duì)文字進(jìn)行檢測(cè)與定位,來(lái)獲得候選文字區(qū)域,然后通過(guò)使用幾何和筆畫(huà)寬度屬性來(lái)減少這些可能區(qū)域的數(shù)量,再經(jīng)過(guò)幾何過(guò)濾的方法對(duì)候選區(qū)域進(jìn)行篩選、優(yōu)化,連接候選區(qū)域以獲得文本區(qū)域,最后利用字典樹(shù)算法進(jìn)行敏感詞過(guò)濾。實(shí)驗(yàn)結(jié)果表明,該方法可以有效地對(duì)視頻字幕敏感信息進(jìn)行檢測(cè)和過(guò)濾。
關(guān)鍵詞:最大穩(wěn)定極值區(qū)域;文字檢測(cè);視頻圖像;文字定位;敏感詞過(guò)濾
中圖分類(lèi)號(hào):TP391? 文獻(xiàn)標(biāo)識(shí)碼:A? 文章編號(hào):2096-4706(2023)21-0080-06
Video Subtitle Sensitive Word Filtering Algorithm Based on MSER
LI Yajing, DING Haiyang
(School of Information Engineering, Beijing Institute of Graphic Communication, Beijing? 102600, China)
Abstract: At present, network videos are full of content involving sensitive information and are not easy to identify, and a video subtitle sensitive word filtering algorithm based on the maximum stable extremal region and dictionary tree is proposed to achieve the purpose of filtering and processing such video content. This method uses MSER algorithm to detect and locate text to obtain candidate text regions, and then reduces the number of these possible regions by using geometry and stroke width attributes. After the screening and optimization of candidate regions by geometric filtering method, it connects candidate regions to obtain text regions, and finally uses dictionary tree algorithm for sensitive word filtering. Experimental results show that this method can effectively detect and filter video subtitle sensitive information.
Keywords: maximum stable extremal region; text detection; video image; text location; sensitive word filtering
0? 引? 言
智能手機(jī)和在線(xiàn)社交媒體的爆炸式增長(zhǎng)導(dǎo)致了大量視覺(jué)數(shù)據(jù)的積累。特別是互聯(lián)網(wǎng)和社交網(wǎng)絡(luò)上大量且不斷增加的視頻集合,例如抖音、微信、QQ、微博等軟件平臺(tái)的大量使用,能夠?qū)崿F(xiàn)信息內(nèi)容的自由交換與傳播,因此信息內(nèi)容的來(lái)源渠道也更加豐富。同時(shí)內(nèi)容的發(fā)布相對(duì)來(lái)講也較為隨意,目前大量的違規(guī)字幕充斥其中,尤其是一些帶有反動(dòng)色彩的信息、色情信息、賭博信息、暴力信息等往往能夠輕而易舉地通過(guò)這些軟件和平臺(tái)進(jìn)行傳播。這些不計(jì)其數(shù)的視頻引發(fā)了多媒體理解和視頻檢索方面的研究活動(dòng)。所以,有針對(duì)性地對(duì)信息過(guò)濾的方法以及技術(shù)開(kāi)展深入的研究,是絕對(duì)有必要的,同時(shí)具有極大的現(xiàn)實(shí)意義。隨著互聯(lián)網(wǎng)時(shí)代的發(fā)展,視頻、圖片和文字在網(wǎng)絡(luò)社區(qū)環(huán)境中,是十分流行的網(wǎng)絡(luò)信息傳播媒介。尤其是短視頻軟件的興起,使得不法分子投機(jī)取巧,在視頻當(dāng)中嵌入敏感詞匯,相較于圖片中的敏感詞匯更不容易察覺(jué)。因此為維護(hù)網(wǎng)絡(luò)社區(qū)環(huán)境的穩(wěn)定,保護(hù)網(wǎng)絡(luò)社區(qū)環(huán)境,要及時(shí)、必要地對(duì)敏感內(nèi)容進(jìn)行干預(yù)。
文本作為視頻中重要而直接的信息來(lái)源,在研究中受到越來(lái)越多的關(guān)注。例如,字幕文本通常做到翻譯或強(qiáng)調(diào)等作用,解釋視頻中的事件在何處、何時(shí)發(fā)生或涉及的信息。因此,視頻文本的提取和分析在多媒體理解系統(tǒng)中引起了廣泛的關(guān)注。近年來(lái),一些研究者通過(guò)利用文本視頻來(lái)執(zhí)行視頻檢索的研究,并且可以顯著地提高檢索性能。
Jung等人[1]在對(duì)圖片和視頻中的文字信息提取技術(shù)進(jìn)行研究后,把該信息提取設(shè)計(jì)中的基本過(guò)程概括為文字檢測(cè)、文字定位、追蹤、獲取和增強(qiáng),以及識(shí)別等。Antani等人[2]也將視頻文本提取分為四個(gè)任務(wù),在他們的系統(tǒng)中,跟蹤階段向空間-時(shí)間決策融合提供附加輸入以改進(jìn)定位。Elagouni等人[3]設(shè)計(jì)的視頻文本識(shí)別流程圖與之類(lèi)似,但增加了一個(gè)帶有自然語(yǔ)言處理的校正(后處理)步驟。Ye等人[4]提出一種自然場(chǎng)景圖像中文字檢測(cè)和識(shí)別的方法,該方法將顏色、紋理、OCR等統(tǒng)計(jì)特征有機(jī)地融合在一起,形成了一種從粗到細(xì)的分類(lèi)框架,實(shí)現(xiàn)了文字與非文字的識(shí)別。Liu等人[5]提出了一種基于邊緣的多尺度文本提取算法,能夠自動(dòng)檢測(cè)和提取復(fù)雜圖像中的文本。針對(duì)變形敏感詞,葉情[6]運(yùn)用改進(jìn)的Trie樹(shù),并對(duì)文本進(jìn)行預(yù)處理操作,達(dá)到對(duì)變形敏感詞高精度的過(guò)濾。
盡管已經(jīng)進(jìn)行了大量的研究,但是設(shè)計(jì)一個(gè)通用的視頻字幕敏感詞過(guò)濾系統(tǒng)并不容易,視頻當(dāng)中往往具有復(fù)雜的背景,文字也具有多種字體、大小、顏色、方向等特征,使得視頻中文本的檢測(cè)和識(shí)別極其困難。文中在分析了字幕過(guò)濾系統(tǒng)的需求后,結(jié)合相關(guān)技術(shù)和方法設(shè)計(jì)了一個(gè)基于最大穩(wěn)定極值區(qū)域視頻字幕敏感詞過(guò)濾系統(tǒng),主要工作如下:
1)對(duì)當(dāng)前國(guó)內(nèi)外圖片敏感信息過(guò)濾系統(tǒng)進(jìn)行了研究,通過(guò)對(duì)當(dāng)前國(guó)內(nèi)外互聯(lián)網(wǎng)對(duì)視頻字幕敏感信息過(guò)濾的需求分析,對(duì)視頻信息檢測(cè)重要性進(jìn)行介紹,最后分析了視頻文字信息檢測(cè)過(guò)濾的技術(shù)。
2)對(duì)視頻字幕敏感信息過(guò)濾算法進(jìn)行研究,對(duì)通過(guò)視頻字幕信息定位算法、視頻字幕文本識(shí)別算法、敏感信息過(guò)濾算法分別進(jìn)行研究。在視頻字幕定位模塊引入了基于最大穩(wěn)定極值區(qū)域的處理方法,最后通過(guò)對(duì)視頻場(chǎng)景中的語(yǔ)句寬度和復(fù)雜程度的綜合考慮,敏感語(yǔ)義分析模塊可以使用輕量級(jí)中文分詞算法和字典樹(shù)算法實(shí)現(xiàn)敏感語(yǔ)義分析。
3)設(shè)計(jì)了視頻字幕敏感詞過(guò)濾系統(tǒng),通過(guò)對(duì)系統(tǒng)的需求分析架構(gòu)設(shè)計(jì)、功能設(shè)計(jì),基于前文的視頻字幕的過(guò)濾算法,最終設(shè)計(jì)實(shí)現(xiàn)了視頻字幕敏感詞過(guò)濾系統(tǒng),可以有效地對(duì)視頻中文本進(jìn)行識(shí)別,并對(duì)敏感信息過(guò)濾。
1? 相關(guān)工作分析
一些研究者提出了視頻文本提取的具體框架。例如,劉明珠等人[7]在對(duì)視頻圖像進(jìn)行定位與識(shí)別時(shí)采用深度學(xué)習(xí)算法,使用二維Gabor濾波器提取文本特征,二維Gabor濾波器函數(shù)定義如下:
(1)
傅里葉變換式:
(2)
將視頻文件通過(guò)Gabor濾波器后,對(duì)文字在橫、豎、撇、捺四個(gè)方向上的紋理特征的進(jìn)行提取,將提取后的紋理特征作為訓(xùn)練樣本,通過(guò)深度學(xué)習(xí)算法實(shí)現(xiàn)對(duì)本文區(qū)域的定位。通過(guò)對(duì)定位結(jié)果的形態(tài)學(xué)運(yùn)算來(lái)消除噪聲,然后將其與最初定位后的圖像相對(duì)應(yīng),從而獲得只含有文字區(qū)域、沒(méi)有背景區(qū)域的文字圖像,以便于OCR系統(tǒng)中的字符識(shí)別。
而尹芳等人[8]采用一種獨(dú)特的方法,采用Adaboost算法生成強(qiáng)分類(lèi)器,對(duì)連通區(qū)域進(jìn)行篩選,去除非文本區(qū)域。在候選區(qū)域生成部分,采用傳統(tǒng)方法,通過(guò)對(duì)視頻圖像灰度化、邊緣提取來(lái)提取連通區(qū)域。將提取到的連通區(qū)域預(yù)處理,特征提取后送入生成的強(qiáng)分類(lèi)器,得到準(zhǔn)確的文本區(qū)域。
宋硯等人[9]將文字提取的方法總結(jié)為:文字檢測(cè)、文字定位、文字增強(qiáng)、文字切割和文字識(shí)別。提出了一種新的視頻字幕提取方法,在文字定位階段,運(yùn)用多尺度文字定位以及文字區(qū)域精確化方法。之后,利用一種改進(jìn)的K均值聚類(lèi)方法,對(duì)其中的像素展開(kāi)聚類(lèi),將傳統(tǒng)上需要指定的K的值,替換成一種自適應(yīng)地選擇類(lèi)數(shù)和初始聚類(lèi)中心的方法。對(duì)每個(gè)維度進(jìn)行等分,根據(jù)每個(gè)維度中包含的像素?cái)?shù)由高到低進(jìn)行排列。用像素的平均坐標(biāo)來(lái)代表每個(gè)箱,創(chuàng)建一個(gè)空白的中心表將排列好的箱的首個(gè)添加到中心表中,然后剩下的選擇標(biāo)準(zhǔn)為:
(3)
(4)
將第k個(gè)箱用一個(gè)點(diǎn)表示為ok(x,y,z,f )中心表里箱的數(shù)目就作為類(lèi)數(shù),中心表里箱的中心就作為初始聚類(lèi)中心。
Shi等人[10]提出了一個(gè)用于場(chǎng)景文本識(shí)別的圖模型,該模型基于最大穩(wěn)定極值區(qū)域(Maximally Stable Extremal Regions, MSER),將多個(gè)信息源整合為一個(gè)結(jié)構(gòu)。具體來(lái)說(shuō),在MSER檢測(cè)后,以原始場(chǎng)景的MSER為節(jié)點(diǎn)構(gòu)建一個(gè)不規(guī)則圖,原始圖像被MSER標(biāo)記為文本或非文本區(qū)域。重點(diǎn)放在MSER標(biāo)記過(guò)程上,保留文本區(qū)域同時(shí)去除大量非文本區(qū)域,提出了構(gòu)造基于MSER的圖模型。構(gòu)建了一個(gè)由節(jié)點(diǎn)和連接這些節(jié)點(diǎn)的無(wú)向邊組成的無(wú)向圖G = (V, E),假設(shè)每個(gè)MSER是無(wú)向圖中的節(jié)點(diǎn),并且每個(gè)節(jié)點(diǎn)的相鄰節(jié)點(diǎn)滿(mǎn)足下面的公式:
(5)
吳珊等人[11]采用了改進(jìn)的Trie和DFA過(guò)濾算法,利用改進(jìn)的Trie樹(shù)結(jié)構(gòu)對(duì)DFA的全部狀態(tài)進(jìn)行了存儲(chǔ),從而有效地解決了在敏感詞過(guò)濾過(guò)程中存在的人為干擾、分詞困難等主要問(wèn)題。劉偉等人[12]針對(duì)復(fù)雜背景下圖像中的非規(guī)則文本,提出了一種基于不規(guī)則文本的敏感詞語(yǔ)過(guò)濾算法。在此基礎(chǔ)上,提出了一種基于八鄰域標(biāo)記的連通域定位方法,并利用最小二分法糾正了傾斜文字,利用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了單個(gè)字符的識(shí)別,將中文分詞和字符串編輯距離應(yīng)用到了敏感字過(guò)濾中。敏感詞過(guò)濾針對(duì)句子,Hatzivassilo-glou等人[13]提出了一種針對(duì)句子當(dāng)中出現(xiàn)的形容詞的一種主觀層面的分析方法。同時(shí)基于這種分析方法,Wiebe等人[14]進(jìn)一步擴(kuò)充了判定的因素,例如將不同的詞性更加完整更加系統(tǒng)地納入判定范圍當(dāng)中,不同的詞語(yǔ)在不同句子當(dāng)中所處的位置也作為考量的范圍存在。
2? 視頻字幕文本敏感詞過(guò)濾算法
2.1? 算法總體設(shè)計(jì)
視頻中的文本可分類(lèi)為字幕或場(chǎng)景文本。字幕文本提供視頻的字幕或者注釋?zhuān)梢愿玫乩斫庖曨l內(nèi)容,而場(chǎng)景文本是自然地嵌入在對(duì)象(例如,商標(biāo)和建筑物)上。此外,可以將字幕文本分為兩類(lèi):分層字幕文本和嵌入字幕文本。分層字幕文本是打印在專(zhuān)門(mén)設(shè)計(jì)的背景層上,如圖1所示,而嵌入字幕文本覆蓋并嵌入在視頻中,如圖2所示。
視頻中文本提取一般包括三個(gè)任務(wù):檢測(cè)、定位和識(shí)別。檢測(cè)與定位主要是判斷視頻幀中是否包含文本區(qū)域,若包含則要確認(rèn)文字區(qū)域。當(dāng)前用于文字區(qū)域檢測(cè)的方法大致可劃分為四種類(lèi)型:基于邊緣、基于紋理、基于連通分量、基于深度學(xué)習(xí)。本文側(cè)重于從視頻中提取嵌入式字幕文本。視頻文本提取方法檢測(cè)和識(shí)別每個(gè)采樣的單獨(dú)幀中的文本。算法總體結(jié)構(gòu)設(shè)計(jì)如圖3所示。
系統(tǒng)整體結(jié)構(gòu)分為四部分,分別是:數(shù)據(jù)輸入、文定定位、文字識(shí)別和敏感詞過(guò)濾。數(shù)據(jù)輸入部分是將視頻部分提取出視頻幀的形式,送入系統(tǒng)當(dāng)中,對(duì)視頻幀圖像中的文字部分進(jìn)行定位。在此部分本文采用的是MSER算法。敏感詞過(guò)濾部分采用Trie樹(shù)的算法。具體的算法流程如圖4所示。
對(duì)輸入的視頻幀圖像進(jìn)行MSER檢測(cè)獲得最大穩(wěn)定極值區(qū)域,對(duì)得到的區(qū)域進(jìn)行過(guò)濾得到文本區(qū)域,文字識(shí)別后進(jìn)行敏感詞過(guò)濾。其中,文字定位部分十分重要,直接關(guān)系到后續(xù)整個(gè)文本識(shí)別的準(zhǔn)確度,若是定位出錯(cuò),就是無(wú)法準(zhǔn)確識(shí)別,定位以及敏感詞過(guò)濾的具體內(nèi)容在2.2和2.3節(jié)分別展開(kāi)介紹。
2.2? 文字定位
這部分采用的MSER算法是Matas等人在2002年提出的,它是一種檢測(cè)圖像中文本區(qū)域的圖像算法,主要以分水嶺的概念為基礎(chǔ),對(duì)圖像進(jìn)行斑點(diǎn)區(qū)域檢測(cè)。MSER首先將圖像變換為灰度級(jí)圖像,并且進(jìn)行二值化處理,將閾值設(shè)定為[0,255]。當(dāng)閾值增大時(shí),就會(huì)看到一幅全白的圖像,然后,與局部強(qiáng)度最小值相對(duì)應(yīng)的黑點(diǎn)就會(huì)出現(xiàn),并且逐漸變大,在某些位置對(duì)應(yīng)于兩個(gè)局部最小值的區(qū)域?qū)⒑喜?。隨著閾值的增加,黑色部分會(huì)逐漸增大,不斷地成長(zhǎng)和合并,直到整個(gè)圖像變成黑色。當(dāng)閾值增大時(shí),“黑點(diǎn)”會(huì)逐漸增大,不斷地成長(zhǎng)、合并,直至完全變?yōu)楹谏6祱D像的連通區(qū)域面積幾乎不發(fā)生任何改變,甚至沒(méi)有變化的,即為最大穩(wěn)定極值區(qū)。在應(yīng)用閾值時(shí),連接的分量組形成所有區(qū)域的集合。由于在該區(qū)域內(nèi)的像素與在該區(qū)域之外的像素相比,其強(qiáng)度更高或更低,所以該區(qū)域?yàn)闃O值區(qū)域。對(duì)于圖像中的文字區(qū)域灰度值是一致的,且內(nèi)部的灰度變化都比較小,而背景的灰度變化較大,與其像素灰度值差別大,所以在閾值上升的過(guò)程中,不會(huì)隨著周?chē)膮^(qū)域合并,所以文字區(qū)域的定位可以使用MSER算法。
最大極值穩(wěn)定區(qū)域的數(shù)學(xué)定義:定義圖像I是一個(gè)映射:
(6)
其中S是全序的,且僅考慮。定義像素間的鄰接關(guān)系。且相鄰,當(dāng)且僅當(dāng):
(7)
在區(qū)域的定義上,Q是D的連續(xù)子集,可定義為圖像上滿(mǎn)足鄰接關(guān)系的連通子集,即對(duì)于任意點(diǎn)p,q ∈ Q,有下式成立:
p,a1,a2,…,an,q? ? ? ? ? ? ? ? ?(8)
pAa1,a1Aa2,…,an Aq? ? ? ? ? ? ? ?(9)
其中a1 ∈ Q,i = 1,2,…,n。定義區(qū)域邊界:
(10)
對(duì)于?p ∈ Q和?q ∈ ?Q,有I(p)>I(q)成立,則稱(chēng)Q為極大值區(qū)域,反之為極小值區(qū)域。讓Q1,Q2,…,Qi-1,Qi是一組相互嵌套的極值區(qū)域,如果其面積變化率:
q(i) = | Qi+Δ - Qi-Δ | / | Qi |? ? ? ? ? ? ? ? (11)
有最小值,則稱(chēng)Qi極值區(qū)域是最大穩(wěn)定的。
對(duì)于剩下的區(qū)域,可以使用SWT(Stroke Width Transform)算法進(jìn)一步進(jìn)行判定。利用Canny算子檢測(cè)出圖像的邊緣,對(duì)邊緣進(jìn)行提取。根據(jù)邊緣上的像素點(diǎn)與筆畫(huà)對(duì)側(cè)的像素點(diǎn)相連,兩像素點(diǎn)梯度的夾角在±π/6,那么兩點(diǎn)之間就構(gòu)成一個(gè)筆畫(huà)寬度。通過(guò)筆畫(huà)寬度變換得到多個(gè)連通區(qū)域,在進(jìn)行過(guò)濾,篩去非文本區(qū)域。此階段完成消除部分。之后應(yīng)用形態(tài)學(xué)操作來(lái)獲得文本組,對(duì)輸入圖像進(jìn)行二值化,然后用膨脹運(yùn)算連接字符。
2.3? 敏感詞過(guò)濾
由于視頻字幕當(dāng)中所包含的文字信息內(nèi)容絕大多數(shù)都是以短語(yǔ)、短句的形式存在,因此并沒(méi)有采用深度學(xué)習(xí)這種方法和手段,主要采用的是中文分詞以及字典樹(shù)對(duì)語(yǔ)義傾向進(jìn)行檢測(cè)和判定。其中本文主要檢測(cè)的敏感信息包括:低俗內(nèi)容、暴力反動(dòng)等。一般的敏感詞檢測(cè),就是通過(guò)文本中是否包含敏感一些特定的敏感詞匯,若是包含就是說(shuō)明是敏感的,若是不包含則說(shuō)明不是違規(guī)的。
Trie樹(shù)(字典樹(shù))經(jīng)常被用來(lái)產(chǎn)生文本中詞語(yǔ)出現(xiàn)頻率的統(tǒng)計(jì),因?yàn)樗梢詫?duì)大量的字符串進(jìn)行排序和存儲(chǔ)。字典樹(shù)可以很好地節(jié)省存儲(chǔ)空間,使用一個(gè)共同的前綴,根節(jié)點(diǎn)中沒(méi)有字符,每個(gè)非根節(jié)點(diǎn)中只有一個(gè)字符,字符串對(duì)應(yīng)于從根節(jié)點(diǎn)到特定節(jié)點(diǎn)的路徑。根據(jù)上述描述,假設(shè)存在的單詞是abcde、abdef、aced、bcdf、bcff、cdaa和a,圖5顯示了構(gòu)成該單詞的Trie樹(shù)結(jié)構(gòu)。
3? 實(shí)驗(yàn)過(guò)程
針對(duì)以上技術(shù),通過(guò)前文對(duì)文本識(shí)別的研究,分析系統(tǒng)的功能需求,結(jié)合文本信息敏感詞過(guò)濾算法,實(shí)現(xiàn)了視頻字幕敏感詞過(guò)濾系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn),總體結(jié)構(gòu)設(shè)計(jì)如圖3所示。
3.1? 字幕定位與識(shí)別
MSER對(duì)圖像進(jìn)行二值化,二值化閾值取[0,255],它基本上能找到在很寬的閾值范圍內(nèi)保持相同的區(qū)域。當(dāng)應(yīng)用閾值時(shí),連接的分量組形成所有區(qū)域的集合。這些區(qū)域是極值,因?yàn)閰^(qū)域內(nèi)的像素具有比區(qū)域外的像素更高或更低的強(qiáng)度。MSER發(fā)現(xiàn)區(qū)域后,經(jīng)過(guò)幾何消去法過(guò)濾掉非文本區(qū)域。完成消除后,僅應(yīng)用形態(tài)學(xué)操作來(lái)獲得文本組。所有區(qū)域均被白化,對(duì)輸入圖像進(jìn)行二值化。然后用膨脹運(yùn)算連接字符,最后得到如圖6所示的輸出。
文字識(shí)別就是對(duì)二值化圖像中的文字進(jìn)行識(shí)別的過(guò)程,該步驟采用OCR軟件來(lái)完成。
3.2? 敏感詞過(guò)濾
對(duì)于敏感詞進(jìn)行過(guò)濾,其關(guān)鍵的技術(shù)就是對(duì)文本中的敏感詞進(jìn)行識(shí)別,然后進(jìn)行過(guò)濾處理,為了更好進(jìn)行敏感詞的過(guò)濾,首先需要進(jìn)行敏感詞庫(kù)的構(gòu)建。本文使用的網(wǎng)絡(luò)中使用較多的敏感詞庫(kù),利用敏感詞庫(kù)構(gòu)建一個(gè)敏感詞Trie樹(shù)。
Trie樹(shù)構(gòu)建的過(guò)程,其中假設(shè)有n個(gè)長(zhǎng)度為len的詞,其中是Trie樹(shù)的構(gòu)架的負(fù)載度可以設(shè)置O(n×len),O(len)表示的就是查找復(fù)雜度,利用構(gòu)建的Trie樹(shù)可以實(shí)現(xiàn)對(duì)敏感詞的快速查找。
將圖片中的文字信息識(shí)別出來(lái)后,對(duì)圖片中的文本信息敏感詞進(jìn)行過(guò)濾,首先是對(duì)文本進(jìn)行分詞,分詞后跟敏感詞庫(kù)進(jìn)行比對(duì),對(duì)匹配成功后,就將該詞匯進(jìn)行星號(hào)處理,其結(jié)果如圖7所示。
4? 結(jié)? 論
近年來(lái),隨著視頻處理技術(shù)的飛速發(fā)展,網(wǎng)絡(luò)社區(qū)環(huán)境復(fù)雜,視頻信息又和大量敏感內(nèi)容密切結(jié)合,解決該現(xiàn)象在網(wǎng)絡(luò)上的傳播和發(fā)酵成為維護(hù)網(wǎng)絡(luò)安全的關(guān)鍵。本文在視頻字幕敏感信息識(shí)別與過(guò)濾上做了一些探索,設(shè)計(jì)一個(gè)通用的視頻字幕敏感詞過(guò)濾系統(tǒng),將傳入的視頻文件提取視頻幀送入系統(tǒng),依次采用MSER檢測(cè)、SWT過(guò)濾和幾何過(guò)濾的方法對(duì)文本候選區(qū)域進(jìn)行篩選、優(yōu)化,待文字識(shí)別后進(jìn)行敏感詞過(guò)濾操作,實(shí)驗(yàn)結(jié)果表明,該方法在視頻文本定位和敏感詞過(guò)濾能力上都取得了良好的效果。但是仍然存在一些不足,如處理的速度、檢測(cè)的準(zhǔn)確率都需要進(jìn)行優(yōu)化才能推廣應(yīng)用。
參考文獻(xiàn):
[1] JUNG K,KIM K I,JAIN A K. Text Information Extraction in Images and Video: A Survey [J].Pattern Recognition,2004,37(5):977-997.
[2] ANTANI S K,CRANDALL D,KASTURI R. Robust Extraction of Text in Video [C]//Proceedings of 15th International Conference on Pattern Recognition.Barcelona:IEEE,2000:831-834.
[3] ELAGOUNI K,GARCIA C,S?BILLOT P. A Comprehensive Neural-Based Approach for Text Recognition in Videos Using Natural Language Processing [C]//Proceedings of the 1st ACM International Conference on Multimedia Retrieval.Trento:ICMR,2011,23:1-8.
[4] YE Q,JIAO J ,HUANG J,et al. Text Detection and Restoration in Natural Scene Images [J].Journal of Visual Communication & Image Representation,2007,18(6):504-513.
[5] LIU X,SAMARABANDU J. Multiscale Edge-Based Text Extraction from Complex Images [C]//2006 IEEE International Conference on Multimedia and Expo.Toronto:IEEE,2006:1721-1724.
[6] 葉情.基于改進(jìn)Trie樹(shù)的變形敏感詞過(guò)濾算法 [J].現(xiàn)代計(jì)算機(jī):專(zhuān)業(yè)版,2018(33):3-7.
[7] 劉明珠,鄭云非,樊金斐,等.基于深度學(xué)習(xí)法的視頻文本區(qū)域定位與識(shí)別 [J].哈爾濱理工大學(xué)學(xué)報(bào),2016,21(6):61-66.
[8] 尹芳,鄭亮,陳田田.基于Adaboost的視頻文本定位 [J].哈爾濱理工大學(xué)學(xué)報(bào),2017,22(1):103-108.
[9] 宋硯,劉安安,張勇東,等.基于聚類(lèi)的視頻字幕提取方法 [J].通信學(xué)報(bào),2009,30(2):136-140.
[10] SHI C,WANG C,XIAO B,et al. Scene Text Detection Using Graph Model Built Upon Maximally Stable Extremal Regions [J].Pattern Recognition Letters,2013,34(2):107-116.
[11] 吳珊,李英祥,徐鴻雁,等.基于改進(jìn)的Trie樹(shù)和DFA的敏感詞過(guò)濾算法 [J].計(jì)算機(jī)應(yīng)用研究,2021,38(6):1678-1682+1688.
[12] 劉偉,何瑤,仵晨陽(yáng),等.一種面向網(wǎng)絡(luò)安全的圖像文字敏感詞過(guò)濾方法 [J].西安郵電大學(xué)學(xué)報(bào),2018,23(4):89-93.
[13] HATZIVASSILOGLOU V,WIEBE J M. Effects of Adjective Orientation and Gradability on Sentence Subjectivity [C]//Proceedings of the 18th International Conference on Computational Linguistics.Stroudsburg:ACL,2000:299-305.
[14] WIEBE J,RILOFF E. Finding Mutual Benefit between Subjectivity Analysis and Information Extraction [J].IEEE Transactions on Affective Computing,2011,2(4):175-191.
作者簡(jiǎn)介:李雅靜(1999—),女,滿(mǎn)族,河北承德
人,碩士研究生在讀,研究方向:深度學(xué)習(xí)、數(shù)字圖像處理、信息隱藏;丁海洋(1979—),男,漢族,河南鄭州人,副教
授,博士,研究方向:信息隱藏、半色調(diào)信息隱藏、數(shù)字圖像處理。