黃卿 黃德宏 黃海 劉權(quán) 謝乃輝
(1.廣西廣播電視技術(shù)中心崇左分中心;2.廣西廣播電視信息網(wǎng)絡股份有限公司防城港分公司)
近年來,在新技術(shù)及經(jīng)濟社會發(fā)展強烈需求的共同驅(qū)動下,人工智能發(fā)展進入新階段,以機器學習,深度學習為代表的人工智能技術(shù)被譽為第四次工業(yè)革命。在廣播電視行業(yè)中,國家廣播電視總局科技司也編制了《廣播電視人工智能應用白皮書(2018)》,要求將人工智能技術(shù)應用于廣播電視行業(yè)。
卷積神經(jīng)網(wǎng)絡(CNN)在圖像和語音識別方面取得了卓越成效。卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks, CNN)是一類包含卷積計算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(Feedforward Neural Networks),是深度學習(deep learning)的代表算法之一[1-2]。
目前,廣播電視無線發(fā)射臺站的監(jiān)控系統(tǒng)大多采用閾值告警的方式,無法識別閾值內(nèi)數(shù)據(jù)波動的故障情況以及數(shù)據(jù)偶發(fā)性超閾值的軟故障情況。因此,本文基于CNN的經(jīng)典模型AlexNet對發(fā)射機入射功率監(jiān)控圖進行識別測試,識別出上述兩種故障情況。
數(shù)據(jù)集來源于大新中波臺某頻率中波發(fā)射機入射功率監(jiān)控圖,由于圖片特征值明顯,因此準備樣本集共1000張(小樣本數(shù)據(jù)集),分為兩類,頻繁在閾值區(qū)域內(nèi)波動(err類)和偶發(fā)性功率下降超過閾值(right類),每類樣本數(shù)量為500張,訓練集共800張,驗證集共200張。所有圖片經(jīng)過代碼預處理,將原本分辨率為1425×630的圖片處理成分辨率為475×210的圖片,以作為神經(jīng)網(wǎng)絡的輸入。
err類例圖如圖1a所示,某頻率1KW發(fā)射機日播出周期內(nèi)的采樣顯示情況,可以看到,其入射功率頻繁在400W上方波動,若門限值設置為400W,則系統(tǒng)不會出現(xiàn)任何的告警。right類例圖如圖1b所示,入射功率采樣顯示出現(xiàn)偶發(fā)性超閾值的情況,這樣的情況理論上是可以忽略的,但系統(tǒng)卻因此而出現(xiàn)告警。
圖1 監(jiān)控圖樣
AlexNet模型是2012年ImageNet競賽冠軍獲得者Hinton和他的學生Alex Krizhevsky設計的。其包含了 6 億三千萬條連接,6000 萬個參數(shù)和 65 萬個神經(jīng)元,其網(wǎng)絡結(jié)構(gòu)包括 5 層卷積,其中第一、第二和第五層卷積后面連接了最大池化層,然后是 3 個全連接層。AlexNet 不算池化層總共有 8 層,前 5 層為卷積層,其中第一、第二和第五層卷積都包含了一個最大池化層,后三層為全連接層。
由于本文的訓練環(huán)境采用的計算機是普通的CPU計算機,而此前AlexNet為提高運算效率,利用了兩塊GPU進行計算,鑒于本次實驗的環(huán)境無法承載傳統(tǒng)的AlexNet模型進行測試,因此有必要對傳統(tǒng)的AlexNet模型進行一定的修改。
圖2 AlexNet模型修改前后對比圖和構(gòu)建的CNN模型代碼圖
如圖2a所示顯示的是傳統(tǒng)的AlexNet模型的卷積層、池化層、全連接層參數(shù)等信息,如圖2b所示的是基于本文的條件修改AlexNet模型后的CNN模型各層參數(shù)信息,如圖2c所示為基于AlexNet構(gòu)建的CNN模型代碼圖,可以看到,修改后的CNN模型,一開始輸入的是本文預處理好的 475×210×3的圖像,卷積核的數(shù)量較傳統(tǒng)AlexNet模型縮減一半,為48,大小為11×11×3,步長為4,激活函數(shù)依然使用relu。池化層中pool_size = (3, 3),步長為2。之后的卷積核的數(shù)量同樣較傳統(tǒng)AlexNet模型縮減一半,其他保持不變。而由于樣本集特征值較為明顯,因此可以考慮縮減全連接層神經(jīng)元數(shù)量,最后的全連接層中神經(jīng)元的個數(shù)改為256和64,輸出softmax由1000改為2。(圖2)
模型構(gòu)建好后,本文基于Keras對模型進行訓練,如圖3a所示為圖片處理方法類圖,將樣本集進行一定的處理并向模型做路徑指引。
在主函數(shù)中設置“epochs=30”即訓練30輪,便可進行模型測試。如圖3c所示為模型訓練過程圖,可以看到,訓練集中acc值隨著loss值下降而上升,在驗證集方面,val acc的值也隨著val loss值的下降而上升,模型的訓練精度最終達到了0.995。如圖3b所示為模型acc-loss圖,圖中可以看出,模型雖然存在一些過擬合的現(xiàn)象,但收斂效果較好。因此,可以嘗試對模型進行實測。(圖3)
圖3 圖片處理方法類圖、模型訓練過程圖和acc-loss圖
圖4 模型識別測試樣本圖
圖5 模型調(diào)用和識別結(jié)果圖
本文準備了9張未經(jīng)過模型訓練過的樣本圖作為識別測試圖,如圖4所示,分別對圖由1到9進行編號,可以看到,屬于err類的為編號1、編號4、編號5、編號8、編號9這5張圖。屬于right類的為編號2、編號3、編號6、編號7這4張圖。
調(diào)用已經(jīng)保存好的模型對上述圖片進行識別實測,如圖5所示為模型調(diào)用和識別結(jié)果圖。由最后的輸出結(jié)果可以看到,模型判斷編號1、編號4、編號5、編號8、編號9這5張圖為err 類的可能性都為99.9%以上。而判斷編號2、編號3、編號6、編號7這4張圖為err類的可能性分別僅為:35%左右、20%左右、32%左右、14%左右。因此,該模型基于本次樣本集可很好地識別出頻繁在閾值區(qū)域內(nèi)波動和偶發(fā)性功率下降超過閾值的情況。
本文基于卷積神經(jīng)網(wǎng)絡AlexNet模型構(gòu)建了相應的CNN模型,并用構(gòu)建的模型對發(fā)射機入射功率監(jiān)控圖進行識別,以識別出頻繁在閾值區(qū)域內(nèi)波動和偶發(fā)性功率下降超過閾值的情況。實驗表明,該訓練精度為0.995的CNN模型實測效果良好。
隨著技術(shù)的不斷成熟,可以預見,人工智能技術(shù)將會在廣播電視無線傳輸發(fā)射領域得到大量應用,為安全播出工作的順利推進保駕護航,并促進廣播電視行業(yè)的長足發(fā)展。