林 偉
(陸軍軍官學(xué)院,合肥 230031)
通信信號(hào)的識(shí)別與分類關(guān)系密切,信號(hào)分類是信號(hào)識(shí)別的基礎(chǔ)。然而,現(xiàn)代電磁環(huán)境日趨復(fù)雜,新的通信體制通信信號(hào)不斷涌現(xiàn),信號(hào)分類和識(shí)別難度越來(lái)越大。“分類問(wèn)題”已成為人工智能中的一個(gè)重要研究方向。如何根據(jù)現(xiàn)代通信信號(hào)的特點(diǎn),選擇合適的分類方法識(shí)別通信信號(hào)已經(jīng)成為一個(gè)迫切需要解決的難題。
關(guān)于分類問(wèn)題,國(guó)內(nèi)外許多專家都進(jìn)行了廣泛、深入的研究,并取得了一些可喜的成果,如貝葉斯分類、決策樹(shù)分類法等。但是,貝葉斯分類必須已知先驗(yàn)概率和類別個(gè)數(shù),不便用于通信信號(hào)分類[1];由于通信信號(hào)存在不便量化的非數(shù)值型特征參數(shù),有時(shí)不便進(jìn)行神經(jīng)計(jì)算,神經(jīng)網(wǎng)絡(luò)分類方法有時(shí)受到限制[2];支持向量機(jī)是目前分類效率較高的方法,但算法復(fù)雜度相應(yīng)提高,對(duì)非數(shù)值型數(shù)據(jù)處理也不合適[3];決策樹(shù)的訓(xùn)練耗費(fèi)很大,運(yùn)算復(fù)雜度太高[4]。所以,用以上一種單純分類方法對(duì)通信信號(hào)分類不能最優(yōu)。
根據(jù)通信信號(hào)特征參數(shù)的特點(diǎn),給出了一種將粗糙集理論與覆蓋算法的概率模型結(jié)合起來(lái)的模式分類方法,這種方法實(shí)際上是將粗糙集和覆蓋算法的概率模型相結(jié)合的兩級(jí)復(fù)合分類方法。第1 級(jí)分類利用粗糙集進(jìn)行粗分,該理論在屬性約簡(jiǎn)、消除冗余信息等方面有優(yōu)勢(shì),能針對(duì)特征參數(shù)中非數(shù)值型參數(shù)簡(jiǎn)化信號(hào)屬性,提取其核心屬性,針對(duì)核心屬性,根據(jù)分類目的進(jìn)行粗分;第2 級(jí)分類借助覆蓋算法概率模型細(xì)分,用覆蓋算法構(gòu)造神經(jīng)網(wǎng)絡(luò),引入高斯有限混合模型,對(duì)數(shù)值型特征參數(shù),具有良好的分類性能,能實(shí)現(xiàn)精確分類,對(duì)粗分后的子集進(jìn)行精確分類。
粗糙集理論與覆蓋算法在模式分類中各有優(yōu)勢(shì)。粗糙集方法能簡(jiǎn)化規(guī)則,消除冗余信息;覆蓋算法的概率模型能提高分類精度。在解決實(shí)際問(wèn)題時(shí),可以根據(jù)決策屬性選擇解決方法。設(shè)決策屬性為D,條件屬性C =C1∪C2,其中C1是非數(shù)值型條件屬性,C2是數(shù)值型條件屬性,有3 種方法供選擇:
方法1 若D=f(C1),即D 只由C1決定,可用粗糙集方法;
方法2 若D=f(C2),即D 由C2唯一決定,可用覆蓋算法的概率模型;
方法3 若D=f(C1∪C2),即D 由C1和C2共同決定,則采用二者相結(jié)合的方法。
例如,一信息表是一個(gè)班的學(xué)生基本情況表,若D =性別,則用方法1;若D=全體學(xué)生平均成績(jī),則用方法2;若D=男女學(xué)生的平均成績(jī),則用方法3。
方法3 具體實(shí)現(xiàn)步驟:
1)基于粗糙集的非數(shù)值型條件屬性約簡(jiǎn):
①求出決策屬性D 的非數(shù)值型條件屬性C 的正區(qū)域POSC(D);
②對(duì)每一個(gè)非數(shù)值型條件屬性ci,計(jì)算POSC-{ci}(D),若POSC-{ci}(D)=POSC(D),則ci是可約去的,否則,ci不可約去,從而得非數(shù)值型條件屬性的核CORE(C);
③求含CORE(C)的最小集合P,使得POSP(D)=POSC(D),得C 的最小約簡(jiǎn)P。
2)將輸入空間的學(xué)習(xí)樣本約簡(jiǎn)為只含core[]中核值屬性的樣本,得簡(jiǎn)化的學(xué)習(xí)樣本。
3)對(duì)數(shù)據(jù)粗分類,根據(jù)需求篩選出滿足非數(shù)值型條件屬性的子集。
4)基于覆蓋算法的概率模型的海量數(shù)據(jù)挖掘算法的分類。
給定m 類分類的訓(xùn)練樣本集K={K1,K2,…,Km},算法實(shí)現(xiàn)具體步驟:
①利用覆蓋算法,求出各類的覆蓋組{C1,C2,…,Cm}:
a)將所有點(diǎn)投影到Sn上(中心在原點(diǎn),半徑為R,R >
b)若K1(開(kāi)始時(shí)i =1)非空,作一覆蓋m,j=1,2,…,gi,它只覆蓋K1的點(diǎn),被Cij 覆蓋Ki的子集為Kij(j=1,2,…,gi);
c)若Ki被覆蓋完,i=i+1,若i >m,則轉(zhuǎn)至h,否則,任取Ki中尚未被覆蓋的一點(diǎn)ai;
e)求C(ai)所覆蓋點(diǎn)的重心,將其映射到球面上,設(shè)投影點(diǎn)為,按④中公式求,求得球形領(lǐng)域C);
g)求ai的平移點(diǎn),并求對(duì)應(yīng)的球形領(lǐng)域C),若C)覆蓋的點(diǎn)數(shù)大于C(ai)所覆蓋的點(diǎn)數(shù),轉(zhuǎn)到e),否則,得到C(ai)的一個(gè)覆蓋,轉(zhuǎn)步c);
h)樣本學(xué)習(xí)結(jié)束,得到覆蓋組。
②以覆蓋的中心為高斯核函數(shù)的均值,取半徑為方差,對(duì)每覆蓋引入高斯核函數(shù);立有限混合概率模型;
④利用文獻(xiàn)[5]中給出求解最大似然的迭代EM 算法進(jìn)行最大似然擬合;
⑤訓(xùn)練結(jié)束將得到p 個(gè)球形領(lǐng)域,所有訓(xùn)練樣本被分成m 類不同覆蓋集合K={K1,K2,…,Km},其中Ki=Ki1∪Ki2∪…∪Kij(i=1,2,…,m,p≥m)。
方法3 的步驟1 和2 降低了輸入數(shù)據(jù)的維數(shù),步驟3 減少后續(xù)覆蓋算法的樣本個(gè)數(shù),步驟4 具有較高的分辨能力,因此方法3 既快速又準(zhǔn)確。
實(shí)驗(yàn)用某型號(hào)接收機(jī)接收并采集通信信號(hào),提取其特征參數(shù),如表1 所示,信號(hào)U1、信號(hào)U2 和信號(hào)U3 的特征是從采集廣播電臺(tái)的數(shù)據(jù)中提取的,信號(hào)U4 和信號(hào)U5 是自己用某型號(hào)電臺(tái)發(fā)射信號(hào),經(jīng)接收和采集而提取的。表1、2 中,U為論域,即信號(hào)個(gè)體;Xi(i=1,2,…)為信號(hào)屬性,其中X1為調(diào)制樣式,X2為信號(hào)的頻率波段,X3為頻率(kHz),X4為強(qiáng)度(信號(hào)歸一化功率),X5為帶寬(kHz),X6為調(diào)制參數(shù),X7為信號(hào)應(yīng)用領(lǐng)域;Y 為決策屬性,即結(jié)果。
C={X1,X2,…,Xn}為條件屬性集,∩(C -X7)=∩C,所以X7為C 中可省略的,同理約簡(jiǎn)其他冗余屬性,得到約簡(jiǎn)后的屬性集Score={X1,X2,…,X6},如表2 所示。
表1 通信信號(hào)的部分特征
表2 是完備屬性集,因?yàn)椤?C -{Xi})≠∩C,即Xi是不可省略的(i =1,2,…,6)。與表1 相比,信號(hào)的屬性個(gè)數(shù)減少了,即輸入數(shù)據(jù)維數(shù)降低了。因此,可以根據(jù)需求,利用非條件屬性進(jìn)行粗分類。若需求為X1=“AM”,X2=“中波”,經(jīng)過(guò)粗分類,只有信號(hào)U1 和信號(hào)U2 滿足要求,接著對(duì)這2 個(gè)信號(hào)用覆蓋算法概率模型細(xì)分,其他3 個(gè)信號(hào)就不再作細(xì)分的考慮。因此減少了進(jìn)行覆蓋計(jì)算的樣本數(shù),對(duì)大規(guī)模模式分類具有重要的意義。
實(shí)驗(yàn)在不同時(shí)間分別大量接收并采集表1 中的所有信號(hào),提取其特征向量,用方法1、方法2 和方法3 比較,結(jié)果如表3 所示。
表3 通信信號(hào)分類與識(shí)別結(jié)果
通過(guò)表3,可以發(fā)現(xiàn)采用粗糙集和覆蓋算法覆蓋模型相結(jié)合的方法比單獨(dú)使用粗糙集或覆蓋算法概率模型,在所用時(shí)間和正確率上都有大幅度的提高,說(shuō)明這種方法是有效的。
分類是識(shí)別的基礎(chǔ),是人工智能研究的一個(gè)重要課題。關(guān)于分類問(wèn)題,國(guó)內(nèi)外許多專家都進(jìn)行了廣泛、深入的研究,并取得了一些可喜的成果,但是,沒(méi)有一種分類方法對(duì)所有事物的分類都適用,沒(méi)有一種方法對(duì)任何分類問(wèn)題都最優(yōu)。本文分析了常用的分類方法的優(yōu)缺點(diǎn),根據(jù)通信信號(hào)的特點(diǎn),提出了基于粗糙集和覆蓋算法的概率模型的通信信號(hào)分類方法。首先利用粗糙集能夠進(jìn)行屬性約簡(jiǎn)、消除冗余信息等方面有優(yōu)勢(shì),簡(jiǎn)化特征參數(shù)中非數(shù)值型參數(shù)的信號(hào)屬性,提取其核心屬性;然后再借助覆蓋算法概率模型具有良好的分類性能,對(duì)數(shù)值型參數(shù)細(xì)分,對(duì)粗糙集約簡(jiǎn)后的最小屬性子集進(jìn)行分類。最后給出了算法的實(shí)現(xiàn)步驟,對(duì)實(shí)際信號(hào)進(jìn)行了分類實(shí)驗(yàn),實(shí)驗(yàn)效果證明提出的方法是適用的。
[1]Heckman D,Geiger D,Chickering D.Learning Bayesian networks:the combination of knowledge and statistical data.Machine Learning[J].1995,20(3):197-243.
[2]張鈴,張鈸.人工神經(jīng)網(wǎng)絡(luò)理論及應(yīng)用[M].杭州:浙江科學(xué)技術(shù)出版社,1997.
[3]崔偉東,周志華,李星.支持向量機(jī)研究[J].計(jì)算機(jī)工程與應(yīng)用,2001(1):58-61.
[4]Hunt E B,Marin J,Stone P T. Experiments in Induction[J].Academic Press,1966,63:227-230.
[5]Dempster A P,Laird N M,Rubin D B.Maximum likelihood from incomplete data using the EM algorithm(with discussion)[J].R Stat Soc Ser B,1977,39:1-38.
[6]陳敏. OPNET 網(wǎng)絡(luò)仿真[M]. 北京:清華大學(xué)出版社,2004.
[7]王文博,張金文.OPNET Modeler 與網(wǎng)絡(luò)仿真[M].北京:人民郵電出版社,2003.
[8]劉建國(guó),柯鈺,鐘京立.軍事通信網(wǎng)絡(luò)基礎(chǔ)教程[M].北京:北京航空航天大學(xué)出版社,2001.
[9]張玉,楊曉靜.地域通信網(wǎng)網(wǎng)絡(luò)性能的計(jì)算機(jī)仿真研究[J].計(jì)算機(jī)工程,2004(8):51-54.
[10]何非常.軍事通信[M].北京:國(guó)防工業(yè)出版社,2000:24-75.
[11]岳偉甲,劉昌錦.一種基于VC ++的通信信號(hào)仿真軟件設(shè)計(jì)[J].四川兵工學(xué)報(bào),2011(5):92-95.