顧浩 尹鐘
0 引言
自動化系統(tǒng)任務(wù)性能與人類操作員的精神狀態(tài)密不可分。腦力負(fù)荷(Mental Workload)指操作者執(zhí)行特定認(rèn)知任務(wù)時的心理生理負(fù)擔(dān),通常與情境意識、情緒和警惕有關(guān)[1]。 腦力負(fù)荷與操作員的專業(yè)知識、個性、任務(wù)類型及生理變量密切相關(guān),社會壓力和期望等社會變量也會影響腦力負(fù)荷水平。腦力負(fù)荷是分析和實(shí)現(xiàn)人機(jī)協(xié)作任務(wù)的關(guān)鍵因素,若操作員長期執(zhí)行工作,可能導(dǎo)致記憶性能下降甚至惡化,通常表現(xiàn)為操作員無法集中注意力進(jìn)行分析,導(dǎo)致工作效率低,甚至引發(fā)不可逆轉(zhuǎn)的事故。
因此提高腦力負(fù)荷分類準(zhǔn)確性、準(zhǔn)確評估操作員腦力負(fù)荷具有重要意義,相關(guān)研究可用于指導(dǎo)操作員高效地開展工作。
不同級別的腦力負(fù)荷與瞬態(tài)期間接收的信息密切相關(guān)[2-3]。本文實(shí)驗(yàn)將收集操作員在不同工作負(fù)荷水平下頭皮產(chǎn)生的腦電信號。腦電信號是一種神經(jīng)生理學(xué)標(biāo)記物,其使用電生理指標(biāo)記錄大腦活動[4]。當(dāng)皮層中的大量神經(jīng)元彼此同步時,產(chǎn)生突觸后電位形成腦電信號,記錄大腦活動變化。腦電信號是復(fù)雜的非平穩(wěn)隨機(jī)時間序列,特征提取和組合難度很大[5-7]。
基于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法在特征學(xué)習(xí)方面表現(xiàn)令人印象深刻[8],人工神經(jīng)網(wǎng)絡(luò)在數(shù)據(jù)分類方面也有卓越表現(xiàn)。首先,人工神經(jīng)網(wǎng)絡(luò)是數(shù)據(jù)驅(qū)動的;其次,神經(jīng)網(wǎng)絡(luò)從噪聲訓(xùn)練數(shù)據(jù)中壓縮編碼[9-11],即在訓(xùn)練之后,即使訓(xùn)練數(shù)據(jù)包括不可見的輸入模式,通常也可產(chǎn)生良好的結(jié)果;第三,神經(jīng)網(wǎng)絡(luò)具有靈活的并行結(jié)構(gòu),可以同時解決高維輸入的問題[10]。
超限學(xué)習(xí)機(jī)(ELM)是一種特殊的單隱藏層前饋人工神經(jīng)網(wǎng)絡(luò)(SLFN)[12]。ELM與經(jīng)典SLFN的區(qū)別在于訓(xùn)練權(quán)重算法[13-15]。在標(biāo)準(zhǔn)ELM中,輸入層到隱藏層的權(quán)重在分布中隨機(jī)分配。在通過隨機(jī)權(quán)重將輸入層鏈接到隱藏層之后,可根據(jù)最小二乘法獲得從隱藏層到輸出層的輸出權(quán)重[16-17]。在ELM訓(xùn)練模型過程中進(jìn)行輸出權(quán)重的計(jì)算。ELM通??梢酝ㄟ^支持向量機(jī)產(chǎn)生競爭性學(xué)習(xí)泛化能力[18]。ELM在特定應(yīng)用中的表現(xiàn)也優(yōu)于深度學(xué)習(xí)。在許多應(yīng)用中,ELM與深度學(xué)習(xí)具有很強(qiáng)的互補(bǔ)性。憑借其泛化和學(xué)習(xí)速度優(yōu)勢,ELM引起研究人員高度關(guān)注。ELM學(xué)習(xí)算法應(yīng)用領(lǐng)域廣泛,如大數(shù)據(jù)分析、機(jī)器人、智能電網(wǎng)、健康產(chǎn)業(yè)、可穿戴設(shè)備、異常檢測、地球科學(xué)和遙測等[19-20]。
1 方法分析
本文采用一種融合超限學(xué)習(xí)機(jī)與支持向量機(jī)的混合集成分類器,對腦力負(fù)荷水平進(jìn)行二分類。本部分簡要回顧超限學(xué)習(xí)機(jī)與支持向量機(jī)的基本訓(xùn)練算法,再介紹混合集成分類器設(shè)計(jì)原理。
1.2 支持向量機(jī)
支持向量機(jī)是一個二分類模型,其核心是定義特征空間中最大間隔的線性分類器。 線性分類器與感知器不同之處在于最大間隔。 支持向量機(jī)還包括內(nèi)核技術(shù),它使支持向量機(jī)成為基本非線性的分類器。 非線性分類問題指如何通過使用非線性模型進(jìn)行良好分類。對于一個給定的數(shù)據(jù)集:
1.3 超限學(xué)習(xí)機(jī)與支持向量機(jī)的結(jié)合
本文用整體數(shù)據(jù)集的80%作為訓(xùn)練數(shù)據(jù)集(23040*137),20%作為測試集(5760*137)。
本文實(shí)驗(yàn)使用不同數(shù)目的支持向量機(jī)對訓(xùn)練數(shù)據(jù)集進(jìn)行訓(xùn)練,得出的結(jié)果不通過最后的符號函數(shù)進(jìn)行處理,而是將這些離散值放入超限學(xué)習(xí)機(jī)中再次訓(xùn)練,超限學(xué)習(xí)機(jī)的輸入神經(jīng)元個數(shù)與支持向量機(jī)的個數(shù)保持一致,通過該方法得出訓(xùn)練精度與測試精度。之后通過改變與超限學(xué)習(xí)機(jī)結(jié)合的支持向量機(jī)個數(shù),分別得出訓(xùn)練精度與測試精度。
同樣可以將支持向量機(jī)作為終層分類器,將不同個數(shù)的超限學(xué)習(xí)機(jī)訓(xùn)練結(jié)果結(jié)合,最后放入支持向量機(jī)中,得到最終訓(xùn)練結(jié)果,在此之間通過改變支持向量機(jī)核函數(shù)得到更高的測試精度與訓(xùn)練精度。
2 實(shí)驗(yàn)結(jié)果
本文使用超限學(xué)習(xí)機(jī)運(yùn)行初始數(shù)據(jù)集,通過改變超限學(xué)習(xí)機(jī)隱藏層神經(jīng)元數(shù)量,可以獲得不同訓(xùn)練精度和測試精度。具有最高測試精度的隱層神經(jīng)元數(shù)量為2 300,隱層數(shù)量為2 300,最高測試精度為0.793 4,訓(xùn)練精度為0.834 7。
取1到5,分別以 5種不同的支持向量機(jī)個數(shù)組成混合分類器,測試數(shù)據(jù)訓(xùn)練與測試。每個數(shù)目的支持向量機(jī)在打亂數(shù)據(jù)的前提下運(yùn)行5次,實(shí)驗(yàn)結(jié)果如表1所示,測試精度與訓(xùn)練精度分別是運(yùn)行5次的平均值。
從表1可以看出支持向量機(jī)個數(shù)越多,得到的訓(xùn)練精度就越高,此時5個支持向量機(jī)的參數(shù)相同,然后改變支持向量機(jī)的參數(shù),使5個支持向量機(jī)的參數(shù)各不相同,得到的分類結(jié)果如表2所示。
從表2可以發(fā)現(xiàn)使用不同的支持向量機(jī)參數(shù)可以得到更高的訓(xùn)練精度與測試精度。用跨被試的方法將8個被試數(shù)據(jù)中的7個作為訓(xùn)練數(shù)據(jù)集,1個作為測試數(shù)據(jù)集,實(shí)驗(yàn)8次結(jié)果如表3所示。
從表4中可以發(fā)現(xiàn)混合分類器在訓(xùn)練時間上比單個支持向量機(jī)與單個超限學(xué)習(xí)機(jī)花費(fèi)的訓(xùn)練時間長,但是訓(xùn)練精度與測試精度相比有所提高。本文將混合分類器與其它主流算法進(jìn)行對比,對比結(jié)果如表5所示。
從表4中可以發(fā)現(xiàn)支持向量機(jī)與超限學(xué)習(xí)機(jī)混合分類器的分類精度與其它算法相比有顯著提升,訓(xùn)練精度可以穩(wěn)定地維持在1.0,測試精度也有不錯的表現(xiàn)。
同樣將SVM作為終極分類器,使用不同個數(shù)的ELM訓(xùn)練數(shù)據(jù)集,SVM選擇不同的核函數(shù)實(shí)驗(yàn)結(jié)果,如表6所示。
從表6、表7可以看出,與以終極分類器為ELM的分類器相比,該方式結(jié)合的混合分類器表現(xiàn)效果較差。
SVM是一種最常用的、性能最佳的分類器,具有良好的泛化能力,在小樣本訓(xùn)練集上,SVM可以獲得比其它算法更好的結(jié)果,因此可以通過調(diào)整參數(shù)提高分類結(jié)果。隨著ELM模型訓(xùn)練時間的縮短,可以先將數(shù)據(jù)輸入ELM進(jìn)行訓(xùn)練。通過調(diào)整參數(shù),可輕松獲得訓(xùn)練好的ELM模型,且訓(xùn)練精度較高。將SVM降維的數(shù)據(jù)放入訓(xùn)練好的ELM中,由于ELM具有良好的原始數(shù)據(jù)分類性能,因此兩個分類器組合將提高分類準(zhǔn)確性。
3 結(jié)語
為提高腦力負(fù)荷分類準(zhǔn)確性,本文提出了一種基于傳統(tǒng)機(jī)器學(xué)習(xí)算法支持向量機(jī)與新興算法超限學(xué)習(xí)機(jī)的混合方法。該方法將支持向量機(jī)訓(xùn)練獲得的結(jié)果再次放入超限學(xué)習(xí)機(jī)進(jìn)行訓(xùn)練,雖然該過程延長了數(shù)據(jù)集訓(xùn)練時間,但與其它算法相比,訓(xùn)練精度達(dá)到1,且測試精度也有0.1%的提升。下一步將通過繼續(xù)改變支持向量機(jī)數(shù)量與超限學(xué)習(xí)機(jī)數(shù)量,驗(yàn)證能否得到更好的分類結(jié)果。
參考文獻(xiàn):
[1] KAMIOKA D,MURAI? K,KITAMURA K,et al. Construction of port-coordinator duties list for mental workload assessment[C]. IEEE International Conference on Systems, Man, and Cybernetics,2017:3409-3414.
[2] LIN O,LIU G Y,YANG J M,et al. Neurophysiological markers of identifying regret by 64 channels EEG signal[C]. The 12th International Computer Conference on Wavelet Active Media Technology and Information Processing, 2015:395-399.
[3] 韓文民. 基于腦電的輕裝作業(yè)操作者腦力負(fù)荷與績效的分析[D]. 鎮(zhèn)江:江蘇科技大學(xué)經(jīng)濟(jì)與管理學(xué)院,2019.
[4] 王禹,肖毅,周前祥,等. 基于腦電信號的腦力負(fù)荷監(jiān)測技術(shù)研究現(xiàn)狀[J]. 航天醫(yī)學(xué)與醫(yī)學(xué)工程,2018,5(577):577-582.
[5] 基于深度信念網(wǎng)絡(luò)的腦電信號疲勞檢測系統(tǒng), 朱龍飛,浙江工業(yè)大學(xué)經(jīng)貿(mào)管理學(xué)院浙江工業(yè)大學(xué)軟件學(xué)院
[6] TJANDRASA H,DJANALI S,ARUNANTO F X. Feature extraction using combination of intrinsic mode functions and power spectrum for EEG signal classification[C]. The 9th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics,2016:1498-1502.
[7] AJKOWSKI A,KO?ODZIEJ M,ZAPA?A D,et al. Selection of EEG signal features for ERD/ERS classification using genetic algorithms[C]. The 18th International Conference on Computational Problems of Electrical Engineering ,2017:1-4.
[8] GEETHANJALI P,MOHAN Y K,SEN J. Time domain feature extraction and classification of EEG data for brain computer interface[C]. The 9th International Conference on Fuzzy Systems and Knowledge Discovery,2012:1136-1139.
[9] SMITH K A. A data-driven rule-based neural network model for classification[C]. The 6th International Conference on Neural Information Processing,1999:855-860.
[10] WANG X Q,SUN F Y,SHAN R L,et al. Application research on artificial neural networks for processing noise signal[C]. 2008 International Workshop on Education Technology and Training & 2008 International Workshop on Geoscience and Remote Sensing,2008:640 - 644.
[11] PENG J X,LI K,IRWIN G W. A new Jacobian matrix for optimal learning of single-layer neural networks[C]. IEEE Transactions on Neural Networks,2008:119-129.
[12] RAJAGURU H,PRABHAKAR S K,Sparse PCA and soft decision tree classifiers for epilepsy classification from EEG signals[C]. International conference of Electronics, Communication and Aerospace Technology,2017:581-584.
[13] RUSTAN A A. Using artificial neural networks to improve hardware branch predictors[C].? International Joint Conference on Neural Networks,1999:3419-3424.
[14] KONG X X,CHENG M,SHU Y S. Extreme learning machine based phase angle control for stator-doubly-fed doubly salient motor for electric vehicles[C].? IEEE Vehicle Power and Propulsion Conference,2008:1-5.
[15] YANG S M,WANG Y L,SUN B. ELM weighted hybrid modeling and its online modification[C].? 2016 Chinese Control and Decision Conference,2016:3443 - 3448.
[16] LIMA S M L, FILHO A G S,SANTOS W P. A methodology for classification of lesions in mammographies using Zernike Moments, ELM and SVM Neural Networks in a multi-kernel approach,2014 IEEE International Conference on Systems, Man, and Cybernetics (SMC),2014:988 - 991.
[17] CHEN S W,SHANG Y,WU M H. Application of PSO-ELM in electronic system fault diagnosis[C].? IEEE International Conference on Prognostics and Health Management ,2016:1-5.
[18] FESTILA L,GROZA R,CIRLUGEA M,et al. Log-domain linear SVM classifier[C]. 14th International Conference on Mixed Design of Integrated Circuits and Systems,2007:301-304.
[19] AKAHO S. SVM maximizing margin in the input space[C]. Proceedings of the 9th International Conference on Neural Information Processing, 2002:1069-1073.
[20] AJEEB N,NAYAL A,AWAD M. Minority SVM for linearly separable imbalanced datasets[C]. The 2013 International Joint Conference on Neural Networks,2013:1-5.
(責(zé)任編輯:江 艷)