羅輝 韓紀(jì)慶
摘 要: 本文研究了語(yǔ)音情感識(shí)別中的半監(jiān)督特征選擇問(wèn)題,即如何利用未標(biāo)記語(yǔ)音情感數(shù)據(jù)來(lái)幫助選擇具有情感判別性的特征。為了解決這個(gè)問(wèn)題,提出了一種新的基于圖的半監(jiān)督特征選擇方法。其可以根據(jù)標(biāo)簽適應(yīng)度和流形平滑度,在圖上估計(jì)一個(gè)預(yù)測(cè)標(biāo)簽矩陣,從而有效地利用標(biāo)記數(shù)據(jù)中的標(biāo)簽信息,以及標(biāo)記數(shù)據(jù)和未標(biāo)記數(shù)據(jù)中的流形結(jié)構(gòu)信息。與現(xiàn)有的基于圖的方法相比,該方法能同時(shí)進(jìn)行特征選擇和局部結(jié)構(gòu)學(xué)習(xí),從而自適應(yīng)地確定圖相似度矩陣。同時(shí),還對(duì)圖相似度矩陣進(jìn)行了約束,使其包含更準(zhǔn)確的數(shù)據(jù)結(jié)構(gòu)信息,從而可以選擇更有判別性的特征。此外,提出了一種有效的迭代算法來(lái)優(yōu)化該問(wèn)題。在典型語(yǔ)音情感數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,本文提出的方法是有效的。
關(guān)鍵詞: 語(yǔ)音情感識(shí)別; 半監(jiān)督特征選擇; 自適應(yīng)結(jié)構(gòu)圖
文章編號(hào): 2095-2163(2021)03-0001-08 中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)志碼:A
【Abstract】This paper considers the problem of semi-supervised feature selection in speech emotion recognition, that is, how to use unlabeled speech emotion data to help select the features with emotion discriminability. To address this problem, the paper proposes a novel graph-based semi-supervised feature selection method. The proposed method can estimate a prediction label matrix on the graph with respect to the label fitness and the manifold smoothness, thus it can effectively utilize label information from labeled data as well as a manifold structure information from both labeled and unlabeled data. In comparison with the existing graph-based algorithms, the proposed approach can perform feature selection and local structure learning simultaneously, so the graph similarity matrix can be determined adaptively. At the same time, the paper constrains the similarity matrix to make it contain more accurate data structure information, therefore the proposed approach can select features that are more discriminative. Moreover, an efficient iterative algorithm is proposed to optimize the problem. Experimental results on typical speech emotion datasets show that the proposed method is effective.
【Key words】 speech emotion recognition; semi-supervised feature selection; adaptive structured graph
0 引 言
隨著電子技術(shù)和計(jì)算機(jī)技術(shù)的發(fā)展,人們需要具有情感識(shí)別能力的新型語(yǔ)音對(duì)話系統(tǒng)。然而,要實(shí)現(xiàn)這一目標(biāo),還需要克服許多困難。首先,在特征提取方面,尚不清楚哪些語(yǔ)音特征能有效區(qū)分語(yǔ)音情感[1]。其次,不同的句子、說(shuō)話者、說(shuō)話風(fēng)格和語(yǔ)速等因素都會(huì)引起不同的聲學(xué)變化,給語(yǔ)音情感識(shí)別增加了新的挑戰(zhàn)[1-2]。
特征選擇不僅可以突出情感所帶來(lái)的可變性,還能減少情感之外其它因素的干擾,并能保留原始特征的可解釋性[1]。根據(jù)標(biāo)簽信息的可用性,特征選擇方法可分為有監(jiān)督方法、無(wú)監(jiān)督方法和半監(jiān)督方法。其中,由于半監(jiān)督特征選擇能夠通過(guò)同時(shí)使用標(biāo)記和未標(biāo)記數(shù)據(jù)來(lái)最大化數(shù)據(jù)的有效性,因此,可將其作為有監(jiān)督方法和非監(jiān)督方法之間一個(gè)很好的折衷方案[3-5]。
在目前的研究工作中,有許多不同的半監(jiān)督特征選擇方法,總地來(lái)說(shuō)大致可分為3種類型,即:濾波式方法、封裝式方法和嵌入式方法[6]。其中,由于嵌入式方法在許多方面都具有優(yōu)勢(shì),因此受到了越來(lái)越多的關(guān)注[5,7-8]。在各種嵌入式特征選擇方法中,基于圖的半監(jiān)督特征選擇方法因其非參數(shù)性、判別性和直推性而受到了廣大研究者的青睞[9]。由于局部流形結(jié)構(gòu)在計(jì)算效率和表征能力上優(yōu)于全局結(jié)構(gòu),因此大多數(shù)嵌入式方法都試圖發(fā)掘數(shù)據(jù)內(nèi)部的局部結(jié)構(gòu),并用其進(jìn)行特征選擇[10]。經(jīng)典的基于圖的半監(jiān)督特征選擇方法主要包含2個(gè)獨(dú)立的步驟。首先,通過(guò)挖掘局部?jī)?nèi)部結(jié)構(gòu)信息,來(lái)構(gòu)造相似圖矩陣。然后,利用稀疏約束來(lái)選擇有價(jià)值的特征[11-12]。盡管如此,這些方法依然存在一些缺點(diǎn)。一方面,傳統(tǒng)的基于圖的特征選擇方法將構(gòu)造相似圖矩陣和選擇特征分成2個(gè)獨(dú)立的步驟,其在原始數(shù)據(jù)中構(gòu)造的相似圖矩陣并不會(huì)隨著后續(xù)的處理而改變。然而,實(shí)際數(shù)據(jù)中往往包含大量的噪聲樣本和特征,使得所構(gòu)造的相似圖矩陣不可靠[13],從而破壞數(shù)據(jù)的局部流形結(jié)構(gòu),最終導(dǎo)致特征選擇的性能下降。另一方面,傳統(tǒng)方法得到的相似圖矩陣通常不能反映理想的鄰域結(jié)構(gòu)。根據(jù)局部連通性可知,最優(yōu)相似圖矩陣中的連通分量應(yīng)與類別數(shù)保持一致,使得每個(gè)連通分量對(duì)應(yīng)一個(gè)情感類別[14-15]。然而,簡(jiǎn)單地使用k最近鄰準(zhǔn)則進(jìn)行鄰域分配,很難得到理想的相似圖。
為了解決上述問(wèn)題,本文提出一種新的基于自適應(yīng)結(jié)構(gòu)圖的半監(jiān)督語(yǔ)音情感特征選擇(Adaptive Structured Graph based Feature Selection,ASGFS)方法。該方法可以同時(shí)進(jìn)行特征選擇和局部結(jié)構(gòu)學(xué)習(xí),從而選擇出更有判別性的語(yǔ)音情感特征。此外,使用基于圖拉普拉斯的半監(jiān)督學(xué)習(xí),來(lái)更好地利用標(biāo)記數(shù)據(jù)和無(wú)標(biāo)記數(shù)據(jù)的特征選擇和標(biāo)簽同時(shí)進(jìn)行預(yù)測(cè),在滿足標(biāo)簽數(shù)據(jù)的標(biāo)簽適應(yīng)度和整個(gè)數(shù)據(jù)結(jié)構(gòu)的流形平滑度的前提下,同時(shí)進(jìn)行特征選擇和標(biāo)簽預(yù)測(cè)。在3個(gè)典型的語(yǔ)音情感數(shù)據(jù)上的實(shí)驗(yàn)表明,本文所提出的方法能夠改善語(yǔ)音情感識(shí)別的性能。
之前的研究工作分別通過(guò)約束標(biāo)簽的適應(yīng)度和流形的平滑度,介紹了利用局部和全局一致性(Local and global consistency, LGC)[16],以及高斯場(chǎng)和諧波函數(shù)(Gaussian fields and harmonic functions, GFHF)[17],在圖上估計(jì)預(yù)測(cè)標(biāo)簽矩陣的方法。此外,許多方法利用流形正則來(lái)進(jìn)行半監(jiān)督擴(kuò)展[18-19],例如嶺回歸(ridge regression)、支持向量機(jī)(Support Vector Machine, SVM)和線性判別分析(Linear Discriminant Analysis,LDA)。靈活流形嵌入(Flexible Manifold Embedding,F(xiàn)ME)是一個(gè)半監(jiān)督流形學(xué)習(xí)的統(tǒng)一框架[20],可表示為以下優(yōu)化問(wèn)題:
考慮到圖拉普拉斯是半監(jiān)督學(xué)習(xí)的基礎(chǔ),并且由于語(yǔ)音情感數(shù)據(jù)通常包含多種結(jié)構(gòu),可由流形正則進(jìn)行刻畫,因此就可將流形正則用于語(yǔ)音情感分析[21-22]?;诖?,本文將提出一種基于圖的半監(jiān)督語(yǔ)音情感特征選擇方法,其可在特征選擇中自適應(yīng)地學(xué)習(xí)局部流形結(jié)構(gòu)。
2 基于自適應(yīng)結(jié)構(gòu)圖的半監(jiān)督特征選擇
本節(jié)將詳細(xì)介紹文中所提出的ASGFS模型,并針對(duì)其給出一種有效的優(yōu)化求解算法。
3 實(shí)驗(yàn)與分析
3.1 數(shù)據(jù)集
本節(jié)將在3個(gè)典型的語(yǔ)音情感數(shù)據(jù)集上驗(yàn)證ASGFS方法的性能,包括Berlin[25]、eNTERFACE[26]和CASIA[27]。這些數(shù)據(jù)集記錄了各種離散的情緒狀態(tài),例如憤怒、快樂(lè)、悲傷等。在語(yǔ)音情感特征提取方面,采用2010 副語(yǔ)言挑戰(zhàn)賽的配置,并利用開源工具openSMILE 進(jìn)行特征提取[28]。首先,為每個(gè)情感音頻文件提取34個(gè)低階特征(Low-level Descriptors,LLDs),例如音高、梅爾倒譜系數(shù)和響度等,并計(jì)算其一階差分,得到68個(gè)低階特征表示。然后,將19個(gè)統(tǒng)計(jì)函數(shù)部分或全部作用于每一個(gè)低階特征上,得到超音段特征。此外,還為每個(gè)情感音頻文件提取音高的起始時(shí)間以及會(huì)話的持續(xù)時(shí)間。最終,得到1 582 維的語(yǔ)音情感特征表示。在提取特征之后,采用說(shuō)話人依賴的歸一化策略,對(duì)數(shù)據(jù)進(jìn)行獨(dú)立的預(yù)處理,并將每個(gè)特征值標(biāo)準(zhǔn)化,使其均值為0,標(biāo)準(zhǔn)差為1。
3.2 實(shí)驗(yàn)設(shè)置
在數(shù)據(jù)庫(kù)的劃分方面,首先采用說(shuō)話人依賴的策略,將各數(shù)據(jù)集中每個(gè)類的樣本隨機(jī)分為2部分。其中,一半作為訓(xùn)練數(shù)據(jù),另一半作為測(cè)試數(shù)據(jù)。然后,分別將訓(xùn)練集中每個(gè)類5%、10% 和15%的樣本作為半監(jiān)督學(xué)習(xí)中的標(biāo)注數(shù)據(jù),其余的作為未標(biāo)注數(shù)據(jù)。
為了驗(yàn)證特征選擇方法的有效性,利用基于徑向基(Radial Basis Function,RBF)核函數(shù)的支持向量機(jī)(Support Vector Machine,SVM)和隨機(jī)森林(Random-Forest,RF)作為分類器來(lái)評(píng)價(jià)所選特征的分類性能,并采用是非加權(quán)平均召回率(Unweighted Average Recall,UAR) 作為性能評(píng)價(jià)指標(biāo)。其計(jì)算公式如下:
本節(jié)使用全部原始特征的分類結(jié)果作為基線(記作All-fea)。除此之外,用于對(duì)比的特征選擇方法主要包括:基于L2,1范數(shù)最小化的有監(jiān)督特征選擇(Feature Selection via L2,1-Norms Minimization,F(xiàn)SNM)方法[23]、局部敏感特征選擇(Locality Sensitive Feature Selection,LSFS)方法[29]、以及結(jié)構(gòu)化稀疏特征選擇(Structural Feature Selection with Sparsity,SFSS)方法[11]。
在參數(shù)設(shè)置方面,對(duì)于所有采用正則技術(shù)的方法,各正則化參數(shù)的取值范圍為{0.001,0.01,0.1,1,10,100,1 000}。對(duì)于所有需要構(gòu)建鄰接Laplacian圖矩陣的方法,最近鄰個(gè)數(shù)k固定取值為5。由于如何確定所選特征的最優(yōu)數(shù)量仍然是特征選擇研究中一個(gè)亟待解決的問(wèn)題,因此本文采用在對(duì)數(shù)域的10,1 582區(qū)間內(nèi)取20個(gè)數(shù)值作為所選特征的維數(shù),并評(píng)估每個(gè)特征維數(shù)的性能。[JP2]此外,為了更好地反映各方法的性能,每個(gè)數(shù)據(jù)集均進(jìn)行10 次獨(dú)立的采樣,以得到不同的訓(xùn)練集和測(cè)試集,并在其上驗(yàn)證各方法的性能,將10 次結(jié)果的均值作為最終的性能。[JP]
3.3 性能對(duì)比
圖1~圖3分別展示了不同特征維數(shù)時(shí),SVM 和RF在5% 、10% 和15%標(biāo)注數(shù)據(jù)上的分類結(jié)果。
從圖1~圖3中的結(jié)果可看出,當(dāng)選擇的特征數(shù)量較少時(shí),所有特征選擇方法的識(shí)別性能低于All-fea的性能。主要原因在于,這些特征丟失了大量對(duì)情感識(shí)別有用的信息。隨著特征維數(shù)的增加,所有特征選擇方法的性能整體呈現(xiàn)上升趨勢(shì)。并且,在特征維數(shù)的較大變化范圍內(nèi),都能取得明顯優(yōu)于All-fea的性能。這說(shuō)明原始特征中包含不相關(guān)和冗余特征,導(dǎo)致對(duì)語(yǔ)音識(shí)別系統(tǒng)的性能產(chǎn)生負(fù)面影響。此外,在所有的特征選擇方法中,ASGFS方法的整體性能最優(yōu)。在特征維數(shù)相同時(shí),其識(shí)別性能優(yōu)于其它對(duì)比方法。而且,其能以最少的特征維數(shù)來(lái)獲得與其它方法相近的性能。因此,本文所提出的方法可以選擇更具判別性的語(yǔ)音情感特征。
根據(jù)圖1~圖3的結(jié)果,總結(jié)了各方法的最高精度參見表1、表2。
表1、表2中,粗體數(shù)字表示在所有方法中表現(xiàn)最優(yōu)。從結(jié)果可以看出:
(1) 在2個(gè)分類器中,隨著標(biāo)記數(shù)據(jù)的增加,所有對(duì)比方法在各數(shù)據(jù)集上的識(shí)別性能都會(huì)提高。
(2) 所有特征選擇方法在SVM和RF上的識(shí)別性能都優(yōu)于基線系統(tǒng),說(shuō)明特征選擇可以提高語(yǔ)音情感分類的性能。
(3) 對(duì)于Berlin數(shù)據(jù)集和eNTERFACE數(shù)據(jù)集,有監(jiān)督特征選擇方法FSNM優(yōu)于半監(jiān)督特征選擇方法LSFS和SFSS,這說(shuō)明在原始特征空間中所構(gòu)造的相似圖可能會(huì)對(duì)特征選擇的性能產(chǎn)生負(fù)面影響。
(4) 對(duì)于CASIA數(shù)據(jù)集,在大多數(shù)情況下,LSFS和SFSS方法的性能都優(yōu)于FSNM方法,這意味著在原始特征空間中所構(gòu)造的相似圖可以在一定程度上刻畫該數(shù)據(jù)的內(nèi)在結(jié)構(gòu)信息。
(5) 在3種不同的標(biāo)注數(shù)據(jù)量中, ASGFS方法在2種分類器上的性能都是最優(yōu)的。相比于基線系統(tǒng),該方法有著大約10%的性能提升;相比于 FSNM方法,有著2%的性能提升;相比于LSFS方法,有著4%的性能提升;相比于SFSS,有著3%的性能提升。主要因?yàn)?,ASGFS方法能同時(shí)進(jìn)行特征選擇和局部結(jié)構(gòu)學(xué)習(xí),從而選擇更具判別性的語(yǔ)音情感特征。
3.4 圖相似度矩陣分析
本節(jié)將對(duì)ASGFS方法所得到的自適應(yīng)結(jié)構(gòu)圖進(jìn)行分析,并與傳統(tǒng)的根據(jù)高斯函數(shù)構(gòu)建的圖[11]進(jìn)行對(duì)比。圖4~圖6分別展示了Berlin、CASIA和eNTERFACE數(shù)據(jù)集的2種不同的圖相似度矩陣。從結(jié)果可以看到,與傳統(tǒng)的方法相比,ASGFS方法所得到的自適應(yīng)結(jié)構(gòu)圖能夠更清晰、更準(zhǔn)確地刻畫出數(shù)據(jù)內(nèi)部的結(jié)構(gòu)信息,從而可以利用其來(lái)幫助選擇更具判別性的語(yǔ)音情感特征。這也進(jìn)一步解釋了ASGFS方法的性能優(yōu)于其它對(duì)比方法的原因。
3.5 參數(shù)敏感性分析
本節(jié)將分析ASGFS方法對(duì)各參數(shù)的敏感性。該方法共包含2個(gè)正則參數(shù):γ和μ,分別控制著組稀疏約束和分類損失函數(shù)對(duì)模型的影響程度。圖7展示了ASGFS方法在各參數(shù)取不同值時(shí),使用5%標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練的語(yǔ)音情感識(shí)別模型的性能。從圖7中的結(jié)果可以看出,不同的參數(shù)取值有著不同的識(shí)別性能。在Berlin數(shù)據(jù)集上,ASGFS方法對(duì)于參數(shù)γ和μ的不同取值有著較強(qiáng)的魯棒性。在CASIA數(shù)據(jù)集上,當(dāng)參數(shù)γ的取值大于μ時(shí),ASGFS方法的識(shí)別性能更優(yōu)。與之相反,在eNTERFACE數(shù)據(jù)集上,當(dāng)參數(shù)γ的取值小于μ時(shí),ASGFS方法能取得更好的性能。
3.6 收斂性分析
本節(jié)通過(guò)實(shí)驗(yàn)的方式來(lái)研究?jī)?yōu)化算法1的收斂性。在求解ASGFS的過(guò)程中,通過(guò)記錄每次迭代后的目標(biāo)函數(shù)值,得到算法的收斂曲線,如圖8所示。由于算法1在不同數(shù)量的標(biāo)注數(shù)據(jù)上的收斂性是一致的,為簡(jiǎn)潔起見,圖8中只展示了5%標(biāo)記數(shù)據(jù)的結(jié)果。從圖8中可以看到,算法1是收斂的,且收斂速度非??臁R话銇?lái)說(shuō),算法在10 次迭代之內(nèi)就能收斂到一個(gè)穩(wěn)定點(diǎn)。
4 結(jié)束語(yǔ)
本文提出了一種新的半監(jiān)督語(yǔ)音情感特征選擇方法。該方法將組稀疏約束、流形正則和直推式分類整合到一個(gè)聯(lián)合特征選擇模型中,并且能夠同時(shí)進(jìn)行特征選擇和局部結(jié)構(gòu)學(xué)習(xí),從而得到自適應(yīng)結(jié)構(gòu)的圖。在3個(gè)離散語(yǔ)音情感數(shù)據(jù)集上的實(shí)驗(yàn)表明,本文所提出的方法能夠選擇更具判別性的語(yǔ)音情感特征,從而改善語(yǔ)音情感識(shí)別系統(tǒng)的性能。
參考文獻(xiàn)
[1] ?AYADI M E, KAMEL M S, KARRAY F. Survey on speech emotion recognition: Features, classification schemes, and databases[J]. Pattern Recognition, 2011, 44(3): 572-587.
[2] PARK J S, KIM J H, OH Y H. Feature vector classification based speech emotion recognition for service robots[J]. IEEE Transactions on Consumer Electronics, 2009, 55(3): 1590-1596.
[3] HAN Y, PARK K, LEE Y K. Confident wrapper-type semi-supervised feature selection using an ensemble classifier[C] // Proceedings of Artificial Intelligence, Management Science and Electronic Commerce. Deng Feng, China: IEEE, 2011: 4581-4586.
[4] LV S, JIANG H, ZHAO L. Manifold based fisher method for semi-supervised feature selection[C] // Proceedings of International Conference on Fuzzy Systems and Knowledge Discovery. Shenyang, China:IEEE, 2013: 664-668.
[5] WANG Jinyan, YAO Jin, SUN Yijun. Semi-supervised local-learning-based feature selection[C] // Proceedings of International Joint Conference on Neural Networks. Beijing, China: IEEE, 2014: 1942-1948.
[6] GUYON I, ELISSEEFF A. An introduction to variable and feature selection[J]. Journal of Machine Learning Research, 2003, 3(6): 1157-1182.
[7] XU Z, KING I, LYU M R, et al. Discriminative semi-supervised feature selection via manifold regularization[J]. IEEE Transactions on Neural Networks, 2010, 21(7): 1033-1047.
[8] ZENG Z, WANG X, ZHANG J, et al. Semi-supervised feature selection based on local discriminative information[J]. Neurocomputing, 2016,172(JANA15PTA1): 102-109.
[9] ZHU X. Semi-supervised learning literature survey[J]. Computer Science, 2008, 37(1): 63-77.
[10]SILVA V D, TENENBAUM J B. Global versus local methods in nonlinear dimensionality reduction[C] // Proceedings of Advances in Neural Information Processing Systems 15. Vancouver, British Columbia, Canada: Nips, 2002: 1959-1966.
[11]MA Z, NIE F, YANG Y, et al. Discriminating joint feature analysis for multimedia data understanding[J]. IEEE Transactions on Multimedia, 2012, 14(6): 1662-1672.
[12]SHI C, RUAN Q, AN G. Sparse feature selection based on graph Laplacian for web image annotation[J]. Image and Vision Computing, 2014, 32(3): 189-201.
[13]WANG D, NIE F, HUANG H. Feature selection via global redundancy minimization[J]. IEEE Transactions on Knowledge and Data Engineering, 2015, 27(10): 2743-2755.
[14]NIE F, WANG X, HUANG H. Clustering and projected clustering with adaptive neighbors[C] // Proceedings of ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York:ACM, 2014: 977-986.
[15]NIE F, ZHU W, LI X. Unsupervised feature selection with structured graph optimization[C]// Proceedings of Thirtieth AAAI Conference on Artificial Intelligence. Phoenix, Arizona, USA:AAAI, 2016: 1302-1308.
[16]ZHOU D Y, BOUSQUET O, LAL T N, et al. Learning with local and global consistency[M]// THRUN S, SAUL L, SCH-LOPF Proceedings of Advances in Neural Information Processing Systems16. Cambridge:MIT Press, 2004: 321-328.
[17]ZHU X, GHAHRAMANI Z B, LAFFERTY J D. Semi-supervised learning using gaussian fields and harmonic functions[C] // Proceedings of the Twentieth International Conference on Machine Learning.Washington DC:AAAI, 2003: 912-919.
[18]SINDHWANI V, NIYOGI P, BELKIN M, et al. Linear manifold regularization for large scale semi-supervised learning[C] // Proceedings of ICML Workshop on Learning with Partially Classified Training Data. Bonn, Germany:ICML, 2005:80-83.
[19]CAI D, HE X, HAN J. Semi-supervised discriminant analysis[C] // Proceedings of IEEE International Conference on Computer Vision. Rio de Janeiro,Brazil:IEEE, 2007: 1-7.
[20]NIE F, XU D, TSANG I W H, et al. Flexible manifold embedding: A framework for semi-supervised and unsupervised dimension reduction[J]. IEEE Transactions on Image Processing, 2010, 19(7): 1921-1932.
[21]YOU M, CHEN C, BU J, et al. Emotional speech analysis on nonlinear manifold[C] // Proceedings of International Conference on Pattern Recognition. Las Vegas,Nevada,USA:dblp, 2006: 91-94.
[22]KIM J, LEE S, NARAYANAN S S. An exploratory study of manifolds of emotional speech[C] // Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing. Dallas, Texas, USA:IEEE, 2010: 5142-5145.
[23]NIE F, HUANG H, CAI X, et al. Efficient and robust feature selection via joint L_2,1-norms minimization[C] // Proceedings of Advances in Neural Information Processing Systems 23. Vancouver, British Columbia,Canada:NIPS, 2010: 1813-1821.
[24]BOYD S, VANDENBERGHE L. Convex optimization[M]. New York, USA:Cambridge University Press, 2004.
[25]BURKHARDT F, PAESCHKE A, ROLFES M, et al. A database of German emotional speech[C] // Proceedings of Interspeech. ?Lisbon, Portugal: ISCA, 2005: 1517-1520.
[26]MARTIN O, KOTSIA I, MACQ B, et al. The enterface'05 audio-visual emotion database[C] // Proceedings of the 22nd International Conference on Data Engineering Workshops. ?ATLANTA, GA, USA:IEEE, 2006: 8.
[27]Chinese LDC. CASIA-Chinese emotional speech corpus[EB/OL]. [2015-02-24]. http://www.Chineseldc.Org/en/doc/cldc-spc-2005-010/intro.htm.
[28]SCHULLER B, STEIDL S, BATLINER A, et al. The Interspeech 2010 paralinguistic challenge[C] // Proceedings of Interspeech. Makuhari, Chiba, Japan:ISCA, 2010: 2794-2797.
[29]ZHAO Jidong, LU Ke, HE Xiaofei. Locality sensitive semi-supervised feature selection[J]. Neurocomputing, 2008, 71(10): 1842-1849.