国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

語音情感識別綜述

2016-11-07 22:09:02薛文韜
軟件導(dǎo)刊 2016年9期

摘要:隨著情感計算成為人工智能的一個重要發(fā)展方向,語音情感識別作為情感計算的一個重要組成部分,受到了廣泛關(guān)注。從情感描述模型、語音情感特征、語音情感庫、語音情感挑戰(zhàn)賽這4個方面對語音情感研究現(xiàn)狀進(jìn)行總結(jié),并給出目前語音情感識別技術(shù)存在的挑戰(zhàn),以及相應(yīng)的研究方法。

關(guān)鍵詞:語音情感識別;情感描述模型;情感特征;語音情感庫;域適應(yīng)

DOIDOI:10.11907/rjdk.161498

中圖分類號:TP391

文獻(xiàn)標(biāo)識碼:A文章編號文章編號:16727800(2016)009014303

作者簡介作者簡介:薛文韜(1991-),男,江蘇常熟人,江蘇大學(xué)計算機(jī)科學(xué)與通信工程學(xué)院碩士研究生,研究方向為語音情感識別。

0引言

1997年,美國麻省理工學(xué)院的Picard教授提出了情感計算(Affective Computing)的概念。情感計算作為計算機(jī)科學(xué)、神經(jīng)科學(xué)、心理學(xué)等多學(xué)科交叉的新興研究領(lǐng)域,已成為人工智能的重要發(fā)展方向之一。而語音情感識別作為情感計算的一個重要分支,亦引起了廣泛關(guān)注。

許多國內(nèi)外知名大學(xué)和科研機(jī)構(gòu)也開始語音情感識別研究,國外如美國麻省理工學(xué)院Picard教授領(lǐng)導(dǎo)的情感計算研究小組,德國慕尼黑工業(yè)大學(xué)Schuller教授領(lǐng)導(dǎo)的人機(jī)語音交互小組等;國內(nèi)如清華大學(xué)的人機(jī)交互與媒體集成研究所、西北工業(yè)大學(xué)音頻、語音與語言處理組等。

1語音情感識別

語音情感識別系統(tǒng)主要由前端和后端兩部分組成。前端用于提取特征,后端基于這些特征設(shè)計分類器。在語音相關(guān)應(yīng)用中,運用比較多的分類器是支持向量機(jī)和隱馬爾科夫模型。目前,語音情感識別的重點主要集中于特征提取。在傳統(tǒng)的語音情感識別中,如何提取具有判別性的特征已成為研究的重點。隨著數(shù)據(jù)的大規(guī)模增長,傳統(tǒng)語音情感識別的前提(訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)具有相同的數(shù)據(jù)分布)已不能夠被滿足,研究者提出了遷移學(xué)習(xí)的概念,利用域適應(yīng)方法來解決跨庫的語音情感識別。

本文將從情感描述模型、語音情感特征、語音情感庫、語音情感挑戰(zhàn)賽這4個方面對語音情感研究現(xiàn)狀進(jìn)行總結(jié),并給出現(xiàn)存語音情感識別的技術(shù)挑戰(zhàn)及相應(yīng)的研究方法。

2情感描述模型

目前主要從離散情感和維度情感兩個方面來描述情感狀態(tài)。

離散情感描述,主要把情感描述成離散的形式,是人們?nèi)粘I钪袕V泛使用的幾種情感,也稱為基本情感。在當(dāng)前情感相關(guān)研究領(lǐng)域使用最廣泛的六大基本情感是生氣、厭惡、恐懼、高興、悲傷和驚訝。

相對于離散情感描述,維度情感描述使用連續(xù)的數(shù)值來描述情感狀態(tài),因此也稱作連續(xù)情感描述。它把情感狀態(tài)視作多維情感空間中的點,每個維度都對應(yīng)情感的不同心理學(xué)屬性。常用的維度情感模型是二維的激活度-效價(Arousal-Valence)模型,其二維空間如圖1所示。其中橫軸表示效價屬性(Valence),用于衡量情感的正負(fù)面程度;而縱軸表示激活程度(Arousal),用于描述情感狀態(tài)的喚醒程度。通過不同的效價度和激活程度,就能區(qū)分出不同的情感,比如悲傷與生氣兩種負(fù)面情緒雖然效價相差無異,但兩者的激活度卻有很大差異。

3語音情感特征

傳統(tǒng)的語音情感特征可粗略地分為基于聲學(xué)的情感特征和基于語義的情感特征?;诼晫W(xué)的情感特征又分為3類:韻律學(xué)特征、音質(zhì)特征以及頻譜特征[1]。音高、能量、基頻和時長等是最為常用的韻律學(xué)特征,由于韻律學(xué)特征具有較強(qiáng)的情感辨別能力,已經(jīng)得到了研究者們的廣泛認(rèn)同。音質(zhì)特征主要有呼吸聲、明亮度特征和共振峰等,語音中所表達(dá)的情感狀態(tài)被認(rèn)為與音質(zhì)有著很大的相關(guān)性。頻譜特征主要包括線性譜特征和倒譜特征,線性譜特征包括Linear predictor cofficient(LPC)、log-frequency power cofficient(LFPC)等,倒譜特征包括mel-frequency cepstral cofficient(MFCC)、linear predictor cepstral cofficient(LPCC)等。此外,基于這3類語音特征的不同語段長度的統(tǒng)計特征是目前使用最為普遍的特征參數(shù)之一,如特征的平均值、變化率、變化范圍等。然而到底什么特征才最能體現(xiàn)語音情感之間的差異,目前還沒有統(tǒng)一的說法。

在2009年首次舉辦的國際語音情感挑戰(zhàn)INTERSPEECH 2009 Emotion Challenge(EC)的分類器子挑戰(zhàn)中,組織者為參賽者提供了一個基本特征集,選擇了在韻律學(xué)特征、音質(zhì)特征和頻譜特征中廣泛使用的特征和函數(shù),包括16個低層描述子(Low-Level Descriptors,LLDs)和12個函數(shù),構(gòu)建了一個384維的特征向量[2]。具體的16個低層描述子和12個函數(shù)如表1所示。

4語音情感庫

語音情感庫作為語音情感識別的前提條件,影響著最終語音情感識別系統(tǒng)的性能。目前,在語音情感庫的建立方面還沒有統(tǒng)一的標(biāo)準(zhǔn),已構(gòu)建的情感語音庫多種多樣,在語言、情感表現(xiàn)方式(表演型(acted)、引導(dǎo)型(elicited),自發(fā)型(naturalistic))、情感標(biāo)記方案(離散情感或者維度情感)、聲學(xué)信號條件、內(nèi)容等方面具有很大差異。從情感表現(xiàn)方式而言,表演型情感一般是讓職業(yè)演員以模仿的方式表現(xiàn)出相應(yīng)的情感狀態(tài),雖然說話人被要求盡量表達(dá)出自然的情感,但刻意模仿的情感還是顯得更加夸大,使得不同情感類別之間的差異性比較明顯,這方面的語音情感庫有Berlin Emotional Speech Database(Emo-DB)、Airplane Behavior Corpus(ABC)等[34]。早期對語音情感識別的研究都是基于表演型語料庫,隨著人們意識到引導(dǎo)型情感具有更加自然的情感表達(dá)之后,研究者們開始基于引導(dǎo)型情感庫進(jìn)行研究,比如eNTERFACE[5]。隨著研究的深入,迫切需要一些自發(fā)的語音情感數(shù)據(jù),目前出現(xiàn)了FAU Aibo Emotion Corpus(FAU AEC)、TUM Aduio-Visual Interest Corpus(TUM AVIC)、Speech Under Simulated and Actual Stress(SUSAS)和Vera am Mittag(VAM)[2,68]。常用的幾個語音情感庫如表2所示,描述了他們在年齡、語言、情感、樣本個數(shù)、記錄環(huán)境和采樣率之間的差異。

5語音情感挑戰(zhàn)賽

雖然已經(jīng)有很多研究致力于語音情感識別,但是相對于其它語音任務(wù)(如自動語音識別和說話人識別)而言,語音情感識別中還不存在標(biāo)準(zhǔn)的語音情感庫和統(tǒng)一的測試條件用于在相同條件下進(jìn)行性能比較。同時,為了處理更加現(xiàn)實的場景,需要獲得自然的語音情感數(shù)據(jù)。國際語音情感挑戰(zhàn)INTERSPEECH 2009 EC旨在彌補(bǔ)出色的語音情感識別研究和結(jié)果可比性之間的缺陷,它提供了自然的語音情感庫FAU AEC,以及開源工具包openEAR來提取基本的384維特征集,保證了特征的透明性,從而使得結(jié)果具有重現(xiàn)性和可比性[9]。FAU AEC庫包括了德國兩個學(xué)校(Ohm和Mont)10~13歲的孩子與索尼公司的機(jī)器狗Aibo進(jìn)行交互的語音數(shù)據(jù)。為了實現(xiàn)說話人獨立的語音情感識別,通常學(xué)校Ohm記錄的數(shù)據(jù)用于訓(xùn)練,而Mont記錄的數(shù)據(jù)用于測試。INTERSPEECH 2009 EC的情感分類任務(wù)主要包括2類情感(負(fù)面情感、所有其它情感)分類和5類情感(生氣、同情、積極、中立和其它)分類,目前已有很多研究基于FAU AEC庫進(jìn)行情感分類。除了在FAU AEC庫上進(jìn)行傳統(tǒng)的語音情感識別外,隨著跨庫語音情感識別研究的深入,很多研究者也將FAU AEC作為目標(biāo)域數(shù)據(jù)庫進(jìn)行域適應(yīng)的研究。

6語音情感識別的主要挑戰(zhàn)

6.1語音情感特征

在傳統(tǒng)語音情感識別中,提取具有判別性的特征已經(jīng)成為一個重要的研究方向。在情感特征提取過程中,通常存在一些與情感無關(guān)的因素,如說話內(nèi)容、說話人、環(huán)境等,這些不相關(guān)的因素將會使得提取到的特征包含這些因素方面的變化,從而影響情感分類性能。

目前已有部分研究開始考慮這些與情感無關(guān)因素的影響。同時,隨著深度學(xué)習(xí)的提出與發(fā)展,越來越多的研究者開始使用深度神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取。Chao等[10]利用無監(jiān)督預(yù)訓(xùn)練去噪自動編碼器,減少了情感特征中說話人的影響。Mao等[11]提出了半監(jiān)督卷積神經(jīng)網(wǎng)絡(luò)模型,提取情感相關(guān)特征,通過實驗證明其對說話人的變化、環(huán)境的滋擾以及語言變化都有很強(qiáng)的魯棒性。Mariooryad 等[12]對特征構(gòu)建音素層次的彈道模型,從聲學(xué)特征中分解出說話人的特性,從而彌補(bǔ)說話人對語音情感識別的影響。

6.2跨庫的語音情感識別

在傳統(tǒng)的語音情感識別中,訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)一般來自同一個語料庫或者具有相同的數(shù)據(jù)分布。隨著數(shù)據(jù)的爆炸式增長,從不同設(shè)備和環(huán)境下獲得的語音數(shù)據(jù)通常在語言、情感表現(xiàn)方式、情感標(biāo)記方案、聲學(xué)信號條件、內(nèi)容等方面存在很大差異,這就造成了訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)分布的不同,傳統(tǒng)的語音情感識別方法就不再適用。

近年來,遷移學(xué)習(xí)(Transfer Learning)的概念被提出,指從一個或多個源域中將有用的信息遷移到相關(guān)的目標(biāo)域,以幫助改善目標(biāo)域的分類性能[13]。域適應(yīng)(Domain Adaptation)作為一種特殊的遷移學(xué)習(xí),已成功應(yīng)用于跨庫的語音情感識別。Deng等[14]提出一種共享隱藏層自動編碼器(shared-hidden-layer autoencoder,SHLA)模型,相較于傳統(tǒng)的自動編碼器,SHLA的輸入數(shù)據(jù)包含了源域和目標(biāo)域兩類數(shù)據(jù),讓兩個域的數(shù)據(jù)共用編碼部分而解碼部分不同,目的是誘使兩個域的數(shù)據(jù)在隱藏層空間具有相似的數(shù)據(jù)分布。Huang等[15]利用PCANet沿著從源域到目標(biāo)域的路徑提取特征,并用目標(biāo)域空間來調(diào)整路徑上的特征,以此彌補(bǔ)域之間的差異。

參考文獻(xiàn)參考文獻(xiàn):

[1]EL AYADI M,KAMEL M S,KARRAY F.Survey on speech emotion recognition:features,classification schemes and databases[J].Pattern Recognition,2011,44(3): 572587.

[2]SCHULLER B,STEIDL S,BATLINER A.The interspeech 2009 emotion challenge[C].Proceedings INTERSPEECH 2009,10th Annual Conference of the International Speech Communication Association,2009:312315.

[3]BURKHARDT F,PAESCHKE A,ROLFES M,et al.A database of German emotional speech[J].Interspeech,2005(5):15171520.

[4]SCHULLER B,ARSIC D,RIGOLL G,et al.Audiovisual behavior modeling by combined feature spaces[C].IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP),2007:733736.

[5]MARTIN O,KOTSIA I,MACQ B,et al.The eNTERFACE05 audiovisual emotion database[C].22nd International Conference on Data Engineering Workshops,2006.

[6]SCHULLER B,MULLER R,EYBEN F,et al.Being bored recognising natural interest by extensive audiovisual integration for reallife application[J].Image and Vision Computing,2009,27(12): 17601774.

[7]HANSEN J H L,BOUGHAZALE S E,SARIKAYA R,et al.Getting started with SUSAS:a speech under simulated and actual stress database[C].Eurospeech,1997,97(4): 174346.

[8]GRIMM M,KROSCHEL K,NARAYANAN S.The vera am mittag german audiovisual emotional speech database[C].2008 IEEE International Conference on Multimedia and Expo,2008:865868.

[9]EYBEN F,WOLLMER M,SCHULLER B.OpenEAR—introducing the Munich opensource emotion and affect recognition toolkit[C].3rd International Conference on Affective Computing and Intelligent Interaction and Workshops,2009: 16.

[10]CHAO L,TAO J,YANG M,et al. Improving generation performance of speech emotion recognition by denoising autoencoders[C].2014 9th International Symposium on Chinese Spoken Language Processing (ISCSLP),2014: 341344.

[11]MAO Q,DONG M,HUANG Z,et al.Learning salient features for speech emotion recognition using convolutional neural networks[J].IEEE Transactions on Multimedia,2014,16(8):22032213.

[12]MARIOORYAD S,BUSSO C.Compensating for speaker or lexical variabilities in speech for emotion recognition[J].Speech Communication,2014,57(1): 112.

[13]PAN S J,YANG Q.A survey on transfer learning[J].IEEE Transactions on Knowledge & Data Engineering,2010,22(10):13451359.

[14]DENG J,XIA R,ZHANG Z,et al.Introducing sharedhiddenlayer autoencoders for transfer learning and their application in acoustic emotion recognition[C].2014 IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP),2014: 48184822.

[15]HUANG Z,XUE W,MAO Q,et al.Unsupervised domain adaptation for speech emotion recognition using PCANet[J].Multimedia Tools & Applications,2016(2):115.

責(zé)任編輯(責(zé)任編輯:孫娟)

日土县| 黄大仙区| 沅江市| 海盐县| 宁德市| 丰都县| 衡阳县| 太和县| 宣城市| 手游| 昌邑市| 五河县| 香港 | 南雄市| 长宁区| 柞水县| 环江| 临西县| 新宾| 大姚县| 巴中市| 遵义县| 勐海县| 新安县| 闻喜县| 泾阳县| 五河县| 安西县| 汝州市| 内丘县| 嘉鱼县| 特克斯县| 年辖:市辖区| 古蔺县| 宜兰县| 辽中县| 邵东县| 澄城县| 龙川县| 平舆县| 安远县|