梅莉莉,黃河燕,周新宇,毛先領(lǐng)
(北京理工大學 計算機學院,北京 100081)
情感詞典構(gòu)建綜述
梅莉莉,黃河燕,周新宇,毛先領(lǐng)
(北京理工大學 計算機學院,北京 100081)
文本情感分析是近年來迅速興起的一個研究課題,具有顯著的研究價值和應用價值。情感詞典的構(gòu)建在情感分析任務(wù)中發(fā)揮著越來越重要的影響力。該文對情感詞典構(gòu)建的研究進展進行了總結(jié)。首先重點介紹了情感詞典構(gòu)建的研究現(xiàn)狀,將其歸納為四種方法,即基于啟發(fā)式規(guī)則的方法、基于圖的方法、基于詞對齊模型的方法以及基于表示學習的方法,并對每種方法進行介紹和分析;然后對一些常見的語料庫、詞典資源以及評測組織進行介紹;最后,對情感詞典的構(gòu)建進行了總結(jié),并對發(fā)展趨勢進行了展望。
情感分析;情感詞典;評測;語料;綜述
近年來,隨著Web 2.0的發(fā)展,越來越多的用戶傾向于在社交網(wǎng)絡(luò)、帖子論壇、用戶評論等網(wǎng)絡(luò)平臺發(fā)表帶有主觀情感色彩的文本數(shù)據(jù)。這些數(shù)據(jù)包含大量有用的信息,這些信息反映了人們對于人物、事物、產(chǎn)品等對象的情感傾向性,如喜愛、討厭、贊揚和批評等。如何利用有效的技術(shù)手段去分析這些信息吸引了不少研究學者和商業(yè)公司的注意,情感分析便是近年來應運而生的一種信息處理技術(shù)。文本情感分析又稱意見挖掘,簡單而言,是對帶有情感色彩的主觀性文本進行分析、處理、歸納和推理的過程[1]。情感分析具有廣泛的應用價值。例如,基于產(chǎn)品評論的情感分析能夠幫助用戶了解產(chǎn)品口碑,幫助企業(yè)完善產(chǎn)品和提高競爭力;基于新聞評論的情感分析可用于輿情監(jiān)控任務(wù)。此外,情感分析在金融預測、社會學、問答系統(tǒng)等領(lǐng)域也有廣泛的應用前景。
通常情況下,文本表達情感主要通過情感詞來體現(xiàn),所以情感詞典的好與壞直接影響情感分析的結(jié)果。常用的情感分析技術(shù)可分為基于詞典的方法和機器學習的方法[2]?;谠~典的方法通過統(tǒng)計文本中情感詞或詞組的個數(shù)來分析文本的情感傾向。機器學習的方法通常采用監(jiān)督學習利用已標注數(shù)據(jù)訓練一個分類器,再使用分類器對測試文本進行情感分類。監(jiān)督學習需要手工標注訓練數(shù)據(jù),費時費力,而情感詞可以作為訓練階段很好的標記[3-4]。另外,情感詞在情感分類任務(wù)中還可以大大提高準確率[5]。綜上,對于大多數(shù)情感分析任務(wù),一個有效的情感詞典至關(guān)重要。
情感詞典是帶有情感色彩的詞(opinion words)或詞組的集合,這些詞可以是形容詞,也可以是副詞、名詞或者動詞。情感詞通常會帶有某種情感極性,一般可分為正向情感詞和負向情感詞。正向情感詞一般表示帶有積極、贊賞、肯定感情的詞,也就是通常所說的褒義詞,如漂亮、高興、幸福、興奮等。負向情感詞一般表示帶有消極、貶斥、否定感情的詞,也就是通常所說的貶義詞,如可怕、頹廢、丑陋、難過等。
然而,情感詞的抽取面臨著很大的挑戰(zhàn)。首先,社交網(wǎng)絡(luò)中,用戶往往比較喜歡使用口語色彩濃重、隱晦模糊和非規(guī)范性的詞語表達觀點,在這些非正式簡短(含有語法錯誤、錯別字、錯誤標點等)的文本中抽取情感詞比較困難。另外,情感詞極性會隨著不同領(lǐng)域、不同語境發(fā)生改變。例如,在圖書領(lǐng)域評論中“這部小說的故事太長而且復雜”,其中的情感詞“長”帶有負向的情感色彩,而在電子領(lǐng)域評論中“這款冰箱的壽命很長”,“長”則帶有正向的情感色彩。由于要考慮語料的句子長短、內(nèi)容規(guī)范性、領(lǐng)域性等各個方面,現(xiàn)有的情感詞典構(gòu)建方法會因語料及任務(wù)的不同而采用不同的方法。
情感分析是一個具有很大研究價值和應用價值的研究課題,情感詞典的構(gòu)建舉足輕重。目前情感詞典構(gòu)建方面的研究越來越多。本文綜合已有的研究成果對情感詞典的構(gòu)建進行分析、歸納、總結(jié)和展望。
在處理網(wǎng)絡(luò)文本過程中,情感詞的抽取及極性判斷對于情感分析任務(wù)至關(guān)重要。大量的研究成果表明,情感詞語的抽取和極性判別往往是一體化的工作,極性的分配會根據(jù)情感詞抽取方法的不同而采取不同的策略。Liu和Zhang[6]將情感詞典的構(gòu)建分為三種: 基于手工的方法、基于詞典的方法和基于語料的方法,而本文將從技術(shù)角度對情感詞典的構(gòu)建進行綜述。大體上,情感詞典的構(gòu)建目前主要有四種方法: 基于啟發(fā)式規(guī)則的方法、基于圖的方法、基于詞對齊模型的方法和基于表示學習的方法。
2.1 基于啟發(fā)式規(guī)則的方法
基于啟發(fā)式規(guī)則的方法主要是通過觀察大量語料的特性,找到一些語法模式、語法規(guī)則、語義特征和語言學特性[7-10],然后抽取出情感詞并判斷其極性。本節(jié)將基于啟發(fā)式規(guī)則的方法分為兩類: 簡單規(guī)則的方法和復雜規(guī)則的方法,最后進行小結(jié)。
2.1.1 簡單規(guī)則
Hatzivassilogl和McKeown[11]利用一些種子情感詞和語言學特性來發(fā)現(xiàn)更多的情感詞并判斷其極性。他們的方法分析文檔集中抽取出的由連詞連接的形容詞對,如連接詞and、but、either-or和neither-nor等。由and連接的形容詞對往往具有相同的極性,如she is beautiful and clever,而由but連接的形容詞對往往具有相反的極性,如she is beautiful but selfish。他們利用語言學里的連詞特性抽取出了很多形容詞對,但是無法抽取出語料中大量單獨的形容詞。
Turney和Littman[12]定義了兩個詞之間的點間互信息(pointwise mutual information,PMI),通過計算目標詞與種子情感詞之間的PMI判斷情感詞及其極性。PMI的基本思想是兩個詞共現(xiàn)的次數(shù)越多,二者的關(guān)系就會越密切。兩個詞之間的PMI值,用式(1)計算。
(1)
其中p(w1&w2)表示兩個詞共同出現(xiàn)的概率,p(w1)和p(w2)表示兩個詞單獨出現(xiàn)的概率。這種方法可以識別各種詞性的情感詞,缺點是需要輔助的網(wǎng)絡(luò)資源。
Hu和Liu[13]首先找到頻繁出現(xiàn)的產(chǎn)品特征(名詞),然后在其附近找到相關(guān)的情感詞,再利用WordNet中同義詞和反義詞關(guān)系判斷候選詞的極性。Kanayama和Nasukawa[14]擴展了Hatzivassiloglou的方法,提出了句子內(nèi)部和句子之間的情感關(guān)聯(lián)性思想。他們認為連續(xù)的若干句子往往具有相同的情感傾向,如果其中一個句子含有情感詞,那緊連它的句子也會含有情感詞并具有相同的情感極性。這種方法在上下文句子中沒有種子情感詞的情況下召回率會大大降低。
2.1.2 復雜規(guī)則
近年來,隨著很多技術(shù)方法的逐漸興起,人們將更多的規(guī)則應用到情感詞典的構(gòu)建中。許多觀察發(fā)現(xiàn),評價詞(情感詞)和評價對象[15](情感詞所修飾的對象)往往是相互聯(lián)系的,而他們的聯(lián)系為情感詞的抽取提供了很重要的信息。例如,“這個型號的相機非常漂亮”,如果我們知道“相機”是評價對象,那么修飾“相機”的形容詞“漂亮”就會被認為是情感詞。基于這種思想,Qiu等人[16-17]沿襲了Kanayama和Nasukawa的工作,他們利用評價詞和評價對象的關(guān)系抽取情感詞并判斷其極性,提出了雙重傳播(double propagation)[18]的思想,這種bootstraping的思想聯(lián)合抽取評價詞和評價對象。他們借助依存句法、POS(Part of Speech)標注、parser結(jié)果來分析評價詞和評價對象之間的關(guān)系,再根據(jù)定義的八條規(guī)則迭代擴展情感詞集。這種方法大大增加了召回率,但在詞典擴展的過程中由于引入了噪音導致準確率不夠高,另外這種方法不適合處理網(wǎng)絡(luò)上一些非正式的文本。Agathangelou等人[19]在總結(jié)研究學者的經(jīng)典方法后構(gòu)建了一個多步的方法,同時利用連詞和雙重傳播的方法抽取情感詞,并利用一些語言學模式進行詞語的極性消歧。
由于手工構(gòu)建規(guī)則的方法耗時耗力且比較有局限性,有研究學者采用自動抽取的方法。Bollegala等人[20]抽取unigram和bigram作為詞典元素,利用PMI計算詞典元素之間的關(guān)聯(lián)度,構(gòu)建了一個分布式情感詞典,對于每個情感詞都有一些與它相關(guān)聯(lián)的情感詞列表。他們構(gòu)建的情感詞典在跨領(lǐng)域的情感分類任務(wù)上取得了較好的效果。Vishnu等[21]利用多個領(lǐng)域的評論數(shù)據(jù)構(gòu)建了特殊領(lǐng)域的情感詞典和領(lǐng)域無關(guān)的情感詞典。文獻[22]把情感詞的詞性不僅局限于形容詞和動詞,還擴展到帶有情感的名詞和名詞詞組上。
2.1.3 小結(jié)
基于啟發(fā)式規(guī)則的方法優(yōu)點是比較簡單,針對性強,能夠抽取特殊領(lǐng)域的情感詞;缺點在于比較耗時,人工定義的規(guī)則也相對有局限性,可擴展性差,在處理網(wǎng)絡(luò)上那些非正式的文本時利用語法信息往往會產(chǎn)生很多錯誤。
2.2 基于圖的方法
在情感詞抽取的研究中,越來越多的研究學者傾向于使用基于圖傳播的方法抽取情感詞并判斷極性。算法過程通常分兩步:
1) 首先建立一個圖,圖的頂點是由待抽取的目標詞或目標詞組組成,邊的權(quán)值為兩個頂點之間的相似度;
2) 然后在這個圖上用一個圖傳播的算法迭代計算頂點的情感值。
已有的圖傳播算法有隨機游走(Random Walk)、PageRank、標簽傳播(Label Propagation)等。在計算邊權(quán)值的過程中,會用到語法分析結(jié)果、句法上下文和詞典中的語言學知識等信息。本節(jié)將根據(jù)情感圖頂點的組成特點把基于圖的方法分成兩類: 單一化情感圖頂點的方法和多元化情感圖頂點的方法,最后進行小結(jié)。
2.2.1 單一化情感圖頂點
Kamps等人[23]為了計算形容詞的語義指向(semantic orientation)利用WordNet構(gòu)建了一個同義詞網(wǎng)絡(luò),通過計算形容詞與種子情感詞good和bad的最短路徑確定該形容詞的語義指向。這種方法需要一個同義詞詞典,而詞語之間的反義關(guān)系卻不能包含在網(wǎng)絡(luò)中,另外只能局限于形容詞。Takamura等[24]改進了該方法,他們利用WordNet上詞語的注釋信息、同義詞、反義詞以及上位詞信息構(gòu)建了一個圖,然后利用Spin模型計算詞語的極性。這種方法需要額外的詞典資源。以上的方法都需要使用詞典資源,然而,很多語種的情感資源并不像英文一樣豐富。對于一些字典資源較稀缺的語種,有研究學者避開了詞典資源的使用并取得了較好的抽取效果。由于缺少俄語詞典資源,Chetviorkin等[25]為了從Twitter流中抽取情感詞提出了一個兩步模型的方法,首先利用語言學和統(tǒng)計信息在電影領(lǐng)域訓練了一個監(jiān)督模型,然后在Twitter數(shù)據(jù)集上抽取特殊領(lǐng)域的情感詞并利用Spin模型判斷極性。他們的方法優(yōu)點在于一旦訓練就可以運用在不同領(lǐng)域和不同語言。同樣沒有利用詞典資源,文獻[26]利用Web文檔中的共現(xiàn)統(tǒng)計信息構(gòu)建了一個情感詞典網(wǎng)絡(luò)圖,然后使用一個圖傳播算法計算候選詞的極性。這種方法優(yōu)點在于未利用詞典、POS標注以及語法分析相關(guān)的信息。
2.2.2 多元化情感圖頂點
很多研究學者發(fā)現(xiàn)情感詞和評價對象的關(guān)系后,只把情感詞和評價對象作為圖模型的頂點,這樣可能會導致準確度不高。鑒于此,一些研究學者在情感圖頂點中加入一些輔助元素,例如,表情符號、語義模式等。Xu等人[27-28]提出了一個兩級框架結(jié)構(gòu),首先他們構(gòu)建了一個情感圖游走算法,不僅將情感詞和評價對象作為圖的頂點,還在情感圖中加入語義模式,利用隨機游走計算候選詞的置信度,置信度越高,被認為是情感詞的可能性越大;然后他們使用一個自學習策略過濾掉一些高頻噪音并捕獲一些長尾詞。他們的方法能夠提高準確率,過濾掉那些錯誤的情感關(guān)系和評價對象,但情感詞的詞性只局限于形容詞。Feng等[29]把微博上的圖形表情符號加入到情感圖中,表情符號和候選的情感詞共同作為圖的頂點,然后隨機游走算法抽取排序較前的情感詞。這種方法不需要人工標注訓練語料,也不用設(shè)計語法模式,但對于低頻情感詞的抽取具有局限性。
2.2.3 小結(jié)
基于圖的方法優(yōu)點在于可以將詞與詞之間的各種聯(lián)系以特征的形式融入情感圖中,另外利用圖傳播的算法往往能抽取到大量的情感詞,缺點在于在圖傳播算法過程中可能引進很多的噪音。如何優(yōu)化圖傳播算法以及選擇準確的詞語間特征是未來的挑戰(zhàn)。
2.3 基于詞對齊模型的方法
研究人員發(fā)現(xiàn)基于語法的方法在處理非正式的文本時往往會產(chǎn)生很多錯誤,另外這種方法在處理小或中等大小的語料時能取得較好的結(jié)果,但在處理大語料數(shù)據(jù)時往往會遇到瓶頸。鑒于此,Liu等人[30-33]提出了利用機器翻譯中的詞對齊模型挖掘情感詞和評價對象之間的關(guān)系。如圖1所示,黑色頂點表示候選情感詞,白色頂點表示候選評價對象,具體步驟如下:
圖1 詞對齊模型
1) 構(gòu)建二分圖的頂點,選取所有的形容詞作為候選情感詞頂點,所有的名詞或名詞詞組作為候選評價對象頂點;
2) 利用機器翻譯模型IBM挖掘情感詞和評價對象之間的關(guān)系;
3) 采用基于圖的算法計算候選詞的置信度,置信度越高,被選擇的概率越大。
Liu等[30]首先提出將基于詞的翻譯模型(WTM)應用在詞語的抽取上,他們提出了一個非監(jiān)督詞對齊模型,用該翻譯模型挖掘情感詞與評價對象之間的關(guān)系,在此過程中全局考慮了共現(xiàn)頻率信息、詞語位置信息等。在計算候選詞的置信度時考慮到了情感關(guān)系(opinion relevance)和候選詞重要性(candidate importance)這兩個因素。這種方法在處理網(wǎng)絡(luò)上的非正式文本和大語料時取得了較好的結(jié)果,同時能有效解決那些基于語法和基于近鄰規(guī)則方法所面臨的問題,但是準確度不夠高。
文獻[31-32]改進了該方法,他們提出了一個部分監(jiān)督的詞對齊模型(PSWAM),采用一些準確率高、召回率低的語法模式約束詞對齊模型,這些語法模式的加入能夠大大地提高準確率。另外,在計算候選詞置信度時,在隨機游走算法中對那些度值較高的頂點做出懲罰,這樣能夠減少噪音,提高準確率。實驗表明這種基于PSWAM的方法在處理小和中等大小的數(shù)據(jù)集上取得了較好的結(jié)果。
WTM模型和PSWAM模型只考慮了情感詞與評價對象的關(guān)系,均未加入語義信息。例如,“漂亮”與“好看”有相似的意思,如果“漂亮”是情感詞,那么“好看”也理所當然被認為是情感詞。鑒于此,文獻[33]構(gòu)建了一個異構(gòu)圖,同時考慮情感關(guān)系(opinion relation)和語義關(guān)系(semantic relation)。他利用文獻[32]提出的部分監(jiān)督詞對齊模型挖掘情感關(guān)系,利用主題模型獲取語義關(guān)系。另外,在計算候選詞的置信度時,考慮了詞語的固定搭配。
基于詞對齊模型的方法在情感詞典構(gòu)建上比較新穎,它能夠有效地避免在網(wǎng)絡(luò)非正式文本上的語法分析錯誤,另外比較適合處理中等大小的語料。如何優(yōu)化詞對齊模型以及增加情感詞的詞性(如名詞、動詞等)到二分圖中是值得深入研究的問題。
2.4 基于表示學習的方法
近年來,詞或詞組的分布式向量表示(distributed vector representation)在推動自然語言處理[34]中取得了顯著的進步,它能夠獲取大量準確的語法和語義關(guān)系[35]。文獻[36-38]提出了利用Skip-gram預測詞或詞組的上下文詞并學習到詞或詞組的向量表示,即詞語向量(word embedding),如“漂亮”一詞的詞語向量是[0.782, -0.177, -0.106, 0.109, -0.542, …]。如圖2所示,對于給定的詞或詞組wi,利用它的詞語向量ei預測其上下文詞。目標函數(shù)如式(2)所示。
(2)
其中T表示每個詞在語料中出現(xiàn)的次數(shù),c表示窗口的大小。
圖2 skip-gram模型
Tang等人[39]首次提出利用詞組的向量表示來構(gòu)建大規(guī)模的情感詞典,實驗表明這種方法取得了較好的效果。為了將文本的情感信息加入到Skip-gram模型詞組的向量表示中,他們構(gòu)建了一個神經(jīng)網(wǎng)絡(luò)架構(gòu),定義情感部分目標函數(shù)如式(3)所示。
(3)
其中,S表示詞組所在的句子在語料中出現(xiàn)的次數(shù),sej表示句子的向量表示。加入情感信息后的神經(jīng)網(wǎng)絡(luò)目標函數(shù)為f與g的線性組合。這種方法將情感詞典的學習看作是詞組層次的情感分類任務(wù),取得了較好的效果。
此外,還有一些學者嘗試將文本的情感信息加入到詞語向量的表示學習中。Mass等人[40]提出了一個同時獲取語義和詞語間情感信息的詞語向量表示方法,語義信息部分基于概率模型獲取,情感信息部分基于情感注釋獲取,最終可以得到一個同時包含語義信息和情感信息的詞語向量表示。這種方法取得了較好的效果,但優(yōu)化函數(shù)并非是凸函數(shù)且需要較長的學習時間。Labutov和Lipson[41]改進了該方法,他們利用已有的向量表示以及具有情感極性的句子得到了基于任務(wù)的新詞語向量,由于利用了現(xiàn)有的信息資源,所以大大節(jié)省了運行時間。另外,一些學者想到在C&W模型中加入情感信息, Tang等[42]擴展了C&W模型,構(gòu)建了三個神經(jīng)網(wǎng)絡(luò)架構(gòu),通過將情感信息加入到損失函數(shù)中得到特定情感詞的向量表示,經(jīng)實驗證實,這種方法在測量情感詞相似度方面優(yōu)于其他表示學習的方法。
基于表示學習的方法是在近年來逐漸興起的詞語向量研究上發(fā)展起來的,具有廣闊的研究前景,未來如何優(yōu)化神經(jīng)網(wǎng)絡(luò)模型以及加入有效的情感特征是值得研究的方向。
公共的評測標準對于推動情感詞典的構(gòu)建起著至關(guān)重要的作用。本節(jié)將會對現(xiàn)有比較有影響力的語料庫[43]、詞典資源以及評測組織進行小結(jié)。
3.1 語料庫
3.1.1 英文語料庫
影評數(shù)據(jù)集(Movie Review Data)*http://www.cs.cornell.edu/people/pabo/movie-review-data/: 該數(shù)據(jù)集是由Pang和Lee[44]于2002年公布的,由1 000篇正向和1 000篇負向的電影評論組成,另外標注了帶有褒義和貶義感情色彩的句子各5 331句。
用戶評論數(shù)據(jù)集(Customer Review Collection)*http://www.cs.uic.edu/~liub/FBS/sentiment-analysis.html: 該數(shù)據(jù)集起源于Hu和Liu[13]于2004年從亞馬遜和Cnet上抓取的,包含了五個電子產(chǎn)品的用戶評論數(shù)據(jù)集,有兩種數(shù)碼相機、DVD播放器、mp3播放器以及手機,平均每個數(shù)據(jù)集有789個句子,63條評論。他們將每個評論語句標注了評價對象、情感句極性和強度。
MPQA(multiple-perspective QA)語料庫*http://mpqa.cs.pitt.edu/: 該數(shù)據(jù)集最初由Wiebe等人[45-46]構(gòu)建,包含有692篇新聞評論,每句都標注了評價對象、觀點持有者、極性及強度等信息。該語料是一個深度標注的語料庫,規(guī)模較小。
3.1.2 中文或混合語言語料庫
Large數(shù)據(jù)集[30,47]: 該數(shù)據(jù)集包含有三個領(lǐng)域: 賓館、MP3以及餐館,兩種語言英語和漢語。平均每個領(lǐng)域有6 000個句子,因此比較適合訓練語料較大的情況。
中文酒店評論語料*http://www.datatang.com/data/11936: 該語料是由譚松波博士[48]整理的一個較大規(guī)模的酒店評論語料,從攜程網(wǎng)上自動采集,并經(jīng)過整理而成。語料規(guī)模為10 000篇,并標注了正負類。
3.2 詞典資源
在構(gòu)建情感詞典的過程中,很多是基于詞典的方法,因此高質(zhì)量的詞典資源非常重要,下面列舉一些常用的詞典資源。
(1) General Inquirer Lexicon*http://www.wjh.harvard.edu/~inquirer/: 該詞典是由Philip Stone等人[49]于60年代開始直到現(xiàn)在仍在開發(fā)的詞典,包含1 915個正向詞和2 291個負向詞。該詞典標注的較詳細,每個詞語標有極性、強度、領(lǐng)域類別等信息。
(2) Subjective lexicon*http://mpqa.cs.pitt.edu/lexicons/subj_lexicon/: 該詞典來自于OpinionFinder系統(tǒng),含有8 221個主觀詞[1],每個詞語標有詞性、情感極性和極性強度等信息。
(3) HowNet情感詞典*http://www.keenage.com/html/c_bulletin_2007.htm: 該詞典分為中文情感分析用詞語集和英文情感分析用詞語集。其中,中文情感分析用詞語集包含詞語和短語共9 193個,英文情感分析用詞語集包含詞語和短語共9 142個,它們都被分成了正面情感、負面情感、正面評價、負面評價、程度級別和主張詞語共六類。
(4) 姚天昉等人構(gòu)建的漢語情感詞詞典[50-51]: 該詞典包含有3 120個褒義情感詞和3 485個貶義情感詞。
3.3 評測組織
NTCIR(NACSIS test collection for IR systems)是日本國家科學咨詢系統(tǒng)中心主辦的多語言處理國際評測會議*http://research.nii.ac.jp/ntcir/index-en.html,主要關(guān)注中、日、韓等亞洲語種的相關(guān)信息處理[52]。NTCIR的目標是進行多語種、多粒度、多信息源、深層次的主觀性信息提取。它的主要任務(wù)是從新聞報道中抽取主觀性信息,給定各個語種的句子,要求參加評測的系統(tǒng)判斷句子是否和篇章的主題相關(guān),并從句子中提取出評價詞極性、觀點持有者等信息。
COAE(Chinese opinion analysis evaluation)是中國中文信息學會信息檢索專委會于2008年推出的中文傾向性分析系列評測。它的主要目的是推動中文傾向性分析詞典的建立,促進中文主客觀分析技術(shù)、傾向性判別技術(shù)、評價對象抽取技術(shù)以及觀點檢索技術(shù)的發(fā)展[53]。COAE主要在詞語級、句子級和篇章級進行分析評測,評測任務(wù)包括情感詞識別、情感詞極性判別、評價對象抽取、觀點句抽取等。COAE的開展推動和加速了中文傾向性分析研究的發(fā)展。
本文對情感詞典構(gòu)建方法進行了綜述,其中重點介紹了情感詞典構(gòu)建的研究現(xiàn)狀,將其歸納為四種方法,并對每種方法進行分析和總結(jié),另外也列舉了一些常見的評測標準,包括語料庫、詞典資源以及評測組織。情感分析的研究目前只有十幾年的時間,具有很大的研究價值和應用價值[54-55],而情感詞典的構(gòu)建在情感分析任務(wù)中發(fā)揮著越來越重要的影響力。雖然情感詞典的構(gòu)建已經(jīng)取得了巨大進展,但我們認為情感詞典的構(gòu)建研究在以下四個方面值得考慮:
(1) 語料的變化。觀察COAE 2014列出的評測任務(wù)發(fā)現(xiàn),出現(xiàn)了一項微博情感新詞發(fā)現(xiàn)與判定的任務(wù),要求從大規(guī)模微博句子集中自動發(fā)現(xiàn)新的詞語以及判定每個詞語的情感傾向性。微博、論壇等用戶生成內(nèi)容一般具有一定的數(shù)據(jù)特點,晦澀模糊、不規(guī)范以及常常出現(xiàn)一些帶有情感色彩的新詞。如“這個選課系統(tǒng)真是坑爹呀”,“坑爹”便是帶有負面感情色彩的形容詞。因此,探究微博、論壇數(shù)據(jù)的特點并加以利用將會對情感詞典的構(gòu)建發(fā)揮重要的作用。
(2) 一詞多義以及語境的影響。同一個詞語往往會在不同的語境表現(xiàn)出不同的詞義、詞性以及情感傾向。如,“cold”一詞在形容天氣時表示“寒冷”,而在形容人時則有“不友好”的意思。目前,這一問題已經(jīng)引起了很多研究學者的關(guān)注,未來急切需要我們將情感詞語的抽取做地更細更深入。
(3) 跨語言的研究。目前,英語的情感資源較為豐富,而其他語種的情感資源則相對較稀缺。由于語言表達方式的差異,很多在英語方面較為成熟的資源和方法無法應用在其他語種。因此,探究英語與其他語種的特點,并將成熟的資源和方法應用在其他語種上將會極大地推進情感詞典的構(gòu)建研究。
(4) 考慮詞性及領(lǐng)域相關(guān)性。情感詞不僅是指形容詞帶有感情色彩,還包含有動詞、名詞、副詞等詞性,另外,情感詞還會與領(lǐng)域有著極強的相關(guān)性。因此考慮詞性以及利用領(lǐng)域知識會對情感詞典的構(gòu)建有很大的幫助。
[1] 趙妍妍,秦兵,劉挺.文本情感分析[J]. 軟件學報, 2010, 21(8): 1834-1848.
[2] Maite Taboada, Julian Brooke, Milan Tofiloski, et al. Lexicon-based methods for sentiment analysis[J]. Computational linguistics, 2011, 37(2): 267-307.
[3] Songbo Tan, Yuefen Wang, Xueqi Cheng. Combining learn-based and lexicon-based techniques for sentiment detection without using labeled examples[C]//Proceedings of the 31st annual international ACM SIGIR conference on Research and development in information retrieval. ACM, 2008: 743-744.
[4] Likun Qiu, Weishi Zhang, Changjian Hu, et al. Selc: a self-supervised model for sentiment classification[C]//Proceedings of the 18th ACM conference on Information and knowledge management(CIKM), ACM, 2009: 929-936.
[5] Prem Melville, Wojciech Gryc, Richard D Lawrence. Sentiment analysis of blogs by combining lexical knowledge with text classification[C]//Proceedings of the 15th ACM SIGKDD international conference on Knowledge discovery and data mining. ACM, 2009: 1275-1284.
[6] Bing Liu, Lei Zhang. A survey of opinion mining and sentiment analysis[M]//Mining text data. Springer US, 2012: 415-463.
[7] Soo-Min Kim, Eduard Hovy. Automatic detection of opinion bearing words and sentences[C]//Companion Volume to the Proceedings of the International Joint Conference on Natural Language Processing (IJCNLP).2005: 61-66.
[8] Soo-Min Kim, Eduard Hovy. Determining the sentiment of opinions[C]//Proceedings of the 20th international conference on Computational Linguistics. Association for Computational Linguistics, 2004: 1367.
[9] 朱嫣嵐, 閔錦, 周雅倩, 等. 基于 HowNet 的詞匯語義傾向計算[J]. 中文信息學報, 2006, 20(1): 14-20.
[10] 王素格, 李德玉, 魏英杰, 等. 基于同義詞的詞匯情感傾向判別方法[J]. 中文信息學報, 2009, 23(5): 68-74.
[11] Vasileios Hatzivassiloglou, Kathleen R McKeown. Predicting the semantic orientation of adjectives[C]//Proceedings of the 35th annual meeting of the association for computational linguistics and eighth conference of the european chapter of the association for computational linguistics. Association for Computational Linguistics, 1997: 174-181.
[12] Turney, Peter D, Michael L Littman. Measuring praise and criticism: Inference of semantic orientation from association[J]. ACM Transactions on Information Systems (TOIS), 2003, 21(4): 315-346.
[13] Minqing Hu, Bing Liu. Mining and summarizing customer reviews[C]//Proceedings of the tenth ACM SIGKDD international conference on Knowledge discovery and data mining. ACM, 2004: 168-177.
[14] Hiroshi Kanayama, Tetsuya Nasukawa. Fully automatic lexicon expansion for domain-oriented sentiment analysis[C]//Proceedings of the 2006 Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, 2006: 355-363.
[15] 劉鴻宇, 趙妍妍, 秦兵, 等. 評價對象抽取及其傾向性分析[J]. 中文信息學報, 2010 (1): 84-88.
[16] Guang Qiu, Bing Liu, Jiajun Bu, et al. Expanding Domain Sentiment Lexicon through Double Propagation[C]//Prolecdings of the IJCAI.2009, 9: 1199-1204.
[17] Guang Qiu, Bing Liu, Jiajun Bu, et al. Opinion word expansion and target extraction through double propagation[J]. Computational linguistics, 2011, 37(1): 9-27.
[18] Lei Zhang, Bing Liu, Suk Hwan Lim, et al. Extracting and ranking product features in opinion documents[C]//Proceedings of the 23rd international conference on computational linguistics: Posters. Association for Computational Linguistics, 2010: 1462-1470.
[19] Pantelis Agathangelou, Ioannis Katakis, Fotios Kokkoras, et al. Mining Domain-Specific Dictionaries of Opinion Words[M]//Web Information Systems Engineering-WISE 2014. Springer International Publishing, 2014: 47-62.
[20] Danushka Bollegala, David Weir, John Carroll. Cross-domain sentiment classification using a sentiment sensitive thesaurus[J]. Knowledge and Data Engineering, IEEE Transactions on, 2013, 25(8): 1719-1731.
[21] K Sai Vishnu, TApoorva, Deepika Gupta. Learning domain-specific and domain-independent opinion oriented lexicons using multiple domain knowledge[C]//Contemporary Computing (IC3), 2014 Seventh International Conference on. IEEE, 2014: 318-323.
[22] Zhe Qi, Mingchu Li. Mining Domain-Dependent Noun Opinion Words for Sentiment Analysis[M].Multimedia and Ubiquitous Engineering. Springer Berlin Heidelberg, 2014: 165-171.
[23] Jaap Kamps, Maarten Marx, Robert J Mokken, et al. Using wordnet to measure semantic orientations of adjectives[C]//Proceedings of the Fourth international Conference on Language Resources and Evaluation.ELRA,2004,1115-1118.
[24] Hiroya Takamura, Takashi Inui, Manabu Okumura. Extracting semantic orientations of words using spin model[C]//Proceedings of the 43rd Annual Meeting on Association for Computational Linguistics. Association for Computational Linguistics, 2005: 133-140.
[25] IliaChetviorkin, Natalia Loukachevitch. Two-Step Model for Sentiment Lexicon Extraction from Twitter Streams[C]//Proceedings of the ACL 2014, 2014: 67.
[26] LeonidVelikovich, Sasha Blair-Goldensohn, Kerry Hannan, et al. The viability of web-derived polarity lexicons[C]//Proceedings of the 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics. 2010: 777-785.
[27] Liheng Xu, Kang Liu, Siwei Lai, et al. Mining Opinion Words and Opinion Targets in a Two-Stage Framework[C]//proceedings of the ACL (1).2013: 1764-1773.
[28] Liheng Xu, Kang Liu, Siwei Lai, et al. Walk and learn: a two-stage approach for opinion words and opinion targets co-extraction[C]//Proceedings of the 22nd international conference on World Wide Web companion. 2013: 95-96.
[29] Shi Feng, Kaisong Song, Daling Wang, et al. A word-emoticon mutual reinforcement ranking model for building sentiment lexicon from massive collection of microblogs[J]. World Wide Web, 2014: 1-19.
[30] Kang Liu,Liheng Xu, Jun Zhao. Opinion target extraction using word-based translation model[C]//Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning. 2012: 1346-1356.
[31] Kang Liu,Liheng Xu, Yang Liu, et al. Opinion target extraction using partially-supervised word alignment model[C]//Proceedings of the Twenty-Third international joint conference on Artificial Intelligence. AAAI Press, 2013: 2134-2140.
[32] Kang Liu,Liheng Xu, Jun Zhao. Syntactic Patterns versus Word Alignment: Extracting Opinion Targets from Online Reviews[C]//Proceedings of the ACL 2013: 1754-1763.
[33] Kang Liu,Liheng Xu, Jun Zhao. Extracting opinion targets and opinion words from online reviews with graph co-ranking[C]//Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics.1: 314-324.
[34] 王燦輝, 張敏, 馬少平. 自然語言處理在信息檢索中的應用綜述[J]. 中文信息學報, 2007, 21(2): 35-45.
[35] Jeffrey Pennington, RichardSocher, Christopher D Manning. Glove: Global vectors for word representation[C]//Proceedings of the Empiricial Methods in Natural Language Processing (EMNLP 2014), 2014, 12.
[36] TomasMikolov, Kai Chen, Greg Corrado, et al. Efficient estimation of word representations in vector space[C]//Proceedings of International Conference on Learning Repesentations(ICLR),2013.
[37] TomasMikolov, Ilya Sutskever, Kai Chen, et al. Distributed representations of words and phrases and their compositionality[C]//Proceedings of the Advances in Neural Information Processing Systems.2013: 3111-3119.
[38] Quoc V Le, Tomas Mikolov. Distributed representations of sentences and documents[C]//Proceedings of the ICML,2014,14,1188-1196.
[39] Duyu Tang, Furu Wei, Bing Qin, et al. Building large-scale twitter-specific sentiment lexicon: A representation learning approach[C]//Proceedings of COLING.2014: 172-182.
[40] Andrew L Maas, Raymond E Daly, Peter T Pham, et al. Learning word vectors for sentiment analysis[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics,2011: 142-150.
[41] IgorLabutov, Hod Lipson. Re-embedding words[C]//Proceedings of the ACL 2013: 489-493.
[42] Duyu Tang, Furu Wei, Nan Yang, et al. Learning sentiment-specific word embedding for twitter sentiment classification[C]//Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics.2014: 1555-1565.
[43] 徐琳宏, 林鴻飛, 趙晶. 情感語料庫的構(gòu)建和分析[J]. 中文信息學報, 2008, 22(1): 116-122.
[44] Bo Pang, Lillian Lee,Shivakumar Vaithyanathan. Thumbs up?: sentiment classification using machine learning techniques[C]//Proceedings of the ACL-02 conference on Empirical methods in natural language processing-Volume 10. Association for Computational Linguistics, 2002: 79-86.
[45] Janyce Wiebe. Learning subjective adjectives from corpora[C]//Proceedings of the AAAI/IAAI.2000: 735-740.
[46] Janyce Wiebe, Ellen Riloff. Creating subjective and objective sentence classifiers from unannotated texts[M].Computational Linguistics and Intelligent Text Processing. Springer Berlin Heidelberg, 2005: 486-497.
[47] Hongning Wang, Yue Lu, ChengXiang Zhai. Latent aspect rating analysis without aspect keyword supervision[C]//Proceedings of the 17th ACM SIGKDD international conference on Knowledge discovery and data mining. ACM, 2011: 618-626.
[48] 譚松波. 中文情感挖掘語料-ChnSentiCorp [EB/OL], 2010.
[49] Philip J Stone, Dexter CDunphy, Marshall S Smith. The General Inquirer: A Computer Approach to Content Analysis[J] Journal of Regional Science,1966,8(1): 113-116.
[50] 姚天昉, 婁德成. 漢語情感詞語義傾向判別的研究[C].中國計算技術(shù)與語言問題研究—第七屆中文信息處理國際會議論文集.2007.
[51] 姚天昉, 程希文, 徐飛玉, 等. 文本意見挖掘綜述[J]. 中文信息學報, 2008, 22(3): 71-80.
[52] 張俊林, 黃瑞紅, 孫樂. 亞洲語言信息檢索評測會議 NTCIR 介紹[J]. 數(shù)字圖書館論壇, 2006 (9): 20-25.
[53] 趙軍, 許洪波, 黃萱菁, 等. 中文傾向性分析評測技術(shù)報告[C]. 第 1 屆中文傾向性分析評測研討會論文集. 北京, 2008: 1-20.
[54] 黃萱菁, 趙軍. 中文文本情感傾向性分析[J]. 中國計算機學會通訊, 2008, 4(2): 41-46.
[55] 黃萱菁, 張奇, 吳苑斌. 文本情感傾向分析[J]. 中文信息學報, 2012, 25(6): 118-126.
A Survey on Sentiment Lexicon Construction
MEI Lili,HUANG Heyan,ZHOU Xinyu,MAO Xianling
(School of Computer Science and Technology,Beijing Institute of Technology,Beijing 100081,China)
Sentiment analysis is a rapidly developing research topic in recent years, which has great research value and application value. Sentiment lexicon construction plays an increasingly important influence on the task . This paper summarizes the research progress on sentiment lexicon construction. Firstly, four kinds of methods are summarized and analyzed, including the method based on heuristic rules, the method based on graph, the method based on word alignment model and the method based on representation learning. Then, some popular corpus, dictionary resources and evaluation organizations are introduced. Finally, we conclude the topic and provide the development trends of sentiment lexicon construction.
sentiment analysis; sentiment lexicon; evaluation; corpus; survey
梅莉莉(1991—),碩士,主要研究領(lǐng)域為自然語言處理。E?mail:lilymay@bit.edu.cn黃河燕(1963—),博士,教授,主要研究領(lǐng)域為機器翻譯、自然語言處理、社會計算。E?mail:hhy63@bit.edu.cn周新宇(1991—),碩士,主要研究領(lǐng)域為自然語言處理,情感分類及群體情緒預警。E?mail:zxykid@qq.com
1003-0077(2016)05-0019-09
2015-05-04 定稿日期: 2016-03-30
國家重點基礎(chǔ)研究發(fā)展計劃(2013CB329303);國家自然科學基金(61402036,61132009)
TP391
A