国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合位置權(quán)重的基于注意力交叉注意力的長(zhǎng)短期記憶方面情感分析模型

2019-10-23 12:23武婷曹春萍
計(jì)算機(jī)應(yīng)用 2019年8期
關(guān)鍵詞:深度學(xué)習(xí)

武婷 曹春萍

摘 要:針對(duì)傳統(tǒng)的基于注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)模型不能對(duì)方面特征和情感信息進(jìn)行有效關(guān)注,以及不同距離或不同方向的上下文詞對(duì)方面詞的情感極性判斷有不同的貢獻(xiàn)等問(wèn)題,提出一種融合位置權(quán)重的基于注意力交叉注意力的長(zhǎng)短期記憶方面情感分析模型(LWAOA-LSTM)。首先,為詞向量加入位置權(quán)重信息;然后,使用長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)同時(shí)對(duì)方面和句子進(jìn)行建模以生成方面表示和句子表示,同時(shí)通過(guò)注意力交叉注意力模塊共同學(xué)習(xí)方面和句子的表示以獲得方面到文本和文本到方面的交互關(guān)注,并自動(dòng)關(guān)注句子中的重要部分;最后,在景點(diǎn)、餐飲、住宿不同主題數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),驗(yàn)證了該模型對(duì)方面情感分析的準(zhǔn)確性。實(shí)驗(yàn)結(jié)果表明,所提模型在景點(diǎn)、餐飲、住宿主題數(shù)據(jù)集上的準(zhǔn)確率分別達(dá)到78.3%、80.6%和82.1%,取得了比傳統(tǒng)LSTM網(wǎng)絡(luò)模型更好的效果。

關(guān)鍵詞:深度學(xué)習(xí);方面情感分析;位置加權(quán)詞向量;注意力交叉注意力;長(zhǎng)短期記憶網(wǎng)絡(luò)

中圖分類(lèi)號(hào):?TP183; TP391.1

文獻(xiàn)標(biāo)志碼:A

Aspect level sentiment classification model with location weight and long-short term memory based on attention-over-attention

WU Ting*, CAO Chunping

School of Optical-Electrical and Computer Engineering, University of Shanghai for Science and Technology, Shanghai 200082, China

Abstract:

The traditional attention-based neural network model can not effectively pay attention to aspect features and sentiment information, and context words of different distances or different directions have different contributions to the sentiment polarity assessment of aspect words. Aiming at these problems, Location Weight and Attention-Over-Attention Long-short Term Memory (LWAOA-LSTM) model was proposed. Firstly, the location weight information was added to the word vectors. Then Long-Short Term Memory (LSTM) network was used to simultaneously model aspects and sentences to generate aspect representation and sentence representation, and the aspect and sentence representations were learned simultaneously through attention-over-attention module to obtain the interactions

from the aspect to the text and from the text to the aspect, and the important part of the sentence was automatically paid attention to. Finally, the experiments were carried out on different thematic datasets of attractions, catering and accommodation, and the accuracy of the aspect level sentiment analysis by the model was verified. Experimental results show that the accuracy of the model on the datasets of attractions, catering and accommodation is 78.3%, 80.6% and 82.1% respectively, and LWAOA-LSTM has better performance than traditional LSTM network model.

Key words:

deep learning; aspect level sentiment classification; location-weighted word vector; attention-over-attention; Long-Short Term Memory (LSTM) network

0 引言

隨著互聯(lián)網(wǎng)進(jìn)入Web 2.0時(shí)代,人們?cè)絹?lái)越喜歡使用網(wǎng)絡(luò)分享知識(shí)、經(jīng)驗(yàn)、意見(jiàn)和感受等,這些評(píng)論性文本蘊(yùn)含了大量的情感信息,如何從社交網(wǎng)絡(luò)文本信息中挖掘用戶(hù)的情感傾向已得到越來(lái)越多研究人員的關(guān)注。不像文檔級(jí)情感分析[1],基于方面情感分析是一個(gè)更細(xì)粒度的分類(lèi)任務(wù),當(dāng)一個(gè)句子中出現(xiàn)了多個(gè)方面時(shí),基于方面情感分析克服了文檔情感分析的一個(gè)局限性,能夠針對(duì)文本中特定一方面來(lái)分析其情感極性(例如積極、消極、中立)。例如句子“這家飯店味 道不錯(cuò),但服務(wù)不好”,“食物味道”方面的情感極性為積極,而“服務(wù)”方面的情感極性卻是消極的。這個(gè)例子中涉及到兩個(gè)方面,因?yàn)楦鱾€(gè)方面的情感極性不同,句子的整體情感判斷是不準(zhǔn)確的。如果忽略了方面信息,那么將很難獲得特定方面的情感極性。這種錯(cuò)誤普遍存在于情感分析任務(wù)中。在最近的一個(gè)研究中,Jiang等[2]手工評(píng)估了Twitter情感分類(lèi)器,結(jié)果表明40%的情感分類(lèi)錯(cuò)誤都是因?yàn)闆](méi)有考慮方面信息。因此,方面情感分析具有很大的研究?jī)r(jià)值。

目前,已經(jīng)提出很多方法來(lái)處理基于方面情感分析問(wèn)題。傳統(tǒng)的基于規(guī)則和詞典的方法,大多數(shù)依靠情感詞典的建立,性能好壞與規(guī)則和人工干預(yù)密不可分[3]。基于機(jī)器學(xué)習(xí)的方法通過(guò)監(jiān)督訓(xùn)練來(lái)構(gòu)建機(jī)器學(xué)習(xí)分類(lèi)器,但人工設(shè)計(jì)特征的分類(lèi)器仍需要依賴(lài)復(fù)雜的人工規(guī)則和特征工程[4]。近年來(lái),由于無(wú)需特征工程就可以從數(shù)據(jù)中學(xué)習(xí)表示,深度學(xué)習(xí)在自然語(yǔ)言處理任務(wù)中越來(lái)越受歡迎[5]。其中,長(zhǎng)短期記憶(Long-Short Term Memory, LSTM)網(wǎng)絡(luò)可以解決梯度爆炸或消失的問(wèn)題,被廣泛應(yīng)用于方面級(jí)情感分析,如Target-Dependent LSTM(TD-LSTM)、Target-Connection LSTM(TC-LSTM)等。 同時(shí),結(jié)合注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)模型在自然語(yǔ)言處理任務(wù)中取得了比傳統(tǒng)方法更好的效果,加入注意力機(jī)制不僅可以提高閱讀理解力,而且能關(guān)注句子的特定方面[6-8]。但是對(duì)于中文評(píng)論尤其是長(zhǎng)篇評(píng)論,其中會(huì)包含很多與方面情感判斷無(wú)關(guān)的單詞,會(huì)對(duì)方面情感分析的準(zhǔn)確率產(chǎn)生影響。

近年來(lái),方面級(jí)情感分析任務(wù)取得了很好的發(fā)展,從各種研究中可以發(fā)現(xiàn)研究方面情感分析的關(guān)鍵因素主要有三個(gè):結(jié)合上下文后方面詞的語(yǔ)義信息、方面詞與上下文詞之間的相關(guān)性和方面詞在上下文中的位置信息??紤]到所有三個(gè)關(guān)鍵因素,可以獲得更好的效果,然而,尚未有模型充分考慮上述三個(gè)因素。研究發(fā)現(xiàn)不同位置的單詞對(duì)特定方面的情感極性判斷有不同的貢獻(xiàn),并且關(guān)鍵詞總是位于方面的一側(cè),綜合考慮方面情感分析的三個(gè)關(guān)鍵因素,本文提出了

一種融合位置權(quán)重的基于注意力交叉注意力的長(zhǎng)短期記憶方面情感分析模型

(Location-Weight and Attention-Over-Attention LSTM, LWAOA-LSTM)。該模型首先通過(guò)捕獲位置信息為不同單詞生成不同的位置權(quán)重,將此權(quán)重與詞向量合并;然后,使用基于長(zhǎng)短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)來(lái)解決方面情感分析,傳統(tǒng)的基于LSTM的方法主要側(cè)重于分別對(duì)方面和文本進(jìn)行建模[6-7],而本文使用LSTM同時(shí)對(duì)各個(gè)方面和文本進(jìn)行建模。此外,由LSTM生成的方面表示和文本表示通過(guò)注意力交叉注意力(Attention-Over-Attention, AOA)模型進(jìn)行交互,AOA模型會(huì)自動(dòng)產(chǎn)生方面到文本以及文本到方面之間的交互關(guān)注。經(jīng)過(guò)研究分析發(fā)現(xiàn),一個(gè)句子中只有幾個(gè)詞語(yǔ)會(huì)與方面情感分析相關(guān),并且很多時(shí)候這些情感詞匯都是與方面密切相關(guān)的。例如,“這家酒店環(huán)境不錯(cuò),但價(jià)格有點(diǎn)貴”,根據(jù)人類(lèi)閱讀經(jīng)驗(yàn),消極詞“貴”更可能描述“價(jià)格”而不是“環(huán)境”。類(lèi)似地,對(duì)于方面的短語(yǔ)也應(yīng)該關(guān)注最重要的對(duì)應(yīng)的情感部分,因此本文選擇AOA模型來(lái)處理方面和句子中最重要的部分。與傳統(tǒng)基于LSTM神經(jīng)網(wǎng)絡(luò)模型相比,本文的模型能提高情感分類(lèi)的準(zhǔn)確率。

1 相關(guān)工作

1.1 情感分類(lèi)

情感分類(lèi)旨在檢測(cè)文本的情感極性。針對(duì)這一研究問(wèn)題提出了許多方法[9],大多數(shù)方法使用機(jī)器學(xué)習(xí)以監(jiān)督的方式進(jìn)行文本分類(lèi),例如大多使用樸素貝葉斯算法[10]以及支持向量機(jī)(Support Vector Machine, SVM)來(lái)解決此問(wèn)題[11]。這些方法大多數(shù)依賴(lài)于n-gram特征或人工設(shè)計(jì)的特征,因此多種情感詞典被建立[12-14]。但這些方法存在很多缺點(diǎn),比如不可能存在一個(gè)詞典包括所有的情感詞匯,而規(guī)則制定也是需要專(zhuān)家大量的經(jīng)驗(yàn)和耗費(fèi)許多人力成本,并且還可能對(duì)某些特征考慮得不夠全面。

近年來(lái),神經(jīng)網(wǎng)絡(luò)的應(yīng)用大大提高了情感分類(lèi)的準(zhǔn)確率與效率?;谏窠?jīng)網(wǎng)絡(luò)的方法自動(dòng)學(xué)習(xí)特征表示,而無(wú)需大量的特征工程。研究者提出了各種神經(jīng)網(wǎng)絡(luò)模型,Socher等[15]將遞歸神經(jīng)網(wǎng)絡(luò)用于情感樹(shù)的構(gòu)建,提高了分類(lèi)的準(zhǔn)確率;Tang等[16]采用循環(huán)神經(jīng)網(wǎng)絡(luò)建立篇章級(jí)循環(huán)神經(jīng)網(wǎng)絡(luò)模型,該模型相比標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)模型具有較高的優(yōu)越性,在情感分類(lèi)任務(wù)中取得了進(jìn)步;Tai等[17]改進(jìn)標(biāo)準(zhǔn)的LSTM模型,引入Tree-LSTM模型,該模型建立了樹(shù)狀LSTM的網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu),在情感分類(lèi)任務(wù)中有較好的表現(xiàn)。這些方法在情感分析上取得了令人滿(mǎn)意的結(jié)果。

1.2 方面情感分析

方面級(jí)情感分析是情感分類(lèi)的一個(gè)分支,其目標(biāo)是識(shí)別句子中某個(gè)特定方面的情感極性。在過(guò)去的一些研究中,基于規(guī)則的模型被應(yīng)用于解決方面情感分析[18]。Nasukawa等[19]首次提出對(duì)句子進(jìn)行依賴(lài)句法分析,然后加入預(yù)先定義的規(guī)則從而判斷某一方面的情感;Jiang等[2]提出目標(biāo)依賴(lài)情感分析,通過(guò)基于句子的語(yǔ)法結(jié)構(gòu)建立目標(biāo)相關(guān)特征從而達(dá)到對(duì)特定目標(biāo)的情感極性判斷。這些與方面相關(guān)的特征與其他文本特征一起反饋到分類(lèi)器(如SVM)中。

之后,多種基于神經(jīng)網(wǎng)絡(luò)的模型被應(yīng)用于解決這類(lèi)方面情感分析問(wèn)題。典型模型是基于LSTM神經(jīng)網(wǎng)絡(luò),如TD-LSTM[7]在模型中使用兩個(gè)LSTM從而模擬特定方面的上下文,此模型使用兩個(gè)LSTM最后的隱藏層預(yù)測(cè)情感。為了更好捕捉句子的重要部分,Wang等[6]使用方面嵌入來(lái)生成注意力向量,以此來(lái)關(guān)注句子的不同部分。在此基礎(chǔ)上,Ma等[20]使用兩個(gè)LSTM網(wǎng)絡(luò)分別對(duì)句子和方面建模,并進(jìn)一步使用由句子生成的隱藏狀態(tài),通過(guò)池化操作來(lái)計(jì)算方面目標(biāo)的注意力,能夠同時(shí)關(guān)注到句子的重要部分和方面信息。這種方法與本文提出的模型相似,但是,池化操作會(huì)忽略句子與方面之間的詞對(duì)交互,并且實(shí)驗(yàn)表明本文提出的模型性能更優(yōu)。

2 方面情感分析模型

2.1 問(wèn)題定義

在方面情感分析問(wèn)題中,本文定義句子s={w1,w2,…,wi,…,wj,…,wn},方面目標(biāo)為t={wi,wi+1,…,wi+m-1}。 其中方面標(biāo)簽可以是一個(gè)單詞也可以是一個(gè)長(zhǎng)短語(yǔ)。模型的目標(biāo)是分析出句子中某一方面的情感極性。

本文提出的總體結(jié)構(gòu)如圖1所示,主要由四部分組成:詞向量、雙向長(zhǎng)短期記憶網(wǎng)絡(luò)(Bi-directional LSTM, Bi-LSTM)、AOA模型和最終預(yù)測(cè)。

2.2 帶有位置權(quán)重的詞向量

長(zhǎng)度為n的句子表示為s={w1,w2,…,wi,…, wj, …, wn},長(zhǎng)度為m的方面詞表示為t={wi,wi+1,…,wi+m-1},本文首先將每個(gè)單詞映射為一個(gè)低維實(shí)值向量,稱(chēng)為詞向量。對(duì)于每個(gè)單詞wi,可以從MV×dw得到向量 v i, 其中 | ?V ?| 是詞典大小,dw為向量維度。詞向量處理之后得到兩組詞向量:句子向量[ v 1; v 2;…; v n]∈ R n×dw和方面向量[ v i; v i+1;…; v i+m-1]∈ R n×dw。 另外,表達(dá)某方面的情感的關(guān)鍵詞總是比較接近方面詞,越接近方面詞匯包含的相關(guān)信息越多。例如句子“這家酒店環(huán)境不錯(cuò),但價(jià)格有點(diǎn)貴”,“不錯(cuò)”是“酒店環(huán)境”評(píng)價(jià)的關(guān)鍵詞,而“貴”是“價(jià)格”的關(guān)鍵詞,由于“不錯(cuò)”比“貴”要更接近方面詞“環(huán)境”,所以“不錯(cuò)”對(duì)方面“環(huán)境”的情感極性判斷有更多貢獻(xiàn),“貴”對(duì)“價(jià)格”有更多貢獻(xiàn)。

并且,描述方面詞情感的關(guān)鍵詞總是只位于方面詞的一側(cè)。在上述例子中,情感詞“不錯(cuò)”和“貴”都是位于“環(huán)境”和“價(jià)格”的右側(cè),因此,在這個(gè)例子中,方面詞右側(cè)的詞語(yǔ)要比左邊的詞語(yǔ)有更大的影響力。為此,設(shè)計(jì)了兩個(gè)參數(shù)來(lái)表示某一詞匯的重要性,此參數(shù)也是通過(guò)訓(xùn)練來(lái)學(xué)習(xí)。

直接將詞向量輸入模型中生成的句子向量將包含很多與方面詞無(wú)關(guān)的信息,在生成句子向量時(shí)使用位置權(quán)重來(lái)強(qiáng)調(diào)與方面詞相關(guān)的情感信息,與此同時(shí),與方面詞無(wú)關(guān)的詞也相應(yīng)地被削弱了。加入位置信息有利于獲得更好的結(jié)果,輸入層由位置加權(quán)詞向量組成。由于希望遠(yuǎn)離方面詞的權(quán)重下降得更快,有助于防止與方面無(wú)關(guān)的信息的干擾,因此使用Laplacian概率函數(shù)來(lái)獲得位置權(quán)重。

每個(gè)詞向量 V ={ v 1, v 2,…, v n} 對(duì)應(yīng)的位置權(quán)重定義為:

λ=[λ1,λ2,…,λn]

(1)

λ=? αlexp ( -βl | i-a |) , i

αm, i=a

αrexp ( -βr | i-a |) , i>a

(2)

其中:i是各個(gè)單詞的索引;a是方面詞的索引,不同位置的單詞有不同的位置權(quán)重。αl和βl為位于方面詞左側(cè)的詞語(yǔ)的參數(shù),αr和βr是位于方面詞右側(cè)的詞語(yǔ)的參數(shù),αm是方面詞,這些參數(shù)都是通過(guò)訓(xùn)練得到。例如,訓(xùn)練時(shí)如果左側(cè)單詞的位置權(quán)重比右側(cè)的大,則說(shuō)明左側(cè)語(yǔ)句對(duì)方面詞的情感表達(dá)決定性要大。最后位置權(quán)重被合并到詞向量中:

v i′=λi× v i

(3)

其中, v i′表示加權(quán)后的詞向量。

2.3 雙向長(zhǎng)短期記憶網(wǎng)絡(luò)(Bi-LSTM)

在詞向量表示之后,將兩組詞向量分別輸入兩個(gè)Bi-LSTM中,本文用兩個(gè)Bi-LSTM網(wǎng)絡(luò)獲得句子和目標(biāo)詞的隱含語(yǔ)義,每個(gè)Bi-LSTM通過(guò)堆疊兩個(gè)LSTM網(wǎng)絡(luò)獲得。使用LSTM的優(yōu)勢(shì)在于避免梯度消失或爆炸問(wèn)題,并且善于挖掘長(zhǎng)期依賴(lài)。

通過(guò)輸入 s =[ v 1′; v 2′;…; v n′]和前饋LSTM,生成一系列隱藏狀態(tài)

s ∈ R n×dh,其中dh是隱藏向量的維度,通過(guò)將 s 輸入后向LSTM得到另一系列隱藏狀態(tài) ???s 。在Bi-LSTM網(wǎng)絡(luò)中,通過(guò)連接 ???s 和?? ?s 輸出最終隱藏向量 h ?s ∈ R n×2dh,并且以相同的方式計(jì)算方面目標(biāo)t的隱藏語(yǔ)義狀態(tài) h ?t 。

s =LSTM ([ v 1′; v 2′;…; v n′])

(4)

s =LSTM ([ v 1′; v 2′;…; v n′])

(5)

h ?s =[?? ?s , ???s ]

(6)

其中:?? ?s 和?? ?s 分別表示前饋LSTM生成的隱藏狀態(tài)向量和后向LSTM生成的隱藏狀態(tài)向量 h ?s ;LSTM 和LSTM 分別表示前饋LSTM和后向LSTM。

2.4 注意力交叉注意力機(jī)制

考慮到文本的隱含語(yǔ)義表示和Bi-LSTM生成的方面目標(biāo),本文通過(guò)注意力交叉注意力(AOA)模塊計(jì)算文本的注意力權(quán)值,這是受到了問(wèn)答研究中使用AOA模型的啟發(fā)[21]。給定目標(biāo)表示為 h ?t ∈ R m×2dh,句子表示為 h ?s ∈ R n×2dh,本文首先計(jì)算一個(gè)成對(duì)交互矩陣 I = h ?s ?·? h T t ,其中每個(gè)條目的值表示句子和目標(biāo)之間的一個(gè)詞對(duì)的相關(guān)度。通過(guò)逐列softmax和逐行softmax,得到目標(biāo)到句子的注意力 α 和句子到目標(biāo)的注意力 β 。 在逐列求平均值 β 之后,得到目標(biāo)級(jí)注意力?? ∈ R m,它表示方面中最重要的部分。式(11)給出了每個(gè)單獨(dú)的目標(biāo)到句子注意力 α 的加權(quán)和來(lái)計(jì)算最終的句子級(jí)關(guān)注度 γ ∈ R n。 考慮到每個(gè)方面詞語(yǔ)的影響,需要關(guān)注句子中每個(gè)詞的重要權(quán)重。

α ij=exp( I ij) / ∑ i ( I ij)

(8)

β ij=exp( I ij) / ∑ j ( I ij)

(9)

j= 1 n ∑ i? β ij

(10)

γ = α ·?? T

(11)

2.5 最終分類(lèi)

最終句子表示為句子的注意力,通過(guò)AOA模塊得到句子隱藏語(yǔ)義狀態(tài)的加權(quán)和:

r = h T s ?·? γ

(12)

本文將此句子表示作為最終的分類(lèi)特征,并將它反饋到線(xiàn)性層中,從而將 r 投影到目標(biāo)類(lèi)C中。

x= W l· r +bl

(13)

其中: W l為權(quán)值矩陣;bl為偏差。在線(xiàn)性層之后,本文使用Softmax層計(jì)算句子 s 中某一方面a的情感極性c(c∈C)。

P(y=c)=exp(xc) / ∑ i∈C exp(xi)

(14)

最終某方面的情感極性判斷只是具有最高概率的標(biāo)簽。

loss=-∑ i ∑ c∈C I(yi=c)·log(P(yi=c))+λ‖ θ ‖2

(15)

其中:I(·)為指標(biāo)函數(shù);λ為L(zhǎng)2正規(guī)化參數(shù); θ 為L(zhǎng)STM網(wǎng)絡(luò)和線(xiàn)性層的一組權(quán)重矩陣。本文進(jìn)一步使用Dropout來(lái)避免過(guò)渡擬合,并且隨機(jī)丟棄LSTM單元的一部分輸入。

本文使用Adam[22]更新規(guī)則和小批量隨機(jī)梯度下降,最后最小化模型中關(guān)于權(quán)矩陣和偏差項(xiàng)的損失函數(shù)。

3 實(shí)驗(yàn)及結(jié)果分析

3.1 數(shù)據(jù)集

本文通過(guò)網(wǎng)絡(luò)爬蟲(chóng)軟件在螞蜂窩采集了關(guān)于上海的游記2000篇,然后經(jīng)過(guò)多主題評(píng)論性長(zhǎng)文本過(guò)濾模型后得到有關(guān)景點(diǎn)、住宿、餐飲的句子集。每條句子都包含一系列的評(píng)價(jià)方面以及和該方面相關(guān)的情感極性,其中景點(diǎn)主要包括{地文,水域風(fēng)光,生物景觀,氣象景觀,遺跡遺址,建筑,人文,門(mén)票價(jià)格}八個(gè)方面,住宿主要包括{價(jià)格,環(huán)境,服務(wù)}三個(gè)方面,餐飲主要包括{食物味道,服務(wù),價(jià)格,環(huán)境}四個(gè)方面。本文實(shí)驗(yàn)數(shù)據(jù)統(tǒng)計(jì)如表1所示。

3.2 參數(shù)設(shè)置

在實(shí)驗(yàn)中,本文首先隨機(jī)選擇20%的訓(xùn)練數(shù)據(jù)作為驗(yàn)證集來(lái)調(diào)整超參數(shù)。所有權(quán)重矩陣從均勻分布U(-10-4,10-4)隨機(jī)初始化,并且所有偏差項(xiàng)都設(shè)置為0。L2正則化系數(shù)設(shè)置為10-4,丟失保持率為0.2。詞向量使用300維GloVe[23]詞向量進(jìn)行初始化,并在訓(xùn)練期間固定。

對(duì)于單詞表外的詞匯,從均勻分布U(-0.01,0.01)中隨機(jī)初始化。LSTM隱藏層的維度設(shè)置為150,Adam優(yōu)化器的初始學(xué)習(xí)率為0.01。如果訓(xùn)練損失在每三個(gè)時(shí)期之后沒(méi)有下降,則將學(xué)習(xí)率降低一半,批量大小設(shè)置為25。

3.3 對(duì)比實(shí)驗(yàn)

本文分別對(duì)景點(diǎn)、住宿、飯店三個(gè)主題下的文本進(jìn)行方面級(jí)情感分析訓(xùn)練和評(píng)估模型,使用準(zhǔn)確度指標(biāo)來(lái)衡量績(jī)效。為了進(jìn)一步驗(yàn)證模型的性能,將本文方法與以下幾種方法進(jìn)行對(duì)比:

1)SVM:是一種基本的機(jī)器學(xué)習(xí)的方法,它將訓(xùn)練集中最大的情感極性分配給測(cè)試集中的每一個(gè)樣本。

2)LSTM:使用標(biāo)準(zhǔn)LSTM網(wǎng)絡(luò)模型對(duì)句子建模,最后隱藏層用作最終分類(lèi)的句子表示。

3) TD-LSTM。 文獻(xiàn)[7]提出的TD-LSTM網(wǎng)絡(luò)模型:它使用兩個(gè)LSTM網(wǎng)絡(luò)來(lái)模擬圍繞方面術(shù)語(yǔ)的前后環(huán)境,這兩個(gè)LSTM網(wǎng)絡(luò)的最后隱藏層被連接起來(lái)以預(yù)測(cè)情感極性。

4) AT-LSTM。 文獻(xiàn)[6]提出的基于注意力機(jī)制的LSTM網(wǎng)絡(luò)模型AT-LSTM:它首先通過(guò)LSTM模型對(duì)句子進(jìn)行建模,然后將LSTM網(wǎng)絡(luò)生成的隱藏向量與方面詞向量相結(jié)合生成注意力向量,最終的句子表示是隱藏層的加權(quán)和。

5) ATAE-LSTM: 文獻(xiàn)[6]在第二部分進(jìn)一步擴(kuò)展AT-LSTM得到的ATAE-LSTM網(wǎng)絡(luò)模型:它將方面詞向量附加到每一個(gè)詞向量中。

6) IAN。 文獻(xiàn)[20]提出的結(jié)合交互式注意力機(jī)制的LSTM網(wǎng)絡(luò)模型IAN:它使用兩個(gè)LSTM分別對(duì)句子和方面術(shù)語(yǔ)進(jìn)行建模,使用句子中的隱藏狀態(tài)為目標(biāo)生成注意力向量,最后基于這兩個(gè)注意力向量輸出一個(gè)句子表示和一個(gè)目標(biāo)表示用于分類(lèi)。

3.4 結(jié)果分析

3.4.1 不同模型對(duì)比實(shí)驗(yàn)結(jié)果分析

本文采用準(zhǔn)確率來(lái)評(píng)估方面情感分析模型的效果,各個(gè)模型的準(zhǔn)確率如表2所示。

從表2可以看出,本文提出的LWAOA-LSTM模型在3個(gè)不同的主題下都取得了不錯(cuò)的效果,其中在餐飲主題下進(jìn)行方面情感分析效果最好,準(zhǔn)確率達(dá)到82.1%,比IAN模型提高了4.45%,比ATAE-LSTM模型提升了6.35%,驗(yàn)證了本文提出方法的有效性。

沒(méi)有加入注意力機(jī)制的LSTM模型和TD-LSTM模型的分類(lèi)效果并不理想,在景點(diǎn)主題下的方面情感分析的準(zhǔn)確率分別達(dá)到68.5%和69.7%,而加入注意力機(jī)制的AT-LSTM模型和ATAE-LSTM準(zhǔn)確率達(dá)到71.9%和73.8%,比TD-LSTM分別提高了3.16%和5.88%。這是因?yàn)闆](méi)有加入注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)模型不能關(guān)注方面的特征信息,此類(lèi)模型認(rèn)為同一句子的不同方面有相同的情感。加入注意力機(jī)制后可以高度關(guān)注某一方面的情感特征,準(zhǔn)確判斷同一句子不同方面的情感極性。

另外,不僅加入注意力機(jī)制而且使用兩個(gè)LSTM的IAN模型以及本文提出的LWAOA-LSTM模型能夠?qū)渥雍头矫孢M(jìn)行分別建模,并且考慮到句子之間的相互聯(lián)系,在各個(gè)主題下進(jìn)行方面情感分析都取得了很好的效果,但I(xiàn)AN模型中的池化操作會(huì)忽略句子與目標(biāo)之間的詞對(duì)交互,而本文提出的模型在景點(diǎn)、住宿、餐飲三個(gè)主題下的方面情感分析與IAN模型相比分別提高了3.98%、4.81%和4.45%,說(shuō)明本文提出的模型在方面情感分析中有較好的效果。

3.4.2 位置加權(quán)的詞向量的影響

本文在處理單詞的位置信息時(shí)使用了Laplacian概率函數(shù)來(lái)為詞向量添加位置權(quán)重,與不考慮位置信息的AOA-LSTM模型及加入絕對(duì)位置信息權(quán)重的基于注意力機(jī)制的LSTM(Attention-Enabled and Location-Aware LSTM,AELA-LSTM)方面情感分析模型[24]進(jìn)行對(duì)比,結(jié)果如表3所示。從表3可以看出,LWAOA-LSTM在所有數(shù)據(jù)集上都優(yōu)于不帶有位置信息的AOA-LSTM和帶有絕對(duì)位置信息權(quán)重的AELA-LSTM,從中可以得出結(jié)論:具有位置權(quán)重的模型有利于對(duì)方面詞的情感極性進(jìn)行分類(lèi)。AELA-LSTM中雖然考慮了位置信息,但只是使用絕對(duì)位置,沒(méi)有考慮到不同方向上下文詞語(yǔ)對(duì)方面詞情感分類(lèi)的影響,而且線(xiàn)性下降位置權(quán)重不能大幅降低遠(yuǎn)離方面詞的詞語(yǔ)的權(quán)重,因此該模型的情感分類(lèi)效果不佳。

4 結(jié)語(yǔ)

在方面情感分析任務(wù)中,傳統(tǒng)的方法不能對(duì)方面信息和情感信息進(jìn)行有效判斷,并且位置信息對(duì)情感分類(lèi)結(jié)果具有很大影響,因此本文提出融合上下文詞的位置信息生成位置加權(quán)詞向量,然后利用注意力交叉注意力模塊來(lái)學(xué)習(xí)方面和句子中的重要部分,從而生成句子的最終表示來(lái)進(jìn)行方面情感判斷。與傳統(tǒng)的方法相比,本文提出的模型能有效地學(xué)習(xí)方面和句子中的詞對(duì)信息。通過(guò)在不同主題的數(shù)據(jù)集上的對(duì)比實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型相比,本文模型的準(zhǔn)確率和穩(wěn)定性都有所提高。

但本文提出的模型無(wú)法有效處理以下情況:一種是復(fù)雜的情感表達(dá);一種是不常見(jiàn)的習(xí)語(yǔ),尤其是對(duì)景點(diǎn)主題進(jìn)行方面情感分析時(shí),使用大量四字詞語(yǔ)而導(dǎo)致準(zhǔn)確率較低,因此,在未來(lái)的工作中,將探索如何改進(jìn)模型來(lái)解決此類(lèi)問(wèn)題。

參考文獻(xiàn)

[1]?RAO G, HUANG W, FENG Z, et al. LSTM with sentence representations for document-level sentiment classification [J]. Neurocomputing, 2018, 308: 49-57.

[2]?JIANG L, YU M, ZHOU M, et al. Target-dependent Twitter sentiment classification [C]// Proceedings of the 49th Meeting of the Association for Computational Linguistics. Stroudsburg, PA:Association for Computational Linguistics, 2012: 151-160.

[3]?劉全,梁斌,徐進(jìn),等. 一種用于基于方面情感分析的深度分層網(wǎng)絡(luò)模型[J]. 計(jì)算機(jī)學(xué)報(bào),2018,41(12): 2637-2652. (LIU Q, LIANG B, XU J, et al. A deep hierarchical neural network model for aspect-based sentiment analysis [J]. Chinese Journal of Computers, 2018, 41(12): 2637-2652.)

[4]??KIRITCHENKO S, ZHU X, CHERRY C, et al. NRC-Canada-2014: detecting aspects and sentiment in customer reviews [C]// Proceedings of the 8th International Workshop on Semantic Evaluation. Stroudsburg, PA: Association for Computational Linguistics, 2014: 437-442.

[5]?TANG D, QIN B, LIU T. Aspect level sentiment classification with deep memory network [C]// Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computer Linguistics, 2016: 214-224.

[6]?WANG Y, HUANG M, ZHAP L, et al. Attention-based LSTM for aspect-level sentiment classification [C]// Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2016: 606-615.

[7]?TANG D, QIN B, FENG X, et al. Effective LSTMs for target-dependent sentiment classification [C]// Proceedings of the 26th International Conference on Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics and Chinese Language Processing, 2016: 3298-3307.

[8]?胡朝舉, 梁寧. 基于深層注意力的LSTM的特定主題情感分析[J/OL]. 計(jì)算機(jī)應(yīng)用研究, 2019, 36(4): 1075-1079. (HU C J, LIANG N. Deeper attention-based LSTM for aspect sentiment analysis [J]. Application Research of Computers, 2019, 36(4): 1075-1079.)

[9]?MEDHAT W, HASSAN A, KORASHY H. Sentiment analysis algorithms and applications [J]. Ain Shams Engineering Journal, 2014, 5(4): 1093-1113.

[10] ?LIU B, BLASCH E, CHEN Y, et al. Scalable sentiment classification for big data analysis using naive Bayes classifier [C]// Proceedings of the 2013 IEEE International Conference on Big Data. Piscataway, NJ: IEEE, 2013: 99-104.

[11]?WANG S, MANNING C D. Baselines and bigrams: simple, good sentiment and topic classification [C]// Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics: Short Papers. Stroudsburg, PA: Association for Computational Linguistics, 2012: 90-94.

[12]?NEVIAROUSKAYA A, PRENDINGER H, ISHIZUKA M. SentiFul: generating a reliable lexicon for sentiment analysis [C]// Proceedings of the 3rd International Conference on Affective Computing & Intelligent Interaction & Workshops. Piscataway, NJ: IEEE, 2009: 1-6.

[13]?QIU G, LIU B, BU J, et al. Expanding domain sentiment lexicon through double propagation [C]// Proceedings of the 2009 International Joint Conference on Artificial Intelligence. San Francisco, CA: Morgan Kaufmann Publishers Inc., 2009: 1199-1204

[14]?TABOADA M, BROOKE J, TOFILOSKI M, et al. Lexicon-based methods for sentiment analysis [J]. Computational Linguistics, 2011, 37(2):267-307.

[15]?SOCHER R, PERELYGIN A, WU J Y, et al. Recursive deep models for semantic compositionality over a sentiment treebank [C]// Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2013: 1631-1642.

[16]?TANG D, QIN B, LIU T. Document modeling with gated recurrent neural network for sentiment classification [C] // Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2015: 1422-1432.

[17]?TAI K S, SOCHER R, MANNING C D. Improved semantic representations from tree-structured long short-term memory networks [C]// Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7rd International Joint Conference on Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2015: 1556-1566.

[18]?DING X, LIU B. The utility of linguistic rules in opinion mining [C]// Proceedings of the 30th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM, 2007: 811-812.

[19]?NASUKAWA T, YI J. Sentiment analysis: Capturing favorability using natural language processing [C]// Proceedings of the 2nd International Conference on Knowledge Capture. New York: ACM, 2003: 70-77.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類(lèi)器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
正镶白旗| 龙游县| 温泉县| 和静县| 惠州市| 临漳县| 东源县| 南通市| 南溪县| 和顺县| 沙洋县| 黔东| 民和| 双城市| 鲁山县| 安远县| 繁昌县| 宣城市| 密山市| 台安县| 永宁县| 渝北区| 金寨县| 天津市| 林周县| 大埔县| 嵊州市| 阳高县| 陕西省| 兖州市| 循化| 鄄城县| 象山县| 黑水县| 阳原县| 垦利县| 永兴县| 双牌县| 通江县| 黑水县| 罗源县|