国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合詞性與外部知識的方面級情感分析

2023-10-29 04:21:06谷雨影高美鳳
計(jì)算機(jī)與生活 2023年10期
關(guān)鍵詞:鄰接矩陣句法卷積

谷雨影,高美鳳+

1.江南大學(xué) 輕工過程先進(jìn)控制教育部重點(diǎn)實(shí)驗(yàn)室,江蘇 無錫 214122

2.江南大學(xué) 物聯(lián)網(wǎng)工程學(xué)院,江蘇 無錫 214122

情感分析,也稱意見挖掘,是指對一段文本的感情進(jìn)行分類。觀察微博、淘寶以及美團(tuán)等一些平臺上的評論,大部分文本都體現(xiàn)出了用戶的情緒傾向,提取并分析其中的情緒數(shù)據(jù),對其進(jìn)行情感分類,可以更好地理解用戶行為。方面級情感分析是一種重要的細(xì)粒度情感分類,它的主要目的是識別句子中不同方面詞的情緒極性(積極、中性和消極)。例如,在“The battery is durable but the screen is small.”中,句子體現(xiàn)了評論者對商品兩方面的態(tài)度傾向,對“battery”的積極和“screen”的消極。細(xì)粒度的情感分析可以捕捉到與不同方面詞相關(guān)的意見詞,因此,方面級情感分析的研究具有深遠(yuǎn)的應(yīng)用價(jià)值。

早期的方面級情感分析研究方法基于情感詞典和傳統(tǒng)機(jī)器學(xué)習(xí)進(jìn)行,Malouf等人[1]應(yīng)用情感字典和支持向量機(jī)(support vector machine,SVM)進(jìn)行情感分類。但是這些方法需要人工制定分類規(guī)則,并且需要投入高額的人工成本,得到的模型不僅效果和泛化能力不理想,而且隨著網(wǎng)絡(luò)時(shí)代的發(fā)展,已經(jīng)不能滿足情感分類任務(wù)高標(biāo)準(zhǔn)的要求。因此近年來,方面級情感分析的研究方法轉(zhuǎn)向了深度學(xué)習(xí)模型,Kim[2]使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)模型捕捉文本的局部相關(guān)性;基于循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)的模型可以捕獲序列之間的關(guān)系;Mnih等人[3]將注意力機(jī)制用在圖像分類任務(wù)中,使結(jié)合了注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)模型成為研究的熱點(diǎn)。隨后,Bahdanau等人[4]將注意力機(jī)制和RNN 結(jié)合,在自然語言處理領(lǐng)域內(nèi)掀起了注意力機(jī)制和神經(jīng)網(wǎng)絡(luò)結(jié)合應(yīng)用的熱潮。Zhou 等人[5]結(jié)合句子層次的注意力來突破現(xiàn)有模型對局部特征和遠(yuǎn)距離依賴特征提取能力的局限性。Lin等人[6]將語義信息引入深度記憶網(wǎng)絡(luò),并將方面詞與上下文之間的距離信息融入注意力機(jī)制進(jìn)行情感分類。Fan等 人[7]利 用BiLSTM(bidirectional long short-term memory)對語義信息進(jìn)行建模,設(shè)計(jì)了一種多粒度注意力機(jī)制,以細(xì)粒度的方式學(xué)習(xí)方面詞和上下文之間的關(guān)系。Wu等人[8]使用殘余注意力機(jī)制解決了一般注意力機(jī)制容易丟失原始信息的問題,來更好地捕獲上下文面向方面術(shù)語的語義信息。對于一個句子,RNN模型對方面詞上下文的關(guān)注度不高,注意力機(jī)制可以使神經(jīng)網(wǎng)絡(luò)模型更加關(guān)注上下文中的情感信息,忽略與方面詞無關(guān)的噪聲詞,從而提高模型分類的性能。然而,在需要捕捉復(fù)雜語句中的情感信息時(shí),這些模型的表現(xiàn)還具有改進(jìn)潛力。

外部知識[9-10]通常被用作在情感分析任務(wù)中增強(qiáng)情感特征表示的來源,Ren等人[11]利用情感詞典來捕獲句子中的情緒信息來計(jì)算注意力權(quán)重。Valle-Cruz等人[12]驗(yàn)證與其他情感詞典對比,SenticNet能夠更好地捕捉詞語之間的相關(guān)性。SenticNet[13]是用于意見挖掘和情感分析的公開資源,它為每個概念提供了情感值。Ma等人[14]將常識知識融入LSTM(long shortterm memory)模型,通過利用通用知識提取目標(biāo)級和句子級的情感特征,在兩個公開的數(shù)據(jù)集上表現(xiàn)出優(yōu)秀的性能。然而,在包含多個方面詞的句子中,由于它們不能充分捕捉上下文詞與句子中各個方面詞之間的句法依賴關(guān)系,這些模型的應(yīng)用仍然有限。

句法依賴分析可將長距離的方面詞與意見詞通過句法函數(shù)相關(guān)聯(lián),從而加強(qiáng)詞語之間的聯(lián)系,而為了利用依賴關(guān)系圖信息,圖卷積神經(jīng)網(wǎng)絡(luò)(graph convolutional network,GCN)[15]被應(yīng)用來從依賴樹中學(xué)習(xí)句子的句法特征表示。Zhang 等人[16]在句子依賴樹的基礎(chǔ)上提出了圖卷積網(wǎng)絡(luò)模型,充分利用了上下文的句法信息和單詞間的依賴關(guān)系。Wang等人[17]通過依賴句法分析文本的自然語言語義特征,以此來融合方面詞和整體句子。Yu等人[18]提出多權(quán)重圖卷積網(wǎng)絡(luò)模型來避免注意力機(jī)制引起的不準(zhǔn)確權(quán)重,上下文詞語與最終權(quán)重的結(jié)合突出顯示了方面詞,并有效保留了整體語義的有用信息。Xu 等人[19]使用異構(gòu)圖定義句子和方面節(jié)點(diǎn),并提出窗口機(jī)制和位置機(jī)制來分別學(xué)習(xí)句子和方面表達(dá)。Zhao等人[20]使用兩個聚合器捕獲遠(yuǎn)距離依賴的特征,有效地提取上下文和方面序列的信息。然而,大部分研究人員更關(guān)注于深度神經(jīng)網(wǎng)絡(luò)的改進(jìn)[21-22],沒有專注于依賴關(guān)系圖的構(gòu)建,從而忽略了其他細(xì)粒度信息(例如詞性信息和位置信息)和常識性知識信息,并且使基于深度學(xué)習(xí)的方面級情感分析模型越發(fā)復(fù)雜,參數(shù)過多的情況下模型訓(xùn)練更易引發(fā)過擬合。

針對上述問題,本文提出了一種多融合簡化圖卷積神經(jīng)網(wǎng)絡(luò)模型(multi-fusion simplifying graph convolutional network,MFSGC)。模型利用詞性進(jìn)行信息篩選,對句法依賴樹進(jìn)行剪枝處理,使模型更關(guān)注方面詞與意見詞,同時(shí)運(yùn)用情感詞典來增強(qiáng)情感特征表示,它能夠充分利用句法依存信息,從而提高分類效果。并使用簡化圖卷積網(wǎng)絡(luò)(simplifying graph convolutional network,SGC)[23],提高基于圖卷積的方面級情感分析模型性能。本文貢獻(xiàn)如下:

(1)提出多融合鄰接矩陣算法,使用情感詞典增強(qiáng)情感詞的作用,并利用詞性對句法依賴樹進(jìn)行剪枝處理,旨在提高對句法依賴樹信息的利用率。

(2)將簡化圖卷積網(wǎng)絡(luò)用于方面級情感分析任務(wù)中,通過消除GCN層間的非線性來使網(wǎng)絡(luò)更高效。

(3)對五個公開數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn),結(jié)果證明了本文模型的性能。

1 MFSGC模型

模型如圖1所示,由詞嵌入層、語義提取層、多融合鄰接矩陣算法層、圖卷積網(wǎng)絡(luò)層、掩碼機(jī)制層、注意力機(jī)制層和最終的情感分類層組成。在本文模型中,使用s={w1,w2,…,wτ,…,wτ+m,…,wn-1,wn}表示長度為n的輸入句子,即每個句子由一系列單詞wi組成,其中{w1,w2,…,wτ}和{wτ+m+1,…,wn-1,wn}分別為句子中的上下文詞,a={wτ+1,wτ+2,…,wτ+m}為給定句子中長度為m的方面詞。

1.1 詞嵌入層

對于給定的包含n個單詞的句子s,首先將每個單詞映射到一個低維向量空間,本文采用Glove預(yù)訓(xùn)練詞典獲得詞嵌入矩陣。對于每一個輸入單詞wi,均由一個d維向量vi表示,詞向量在預(yù)訓(xùn)練詞典中查找方式為:

通過式(1)得到每個單詞對應(yīng)的詞向量vi,嵌入完成后的句子表示為V={v1,v2,…,vτ,…,vτ+m,…,vn-1,vn}。

1.2 語義提取層

循環(huán)神經(jīng)網(wǎng)絡(luò)已經(jīng)成功應(yīng)用于自然語言處理領(lǐng)域內(nèi),然而,標(biāo)準(zhǔn)的RNN經(jīng)常面臨梯度消失和梯度爆炸的問題。LSTM 是一種特殊的RNN,在每個時(shí)間步長上通過三種門控機(jī)制調(diào)整細(xì)胞狀態(tài),更好地解決了長距離依賴性的問題。對于文本情感分類問題,序列后值和序列前值一樣會影響分類結(jié)果,本模型采用BiLSTM 構(gòu)成語義提取層。BiLSTM 可以建立正向和反向的上下文依賴關(guān)系,與單向LSTM 相比,它可以同時(shí)通過前向傳播算法和后向傳播算法來學(xué)習(xí)更多的上下文信息。

1.3 多融合鄰接矩陣

大部分基于圖卷積網(wǎng)絡(luò)的方面級情感分析對句法依賴樹上的信息利用較為低效,為充分利用句法依賴樹中包含的情感信息,受文獻(xiàn)[24]的啟發(fā),本文提出多融合鄰接矩陣算法,使用情感詞典增強(qiáng)句子中的情感詞,參照Xiao 等人[25]的方法通過手動和模型選擇構(gòu)建無效詞性組合來對原始依賴樹進(jìn)行剪枝處理,去除與方面詞無關(guān)的文本帶來的噪聲,并加強(qiáng)方面詞與情感詞間的依賴性,使模型更關(guān)注于與方面詞相關(guān)的意見詞。多融合鄰接矩陣的構(gòu)建過程如圖2 所示:首先,對于每一個輸入句子,對其分詞、提取詞性和方面詞;然后,使用SenticNet詞典賦予單詞情感分?jǐn)?shù)以增強(qiáng)文本情感特征;最后,剪掉詞性在無效詞性列表中文本的依賴關(guān)系。

圖2 多融合鄰接矩陣流程圖Fig.2 Flowchart of multi-fusion adjacency matrix

1.3.1 情感詞典

由于SenticNet 能很好地捕捉詞語之間的相關(guān)性,本文選擇它來增強(qiáng)文本情感特征。SenticNet 可以對句子中的每個詞語進(jìn)行分析,計(jì)算它們的情感分?jǐn)?shù),其中sn.polarity_value(wi)∈[-1,1],對于積極的文本數(shù)據(jù),其情感分?jǐn)?shù)為正,而消極的文本數(shù)據(jù),其情感分?jǐn)?shù)為負(fù)值,表1列舉了幾個文本詞及其情感分?jǐn)?shù)。

表1 文本情感分?jǐn)?shù)示例Table 1 Example of text emotional score

參照文獻(xiàn)[24]的方法,將具有依賴關(guān)系的詞的情感分?jǐn)?shù)相加,增強(qiáng)文本之間的情感特征表示,使模型更關(guān)注情感詞,可以充分利用上下文單詞間的潛在情感依賴性。運(yùn)用SenticNet得到兩個單詞間的情感依賴強(qiáng)度Sij,為:

其中,wi、wj表示輸入句子中的單詞文本,sn.polarity_value(wi)和sn.polarity_value(wj)為SenticNet 計(jì)算得到的單詞情感分?jǐn)?shù)。

1.3.2 剪枝句法依賴樹

句子經(jīng)過解析得到的句法依賴關(guān)系圖中通常包含一些不必要的依賴關(guān)系,例如句子“But the staff was so horrible to us”的關(guān)系圖為圖3(a),圖中存在文本“the”和“us”的依賴關(guān)系,但其不包含情感信息,對這些冗余的依賴關(guān)系進(jìn)行剪枝處理可使模型更關(guān)注意見詞。參照文獻(xiàn)[25]的方法,提取得到輸入文本的詞性序列,結(jié)合語言學(xué)知識分析數(shù)據(jù)集文本,發(fā)現(xiàn)帶有情感色彩的文本詞性集中在名詞、形容詞、副詞和動詞上,先將其他種類的詞性視為無效詞性,在生成鄰接矩陣過程中刪除其中某一詞性單詞后,若情感分類準(zhǔn)確率得到了提高,就將此詞性添加到列表B中,并在后續(xù)處理中剪掉此詞性文本的所有句法關(guān)系,即Pij=0。在上述句子中剪掉冗余的依賴關(guān)系后,得到句法依賴關(guān)系圖3(b),在剪枝后的關(guān)系圖中存在更少的依賴關(guān)系,一定程度上可以消除無效詞性文本帶來的噪音,對比鄰接矩陣表2 和表3 可知,剪枝后的鄰接矩陣更為稀疏,可以使模型更關(guān)注與方面詞相關(guān)的意見詞,從而提高模型的分類性能。圖3中,CC(coordinating conjunction)表示連接詞;DT(determiner)表示限定詞;NN(noun,singular or mass)表示常用名詞單數(shù)形式;VBD(verb,past tense)表示動詞過去式;RB(adverb)表示副詞;JJ(adjective)表示形容詞或序數(shù)詞;IN(preposition or subordinating conjunction)表示介詞或從屬連詞;PRP(personal pronoun)表示人稱代詞;nsubj(nominal subject)表示名詞性主語;advmod(adverbial modifier)表示狀語修飾語;acomp(adjectival complement)表示動詞的形容詞補(bǔ)語;prep(prepositional modifier)表示介詞修飾;pobj(object of a preposition)表示介詞的賓語。

表2 原始鄰接矩陣Table 2 Primitive adjacency matrix

表3 剪枝后鄰接矩陣Table 3 Adjacency matrix after pruning

圖3 句法依賴樹示例Fig.3 Syntax dependency tree example

1.3.3 多融合鄰接矩陣

對輸入句子解析得到原始句法依賴樹,若單詞間存在依賴關(guān)系,則Rij=1,否則Rij=0。為了增強(qiáng)上下文詞和方面詞間的情感依賴關(guān)系,若依賴關(guān)系中雙方分別為情感詞和方面詞,則令Cij=1,否則為0。最終句子的鄰接矩陣中元素Aij的計(jì)算方式為:

其中,Rij為基于原始句法圖的鄰接矩陣元素,Sij為經(jīng)過情感詞典加強(qiáng)后的情感分?jǐn)?shù)。Pij為剪枝后的句法依賴樹得到的鄰接矩陣元素。最后,向模型加入自循環(huán)約束[16],另每個節(jié)點(diǎn)都有指向自身的連接,即鄰接矩陣主對角線上的元素為非0值。

1.4 基于多融合鄰接矩陣算法的SGC

GCN 的靈感主要來自深度學(xué)習(xí)方法,因此可能會繼承不必要的復(fù)雜度和冗余計(jì)算,本文運(yùn)用Felix等人[23]的SGC對基于圖卷積的方面級情感分類進(jìn)行改進(jìn)。SGC通過反復(fù)消除GCN層之間的非線性并將得到的函數(shù)折疊成一個線性變換來減少GCN的額外復(fù)雜度,減少計(jì)算量的同時(shí)更高效。為增強(qiáng)與方面詞相近的上下文詞的重要性,在輸入SGC層前,對文本進(jìn)行位置編碼。

句子“sometimes I get good food and ok service”中,方面詞為“food”,另外可以觀察得到“good”包含的信息對預(yù)測方面詞“food”的情感極性更重要,因此使用位置權(quán)重層,第i個詞的位置權(quán)重qi的計(jì)算方式為:

其中,τ+1 和τ+m分別為方面詞的開始位置和結(jié)束位置,對語義提取層得到的隱藏狀態(tài)向量進(jìn)行權(quán)重分配,為:

其中,ht為語義提取層得到的單詞隱藏狀態(tài)向量。

依賴關(guān)系樹轉(zhuǎn)換為鄰接矩陣圖,其節(jié)點(diǎn)表示給定句子中的單詞,將圖輸入到SGC層中,以學(xué)習(xí)單詞之間的依賴關(guān)系,得到第i個節(jié)點(diǎn)的第l層SGC的輸出為:

1.5 掩碼機(jī)制層

為突出方面詞的特征,對圖卷積網(wǎng)絡(luò)層的輸出進(jìn)行遮掩,屏蔽非方面詞,并保持方面詞的向量不變[16]。掩碼權(quán)重mi計(jì)算方式為:

掩碼機(jī)制層的最終輸出HL-MASK為:

1.6 注意力機(jī)制層

運(yùn)用基于檢索的注意力機(jī)制,從給定句子的隱藏狀態(tài)向量中檢索與方面詞情感極性相關(guān)的單詞[16],而從改進(jìn)句法依賴樹構(gòu)建的圖可以得出句子中單詞的情感依賴信息,按照每個上下文單詞的重要程度分配權(quán)重。注意力權(quán)重計(jì)算方式為:

其中,αt為得到的注意力權(quán)重,ht為上文中經(jīng)過BiLSTM處理后得到的詞向量,最終的帶權(quán)特征向量r為:

1.7 情感分類層

將得到的表示輸入到一個全連接層,通過softmax分類器將向量映射到極性決策空間上進(jìn)行分類,如下:

其中,Wp和bp是可訓(xùn)練的權(quán)重矩陣和偏置項(xiàng)。

2 實(shí)驗(yàn)

2.1 實(shí)驗(yàn)數(shù)據(jù)

為了驗(yàn)證模型有效性,本文使用Li等人[26]整理的Twitter短文本評論數(shù)據(jù)集,以及由SemEval官方發(fā)布的ASC 基準(zhǔn)數(shù)據(jù)集,包 括SemEval-2014 Task 4[27]、SemEval-2015 Task 12[28]和SemEval-2016 Task 5[29]中的數(shù)據(jù)集。其中,使用SemEval-2014 中的Restaurant14 和Laptop14 數(shù)據(jù)集,SemEval-2015 中的Restaurant15數(shù)據(jù)集,SemEval-2016中的Restaurant16數(shù)據(jù)集。每個數(shù)據(jù)集中都包含一個訓(xùn)練集和測試集,每個數(shù)據(jù)都是一個句子,包含評論文本、方面詞、與方面詞對應(yīng)的情感標(biāo)簽以及方面詞的起始位置。標(biāo)簽包含積極、中性和消極的情感,訓(xùn)練集和測試集以及標(biāo)簽分布見表4。

表4 數(shù)據(jù)集Table 4 Dataset

2.2 實(shí)驗(yàn)環(huán)境和參數(shù)配置

本文實(shí)驗(yàn)使用Windows 10 64 位操作系統(tǒng)以及Intel Core i5-9400@2.90 GHz CPU。在實(shí)驗(yàn)中,使用兩種詞嵌入方法,嵌入維度為300 的預(yù)訓(xùn)練Glove 詞向量和嵌入維度768的Bert預(yù)訓(xùn)練模型,參數(shù)設(shè)置如下,學(xué)習(xí)率設(shè)置為0.001,使用adam 優(yōu)化器用于優(yōu)化訓(xùn)練參數(shù),采用L2 正則化,正則化項(xiàng)系數(shù)設(shè)置為0.000 01,防止網(wǎng)絡(luò)過擬合以及加快網(wǎng)絡(luò)收斂,批訓(xùn)練樣本設(shè)置為32。此外,本文模型除MFSGC-Bert外,均使用Glove詞向量進(jìn)行文本表示。

2.3 損失函數(shù)

本文使用交叉熵?fù)p失函數(shù)對模型的參數(shù)進(jìn)行優(yōu)化和更新,如式(14)所示:

其中,λ是L2正則化的系數(shù);C為情感極性標(biāo)簽的數(shù)量,為3;D代表訓(xùn)練樣本的數(shù)量;y為模型預(yù)測的極性類別;代表方面詞真實(shí)的極性類別。

2.4 對比模型

SVM[30]:以經(jīng)典的支持向量機(jī)為基礎(chǔ)建立模型,將人工構(gòu)造的特征和外部情感詞典融合進(jìn)行分類。

LSTM[31]:以長短時(shí)記憶網(wǎng)絡(luò)為基礎(chǔ)建立模型用于方面級情感分類。

MemNet[32]:引入深度記憶網(wǎng)絡(luò),在詞嵌入上使用多個注意力層來構(gòu)建更高層次的語義信息。

IAN(interactive attention networks)[33]:使用兩個LSTM分別對方面詞和上下文建模,交互注意機(jī)制學(xué)習(xí)上下文詞與方面詞間的聯(lián)系。

AEN(attentional encoder network)[34]:采用基于注意的編碼建立目標(biāo)和上下文詞之間的模型,在損失函數(shù)中加入標(biāo)簽平滑正則化項(xiàng)來解決標(biāo)簽不可靠性問題。

TranCaps[35]:使用轉(zhuǎn)移膠囊網(wǎng)絡(luò)將外部文檔級情感信息融入到方面級情感分類中。

AOA(attention-over-attention)[36]:學(xué)習(xí)方面詞與上下文的隱藏信息,并通過注意力機(jī)制關(guān)注句子中的重要部分。

ASGCN(aspect-specific graph convolutional networks)[16]:在句子依賴樹上運(yùn)用圖卷積網(wǎng)絡(luò),充分利用了句子的語法信息和單詞依存關(guān)系。

CDT(convolution over a dependency tree)[37]:將句子的依賴關(guān)系樹與圖神經(jīng)網(wǎng)絡(luò)結(jié)合,學(xué)習(xí)方面特征表示。

TD-GAT(target-dependent graph attention network)[38]:使用多層圖注意網(wǎng)絡(luò)將情感特征從重要的鄰近詞傳遞到方面目標(biāo)詞。

AEGCN(attention-enhanced graph convolutional network)[21]:引入多頭自我關(guān)注捕捉上下文語義信息,使用多頭交互注意力更好地結(jié)合語義和句法信息。

MHAGCN(multi-head attention mechanism and a graph convolutional network)[22]:設(shè)計(jì)分層多頭注意力機(jī)制,結(jié)合語義信息實(shí)現(xiàn)方面詞與上下文之間的交互。

2.5 實(shí)驗(yàn)結(jié)果與分析

如表5所示,本文提出的基于多融合鄰接矩陣的圖卷積神經(jīng)網(wǎng)絡(luò)模型MFSGC在5個數(shù)據(jù)集上均取得了優(yōu)秀的情感分類效果,與直接運(yùn)用依賴樹中信息的ASGCN和CDT模型相比,所提出的模型在數(shù)據(jù)集中都取得了更高的準(zhǔn)確率。在Twitter 數(shù)據(jù)集上,本文模型提升并不明顯,仔細(xì)對比這5 個數(shù)據(jù)集,可以發(fā)現(xiàn)Twitter上的評論更加口語化,句法信息較弱,而MFSGC 增強(qiáng)了情感詞信息,并修剪冗余的句法依賴樹,這也使模型一定程度上更關(guān)注句法信息,因此,相較于其他數(shù)據(jù)集,本文模型在Twitter 上的改善不是很突出。此外,本文實(shí)驗(yàn)還采用了Bert預(yù)訓(xùn)練模型進(jìn)行文本表示,MFSGC-Bert 在5 個數(shù)據(jù)集上達(dá)到了最佳效果,主要是因?yàn)锽ert模型解決了Glove模型的一詞多義問題。雖然使用Bert 預(yù)訓(xùn)練模型取得了更明顯的提升效果,但其訓(xùn)練耗時(shí)長,且網(wǎng)絡(luò)參數(shù)占用大量內(nèi)存,預(yù)測較慢。

表5 實(shí)驗(yàn)對比結(jié)果Table 5 Experimental comparison results 單位:%

2.6 消融實(shí)驗(yàn)

2.6.1 多融合鄰接矩陣消融實(shí)驗(yàn)

本文設(shè)計(jì)移除了多融合鄰接矩陣算法的模型(spacy-model)與應(yīng)用了多融合鄰接矩陣算法的模型(MF-model)對比,來驗(yàn)證多融合鄰接矩陣算法對分類的影響。在對比實(shí)驗(yàn)中增加只修剪了句法依賴樹的模型(pos-model)和應(yīng)用情感詞典與spacy 句法融合的模型(sn-model),來分別驗(yàn)證這兩部分對分類的影響。結(jié)果如圖4、圖5 所示,可以明顯看出,修剪后的句法依賴樹和增強(qiáng)情感特征都有益于模型進(jìn)行情感分析,多融合鄰接矩陣算法在5個數(shù)據(jù)集上的分類準(zhǔn)確率也都有明顯的提高,并且rest15數(shù)據(jù)集上的F1有大幅提高,證明經(jīng)過多融合鄰接矩陣算法得到的鄰接矩陣可以改善模型性能。

圖4 多融合對Acc 的影響Fig.4 Effect of multi-fusion on Acc

圖5 多融合對F1 的影響Fig.5 Effect of multi-fusion on F1

2.6.2 不同無效詞性組合分析

本文中,5個數(shù)據(jù)集的無效詞性組合如表6所示,人們評價(jià)的角度隨事物的不同而改變,在不同的背景中,一些本身并沒有感情色彩的詞放在特定的語境中可能會表現(xiàn)出情感傾向。在Twitter 平臺,WRB詞性大多數(shù)為how,包含情感信息,例如“Interesting!How to present like steve jobs”。但在餐廳和筆記本領(lǐng)域內(nèi),WRB 詞性大多數(shù)為when,例如“when we sat,we got great and fast service.”,很明顯,“when”對判斷方面詞“service”的情感極性不起作用。

表6 各個數(shù)據(jù)集的無效詞性組合Table 6 Invalid pos combination of each dataset

為更好地突出詞性的作用,使用上文中的posmodel 來對比不同的無效詞性在5 個數(shù)據(jù)集上的效果,在5 個數(shù)據(jù)集上的Acc如圖6 所示。從圖中可以明顯看出,模型只有利用數(shù)據(jù)集對應(yīng)的無效詞性組合時(shí)才能達(dá)到最優(yōu)性能,由于去掉了詞性對應(yīng)文本的句法依賴關(guān)系,而其中存在與預(yù)測方面詞極性相關(guān)的情感信息,不匹配的組合對模型性能產(chǎn)生了反效果。

圖6 不同無效詞性組合的對比Fig.6 Comparison of different invalid pos combinations

2.6.3 SGC-model與GCN-model對比

為驗(yàn)證簡化圖卷積網(wǎng)絡(luò)相對于傳統(tǒng)GCN對于模型性能的改善,設(shè)計(jì)對比實(shí)驗(yàn),應(yīng)用簡化圖卷積的模型(SGC-model)和應(yīng)用傳統(tǒng)GCN 的模型(GCNmodel),其他層和參數(shù)與表5實(shí)驗(yàn)一致。從圖7、圖8中可以看出,相較于傳統(tǒng)GCN,SGC取得了更高的準(zhǔn)確率,并且在rest15和rest16數(shù)據(jù)集上F1有大幅提高。從表7 中可以看出,在twitter 數(shù)據(jù)集上,SGC 的訓(xùn)練時(shí)間為GCN 的1/2,參數(shù)的減少降低了過擬合的情況,并減少了內(nèi)存的使用,而這可能是性能提升的原因。

圖7 SGC-model與GCN-model的Acc 對比Fig.7 Acc comparison of SGC-model and GCN-model

圖8 SGC-model與GCN-model的F1 對比Fig.8 F1 comparison of SGC-model and GCN-model

2.6.4 SGC層數(shù)分析

為驗(yàn)證SGC 層數(shù)對模型性能的影響,其他參數(shù)保持不變,將SGC層的數(shù)量從1增加到10。5個數(shù)據(jù)集上的Acc如圖9所示。從圖中可以明顯看出,SGC層數(shù)為2 時(shí),模型達(dá)到最佳性能,之后隨著網(wǎng)絡(luò)深度的增加,性能逐漸降低。由于層數(shù)增加,模型的訓(xùn)練變得困難并且更容易發(fā)生過擬合。

2.7 實(shí)例分析

為更直觀地表述本文模型的分類效果,取測試集中的實(shí)例來進(jìn)行注意力可視化分析,如圖10所示,其中,顏色的深度表示一個單詞在句子中的重要性,顏色越深越重要。實(shí)例1“great food but the service was dreadful!”中有兩個方面詞,分別為“food”和“service”,對于“food”而言,模型指向“great”判斷其極性為積極,而對于“service”,模型則指向“dreadful”判斷其極性為消極,與真實(shí)極性一致。實(shí)例2“the food really isn’t very good and the service is terrible.”中方面詞為“food”和“service”,模型判斷其極性分別為消極和消極,與真實(shí)極性一致。從圖中可以看出,當(dāng)文本中有多個方面詞時(shí),模型可以正確指向?qū)?yīng)的意見詞并給其相應(yīng)的注意力權(quán)重,從而識別方面詞的情感極性。

圖10 實(shí)例分析Fig.10 Sample analysis

3 結(jié)束語

為充分利用句法信息和減少圖卷積網(wǎng)絡(luò)的復(fù)雜度,本文將外部知識和詞性與原始句法依賴樹融合,并使用簡化圖卷積網(wǎng)絡(luò),提出了一種基于多融合鄰接矩陣的方面級情感分析模型。去除無效詞性文本,減少了句法依賴樹的冗余信息,使模型更關(guān)注于方面詞與意見詞,在句法分析時(shí)加入外部知識,增強(qiáng)了情感詞的單詞依賴性,并加強(qiáng)了方面詞與情感詞間的聯(lián)系。實(shí)驗(yàn)驗(yàn)證了本文提出的基于多融合鄰接矩陣算法的模型可以充分利用上下文和方面詞間的句法信息,簡化圖卷積網(wǎng)絡(luò)也明顯提高了分類的性能。

猜你喜歡
鄰接矩陣句法卷積
輪圖的平衡性
句法與句意(外一篇)
中華詩詞(2021年3期)2021-12-31 08:07:22
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
述謂結(jié)構(gòu)與英語句法配置
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
句法二題
中華詩詞(2018年3期)2018-08-01 06:40:40
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
詩詞聯(lián)句句法梳理
中華詩詞(2018年11期)2018-03-26 06:41:32
基于鄰接矩陣變型的K分網(wǎng)絡(luò)社團(tuán)算法
一種判定的無向圖連通性的快速Warshall算法
永寿县| 绩溪县| 上蔡县| 红安县| 缙云县| 房产| 习水县| 兴和县| 虞城县| 耿马| 孝义市| 江永县| 达尔| 泾源县| 武清区| 航空| 循化| 招远市| 湛江市| 获嘉县| 田东县| 鹤峰县| 海盐县| 肥东县| 杭锦后旗| 库尔勒市| 浦县| 宁城县| 江北区| 克山县| 道真| 张家港市| 兴业县| 措美县| 兴安盟| 荆门市| 砚山县| 大化| 韩城市| 襄樊市| 海安县|