国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于SENT改進的遠程監(jiān)督關(guān)系抽取方法

2024-09-21 00:00:00趙明劉勝全岳柳
現(xiàn)代電子技術(shù) 2024年16期
關(guān)鍵詞:逆向注意力標簽

摘" 要: 遠程監(jiān)督關(guān)系抽取可以在非人工標注條件下自動構(gòu)建數(shù)據(jù)集,而基線模型SENT可以將負訓(xùn)練思想引入到該場景進行關(guān)系抽取任務(wù)。但基線模型使用雙向長短期記憶網(wǎng)絡(luò)提取特征,主要注重長距離依賴關(guān)系的學(xué)習(xí),在關(guān)注局部上下文中的特征方面存在不足,對于局部特征捕捉不夠充分;同時基線模型在負訓(xùn)練訓(xùn)練模型時,未能重點關(guān)注與互補標簽相關(guān)的特征,對互補標簽信息的學(xué)習(xí)不足,這影響了對噪聲數(shù)據(jù)的識別能力。為了解決這些問題,文中引入卷積神經(jīng)網(wǎng)絡(luò),通過卷積核在輸入關(guān)系序列上進行卷積操作,從而捕捉到輸入關(guān)系實例中的局部信息,提高模型對于輸入數(shù)據(jù)的局部特征學(xué)習(xí)能力。針對模型對互補標簽特征未能關(guān)注的問題,引入逆向注意力機制,通過調(diào)整與互補標簽相關(guān)的隱藏單元的權(quán)重,使模型能夠有選擇性地關(guān)注與互補標簽相關(guān)的信息,從而提高模型對基于互補標簽的噪聲數(shù)據(jù)的識別性能,進一步改善模型關(guān)系抽取性能。通過NYT10數(shù)據(jù)集對所設(shè)計的方法進行了驗證,結(jié)果表明,所提方法相較于基線模型在NYT10數(shù)據(jù)集關(guān)系抽取任務(wù)中F1值提高了4.84%,有效地提高了模型遠程監(jiān)督關(guān)系的抽取能力。

關(guān)鍵詞: 遠程監(jiān)督; 關(guān)系抽取; 基線模型SENT; 負訓(xùn)練; 注意力機制; 互補標簽; 深度學(xué)習(xí)

中圖分類號: TN711?34" " " " " " " " " " " " " " "文獻標識碼: A" " " " " " " " " " " 文章編號: 1004?373X(2024)16?0051?07

Method of distantly supervised relation extraction based on improved SENT

ZHAO Ming1, LIU Shengquan2, YUE Liu1

(1. College of Software, Xinjiang University, Urumqi 830000, China; 2. College of Computer Science and Technology, Xinjiang University, Urumqi 830000, China)

Abstract: The distantly supervised relation extraction can automatically construct datasets under non manual annotation conditions. The baseline model SENT (sentence?level distant relation extraction via negative training) can introduce negative training ideas into the scene for relation extraction tasks. However, in the baseline model, BiLSTM (bi?directional long short?term memory) is used to extract features, mainly focusing on learning long?distance dependencies. There are shortcomings in focusing on features in local contexts, and local features are not captured adequately. The baseline model fails to focus on the features related to complementary labels during negative training, and the learning of complementary label information is insufficient, which affect the recognition ability of noisy data. On this basis, the convolutional neural network is introduced, and the convolutional operation is conducted on the input relation sequence by means of convolutional kernel, so as to capture local information in the input relation instance and improve the model′s local feature learn ability of the input data. In allusion to the problem that the model fails to pay attention to complementary label features, a reverse attention mechanism is introduced. By adjusting the weights of hidden units related to complementary labels, the model can selectively focus on information related to complementary labels, thereby improving the recognition performance of the model on noisy data based on complementary labels and further improving the relation extraction performance of the model. The designed method is verified by means of the NYT10 dataset, and the results show that, in comparison with the baseline model, the F1 value of the proposed method in the NYT10 dataset relation extraction task is increased by 4.84%, which can effectively improve the model′s ability of the distantly supervised relation extraction.

Keywords: distant supervision; relation extraction; baseline model SENT; negative training; attention mechanism; complementary label; deep learning

隨著信息科技的迅速進步,互聯(lián)網(wǎng)上的數(shù)據(jù)量急劇膨脹,這些數(shù)據(jù)大多以非結(jié)構(gòu)化的形式出現(xiàn),使得人們難以直接從中提取有價值的信息。在信息提取過程中,關(guān)系抽取屬于關(guān)鍵的環(huán)節(jié),指的是基于特定的文本而提取實體之間的關(guān)系。有監(jiān)督方法運用過程中依賴于大規(guī)模標注語料,然而實際中此類語料并不多,無法滿足算法的要求。人工標注語料的效率較低,成本較高,為了節(jié)省人工標注成本,緩解數(shù)據(jù)稀缺性問題,遠程監(jiān)督技術(shù)被提出,并因其能夠自動生成大規(guī)模標注數(shù)據(jù)而越來越受歡迎。遠程監(jiān)督[1]本質(zhì)上需要將文本、知識圖譜實現(xiàn)實體對齊,基于后者所提供的實體關(guān)系即可進行標注。雖然這種方式大幅減少了手工標記的需求,但也引入許多不精確的數(shù)據(jù)即噪聲數(shù)據(jù)。

在關(guān)系抽取的特征提取方面,一些研究表明局部特征對噪聲數(shù)據(jù)識別具有重要性,局部特征在關(guān)系抽取任務(wù)中發(fā)揮著關(guān)鍵作用。例如,文獻[2]提出LPD?GCN,在圖卷積神經(jīng)網(wǎng)絡(luò)中引入局部節(jié)點特征重建模塊,提高了模型的圖分類能力。在研究與互補標簽相關(guān)特征方面,文獻[3]提出了SelNLPL方法,通過使用互補標簽來訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),對正訓(xùn)練進行擴展,提高了模型的噪聲過濾性能。文獻[4]提出WCLL方法,該方法利用類不平衡互補標簽對加權(quán)經(jīng)驗風(fēng)險最小化損失進行建模,利用互補標簽來訓(xùn)練分類器,以提高模型對正負樣本的識別能力。這些研究結(jié)果表明,與互補標簽相關(guān)的特征有助于提高模型噪聲過濾性能。

基線模型SENT[5]捕捉局部特征存在不足,同時未能重點關(guān)注與互補標簽相關(guān)的特征??紤]到上述問題,本文提出一種基于SENT改進的遠程監(jiān)督關(guān)系抽取方法,主要有以下兩點貢獻。

1) 提出一種基于SENT改進的方法CRA?SENT(Convolutional Neural Network," Reverse Attention and Sentence?level Distant Relation Extraction via Negative Training)。在遠程監(jiān)督公共數(shù)據(jù)集NYT10上進行實驗,并通過對比實驗和消融實驗驗證了所提方法的有效性。

2) 通過引入CNN對輸入序列數(shù)據(jù)進行特征提取,解決了局部特征捕捉能力不足的問題。引入逆向注意力,重點關(guān)注與互補標簽相關(guān)的特征,提高模型對互補標簽特征的關(guān)注,使模型能有效區(qū)分正負樣本。

1" 相關(guān)工作

雖然在語料擴展過程中可以采用遠程監(jiān)督方法,但也容易降低標注的精度,導(dǎo)致一定的錯誤。不少學(xué)者針對上述問題進行了研究,提出了一些解決的對策。其中,文獻[6]構(gòu)建了一個對噪聲標簽具有較好抗干擾性的損失函數(shù)。通過量化分析噪聲標簽及負樣本所帶來的不良影響,并運用線性規(guī)劃技巧將這些不良影響降至最低。文獻[7]創(chuàng)新地提出一種抽取方法,該方法融合了位置特征注意力和選擇性包注意力機制。該方法能夠篩選出噪聲程度各異的包,并將它們組合成包對進行訓(xùn)練。其次,在包級別進行去噪處理,從而有效地平衡不同包對間的噪聲干擾。文獻[8]提出利用殘差和注意力機制來強化關(guān)鍵詞權(quán)重的方法,并保證語義信息的有效傳遞。這種方法不僅增強了模型對有效特征的識別能力,同時也提高了對噪聲標簽的魯棒性。除了上述研究之外,文獻[9]在設(shè)計的遠程監(jiān)督關(guān)系抽取方法中引入了知識圖譜,利用圖注意力網(wǎng)絡(luò)對異構(gòu)信息圖進行編碼,成功實現(xiàn)關(guān)系抽取。

文獻[10]將負訓(xùn)練引入到遠程監(jiān)督關(guān)系抽取中,并提出一個句子級的框架SENT。采取負訓(xùn)練的方式改善模型的識別效果,并獲得了當時最優(yōu)的噪聲識別效果,但該方法存在局部特征捕捉較弱的問題,同時在負訓(xùn)練過程中未能重點關(guān)注與互補標簽相關(guān)的特征,以及對互補標簽信息學(xué)習(xí)不足的問題。針對以上問題,本文引入CNN進行局部特征的捕捉,同時引入逆向注意力,使模型在訓(xùn)練過程中有選擇性地關(guān)注學(xué)習(xí)與互補標簽相關(guān)的特征。

2" 基于SENT改進的遠程監(jiān)督關(guān)系抽取方法

本文為解決SENT方法中存在的不足,提出了基于SENT改進的遠程監(jiān)督關(guān)系抽取方法CRA?SENT。CRA?SENT框架圖如圖1所示。

首先,原始文本數(shù)據(jù)經(jīng)過嵌入層后,將文本數(shù)據(jù)轉(zhuǎn)化為詞向量。這些詞向量表示文本中單詞的語義信息。接下來,將這些詞向量傳入卷積神經(jīng)網(wǎng)絡(luò)(CNN)和雙向長短期記憶網(wǎng)絡(luò)(BiLSTM)融合編碼層。在這個編碼層中,CNN負責捕捉詞向量中的局部特征,而BiLSTM負責捕捉詞向量中的長期依賴關(guān)系和上下文信息,以便更全面地理解文本信息,CNN和BiLSTM融合編碼層的輸出(H)包含深層次的語義信息。引入逆向注意力對H進行處理,對與互補標簽相關(guān)的特征賦予較高的權(quán)重,通過負訓(xùn)練損失函數(shù)訓(xùn)練模型,降低模型對噪聲數(shù)據(jù)的預(yù)測值,采取動態(tài)閾值自適應(yīng)函數(shù)進行過濾,并對部分存在錯誤標注的樣本進行重標記,最后對修改后的數(shù)據(jù)集進行關(guān)系抽取。

2.1" CNN和BiLSTM融合編碼層

在本文方法中,采用了一種融合CNN和BiLSTM的編碼層,用于對輸入文本序列進行特征提取和建模,如圖2所示。

首先,CNN被用于捕獲文本序列中的局部特征,通過卷積核在不同位置進行滑動以提取詞語之間的局部關(guān)系;然后,CNN提取的局部特征被輸入到BiLSTM中,BiLSTM能夠在已提取特征的基礎(chǔ)上進一步編碼全局信息,從而更好地理解整個文本序列的語義和結(jié)構(gòu)。

在提取局部特征過程中,選擇了3個長度不同、寬和h(輸入數(shù)據(jù)h由詞嵌入、位置嵌入和命名實體嵌入組合得到)一致的卷積核,并采取了滑動窗口的方式,特征圖的形式如下所示:

[xi=fwc·h′i:i+m-1+b] (1)

[x=[x1,x2,…,xn]] " " " " "(2)

式中:wc表示權(quán)重矩陣;b、m分別表示偏差項、滑動步長;f(·)表示sigmoid函數(shù);[h′i:i+m-1]表示自位置i移動m個詞向量得到的矩陣;xi表示位置i的卷積特征值。

其次,本文采用隱藏大小為256的單層BiLSTM對CNN提取的特征x進行進一步的特征提取,特征圖表示為:

[ht=LSTM(xt,ht-1,Ct-1)]" " " "(3)

[ht=LSTM(xt,ht-1,Ct-1)]" " " " (4)

[ht=[ht,ht]]" " " " " " "(5)

式中:[ht]是LSTM正向隱藏層狀態(tài)向量,其計算依賴于當前輸入[xt]、上一時刻的隱藏層狀態(tài)向量[ht-1]和上一時刻的記憶單元向量[Ct-1];[ht]是LSTM反向隱藏層狀態(tài)向量,其計算依賴于當前輸入[xt]、上一時刻的隱藏層狀態(tài)向量[ht-1]和上一時刻的記憶單元向量[Ct-1];最終的雙向隱藏狀態(tài)[ht]通過將正向和反向隱藏狀態(tài)進行拼接得到。

2.2" 逆向注意力層

在關(guān)系抽取任務(wù)中,輸入通常是包含實體對及其上下文的句子或文本。注意力機制通過計算每個單詞或子詞與實體對之間的關(guān)聯(lián)程度,自適應(yīng)地為句子的不同部分分配不同的注意力權(quán)重。這種關(guān)聯(lián)程度可以基于不同的機制來計算。為了使模型適應(yīng)負訓(xùn)練的目標,本文引入逆向注意力[11],與傳統(tǒng)注意力機制通過softmax 操作獲得權(quán)重分布,強調(diào)輸入序列中與預(yù)測相關(guān)的部分不同。本文引入的逆向注意力機制通過1-softmax操作,調(diào)整CNN和BiLSTM融合編碼層的輸出權(quán)重,有選擇性地降低與當前句子標簽相關(guān)的隱藏單元的權(quán)重,并提高與互補標簽相關(guān)的隱藏單元的權(quán)重。

逆向注意力的計算過程如下。

1) 對輸入H的查詢、鍵和值進行線性變換:

[Query=H·WQKey=H·WKValue=H·WV] (6)

式中[WQ]、[WK]、[WV]是線性變換的權(quán)重矩陣。

2) 計算注意力分數(shù):

[score=1-softmaxQuery?KeyTdk]" "(7)

式中[dk]是鍵的維度。與傳統(tǒng)的注意力不同,逆向注意力在此進行取反操作,使得模型關(guān)注與互補標簽相關(guān)的隱藏單元,從而提高該部分的權(quán)重。

3) 對得到的注意力分數(shù)與值進行加權(quán)求和,得到輸出O:

[O=score·Value]" " " "(8)

4) 將得到的輸出O與之前的H進行拼接,得到最終輸出M:

[M=O+H]" " " " "(9)

逆向注意力在特征處理過程中發(fā)揮關(guān)鍵作用。通過調(diào)整模型對輸入序列中不同部分的關(guān)注程度,逆向注意力使得模型更專注于學(xué)習(xí)與互補標簽相關(guān)的特征。這種調(diào)整對于負樣本的學(xué)習(xí)尤為重要。模型通過學(xué)習(xí)與互補標簽相關(guān)的特征,對于噪聲數(shù)據(jù)的預(yù)測更加精準,從而提高了噪聲過濾能力。

2.3" 負訓(xùn)練

最初,在圖像處理研究中出現(xiàn)了負訓(xùn)練方法,這種方法有助于改善算法的魯棒性。近些年也有學(xué)者進行研究與應(yīng)用[12?13]。對于遠程監(jiān)督關(guān)系抽取問題而言,假定有三元組(實體1、2,關(guān)系1),已知實體1、2均存在句子中,盡管不能確定關(guān)系1即為二者的真實關(guān)系,但是可以采用錯誤關(guān)系標簽進行訓(xùn)練,通過這種方式驗證其他關(guān)系對應(yīng)著更高的錯誤概率。負訓(xùn)練的損失函數(shù)形式如下:

[LNT=-n=1zYnlog(1-pn)]" " (10)

式中:[Yn]表示樣本n的初始標簽,未必是正確的;z代表樣本總數(shù)目。目標是降低互補標簽的概率,模型通過損失函數(shù)訓(xùn)練將錯誤標簽的預(yù)測概率pn逐漸降低,最終接近于0。

輸入數(shù)據(jù)為遠程監(jiān)督所得的數(shù)據(jù),這些數(shù)據(jù)中含有噪聲,在編碼層等處理完成之后即可進行負訓(xùn)練。如果降低噪聲數(shù)據(jù)被預(yù)測為原標簽的概率,那么非噪聲數(shù)據(jù)有更高的概率被預(yù)測為原標簽。

根據(jù)上述標準對閾值進行合理的設(shè)置,將預(yù)測概率中超過閾值的、未超過閾值的分別作為非噪聲、噪聲數(shù)據(jù)。另外,由于并不能保證樣本始終處于均勻的分布狀態(tài),在劃分過程中難以使用統(tǒng)一的閾值,本文設(shè)定了動態(tài)閾值。

2.4" 噪聲數(shù)據(jù)過濾

第2.3節(jié)設(shè)計的負訓(xùn)練模型可以更好地識別噪聲數(shù)據(jù),例如在圖3中,輸入樣本最初對應(yīng)類別5,然而預(yù)測其屬于5的概率只有0.1,預(yù)測屬于類別2的概率反而更高,為0.5。

針對原標簽預(yù)測概率和閾值進行比較,即可確定樣本標記的準確性。假定概率值按照一定分布:噪聲數(shù)據(jù)傾向于聚集在較低概率區(qū)域,而干凈數(shù)據(jù)則位于中到高概率區(qū)域。為更精確地評估預(yù)測概率的大小,采用動態(tài)閾值函數(shù),如式(11)所示。

[Thb=Th·Phb ," Phb=maxNb=1Phb] (11)

對于第i個實例在類別b的概率[Pib]∈(0,[Phb)],其中[Phb]是類b的最大概率,[Th]為全局閾值。該動態(tài)閾值函數(shù)會依據(jù)每個類別的收斂情況來動態(tài)調(diào)整閾值,以精確地篩選出各個關(guān)系類別的噪聲數(shù)據(jù),并確定噪聲數(shù)據(jù)過濾時的閾值大小。

2.5" 噪聲樣本重標記

通過應(yīng)用動態(tài)閾值函數(shù)進行噪聲數(shù)據(jù)的判斷,這類數(shù)據(jù)可被分為兩種情況:第一種是在已定義的關(guān)系類型內(nèi),此類數(shù)據(jù)的關(guān)系標簽是準確的,只需要重新進行標注,即可將其真正轉(zhuǎn)換為正確的數(shù)據(jù);第二種是沒有任何已知關(guān)系類型內(nèi)正確的關(guān)系標簽數(shù)據(jù)。如果噪聲數(shù)據(jù)存在正確關(guān)系類型,通過重新標注以正確的方式進行分類,可以提高數(shù)據(jù)集質(zhì)量和模型關(guān)系抽取性能。

重標記策略描述為:已知α代表動態(tài)閾值函數(shù)所確定的閾值,如果數(shù)據(jù)預(yù)測為原有標簽的概率小于α,即可認為其屬于噪聲數(shù)據(jù)。假定有重標注閾值Threlabel,對于已確認的噪聲數(shù)據(jù),預(yù)測為其他標簽的最大概率高于Threlabel,即可認為此數(shù)據(jù)具有對應(yīng)的正確標簽,因此應(yīng)將其重新標注為該最高概率所對應(yīng)的標簽;若最高概率值低于Threlabel,則認為在已定義的關(guān)系類別中不存在該數(shù)據(jù)對應(yīng)的關(guān)系,標簽標記為NA。

3" 實驗與結(jié)果分析

3.1" 數(shù)據(jù)集

在實驗中主要采用了遠程監(jiān)督關(guān)系抽取任務(wù)中廣泛使用的NYT10數(shù)據(jù)集。NYT10數(shù)據(jù)集是由NYTcorpus和Freebase遠程監(jiān)督得到,對于給定的句子和兩個做了標注的名詞,可從給定的關(guān)系清單中選出最合適的關(guān)系。NYT10數(shù)據(jù)集中一共包含52+1(包括NA)個關(guān)系,數(shù)據(jù)集中包括了10個不同的關(guān)系類別,每個類別有大約1 200個正樣本和大量的負樣本。該數(shù)據(jù)集被廣泛用于自然語言處理研究,包括關(guān)系抽取模型的開發(fā)和評估、遷移學(xué)習(xí)等領(lǐng)域的研究。NYT10數(shù)據(jù)集中部分關(guān)系樣本數(shù)量如表1所示。

3.2" 基" 線

為驗證本文提出的CRA?SENT的有效性,將其與近幾年提出的降噪方法和模型進行了對比。

PCNN+RA_BAG_ATT[14]:一種包級模型,包含包內(nèi)和包間的注意,以減輕噪聲影響。

ARNOR[15]:基于所選模式的注意力得分選擇可信實例的句子級關(guān)系抽取模型。這是句子水平上最先進的方法。

SENT[5]:在噪聲過濾過程中采用了負訓(xùn)練,即通過這種方式進行降噪的關(guān)系抽取方法。

3.3" 實驗設(shè)置

本文提出的方法采用Glove訓(xùn)練得到詞向量,使用Adam作為優(yōu)化器,具體實驗參數(shù)如表2所示。

3.4" 實驗評估標準

在實驗中,本文選取了精確率、召回率和F1分數(shù)作為評估指標,來衡量提出的關(guān)系抽取模型的性能,計算方法如式(12)~式(14)所示。精確率代表在模型識別出的全部關(guān)系中,正確識別結(jié)果所占據(jù)的比例;召回率代表在全部真實關(guān)系中,模型正確識別的關(guān)系所占據(jù)的比重大??;F1分數(shù)是上述兩個指標的調(diào)和平均數(shù),能夠綜合衡量模型的性能。

[P=TPTP+FP]" " " "(12)

[R=TPTP+FN]" " " "(13)

[F1=2PRP+R]" " " " "(14)

3.5" 實驗結(jié)果與分析

3.5.1" 對比實驗

在NYT10數(shù)據(jù)集中進行對比實驗,實驗結(jié)果如表3所示。由表3可以看出,CRA?SENT在NYT10數(shù)據(jù)集上表現(xiàn)良好。

由表3可知,所提方法相較于基線模型在NYT10數(shù)據(jù)集關(guān)系抽取任務(wù)中F1值提高4.84%。

圖4所示為各個模型的實驗結(jié)果。由圖可以看出,CRA?SENT在精確率和F1值上與基線模型相比有明顯的提升??梢苑治龅贸觯合啾扔赟ENT方法,引入CNN提高模型對局部特征的捕捉能力,以及引入逆向注意力使模型在訓(xùn)練中提高了與互補標簽相關(guān)的信息的關(guān)注,所以本文所提方法在NYT10數(shù)據(jù)集上獲得了更高的精確率和F1值。

3.5.2" 注意力實驗

為直觀地看出逆向注意力對模型的影響,進行注意力實驗。本文分別對有無注意力得到的權(quán)重進行熱力圖繪制,如圖5、圖6所示。由圖5和圖6可以看出,在加入注意力之后,模型降低了當前標簽相關(guān)特征的權(quán)重,并對互補標簽賦予較高的權(quán)重。

同時通過表5的消融實驗可以看出,逆向注意力的引入對于模型的精確率和F1值均有顯著影響,由此可以分析得到逆向注意力的加入影響了模型對于特征的學(xué)習(xí),通過逆向注意力模型將關(guān)注度放在與當前標簽相反的互補標簽的特征上,有助于提高模型對于基于互補標簽的噪聲數(shù)據(jù)識別能力,從而提高模型在遠程監(jiān)督關(guān)系抽取任務(wù)上的性能。

3.5.3" 噪聲過濾能力評估實驗

本文進行噪聲數(shù)據(jù)的過濾能力對于關(guān)系抽取性能的影響實驗,實驗結(jié)果如表4所示。表4中的-(NF和RL)表示在方法中去掉噪聲過濾和重標注方法。

通過表4實驗結(jié)果,分析得出以下結(jié)論。

1) 噪聲過濾和重標注部分對于模型關(guān)系抽取性能有較大的影響。噪聲過濾和重標注能幫助模型過濾掉錯誤標注的噪聲樣本,并能夠通過重新標注一部分樣本來提高數(shù)據(jù)集的質(zhì)量,提高模型對于正例樣本的準確性,從而提高模型關(guān)系抽取的精確率。重標注可能導(dǎo)致一些樣本標簽的改變,從而影響了召回率的表現(xiàn),但整體來說,噪聲過濾和重標注能有效地提高模型關(guān)系抽取性能。

2) 加入噪聲過濾和重標注后發(fā)現(xiàn),相較于SENT方法,提出的CRA?SENT方法關(guān)系抽取性能較好。這是由于引入了CNN和逆向注意力,導(dǎo)致模型在噪聲過濾和重標注部分能更有效地識別噪聲數(shù)據(jù)并進行重標注,提高了模型對正負樣本的識別能力,從而提高了精確率和關(guān)系抽取性能。

3.5.4" 消融實驗

為探究本文引入的卷積神經(jīng)網(wǎng)絡(luò)和逆向注意力對CRA?SENT性能的影響,在NYT10上進行消融實驗,實驗結(jié)果如表5所示。表5中,+CNN和+RATT分別表示在基線模型SENT上引入卷積神經(jīng)網(wǎng)絡(luò)和逆向注意力。

對消融實驗結(jié)果進行分析,所得結(jié)論如下。

1) +CNN。從實驗數(shù)據(jù)中可以看出,在SENT方法上引入CNN導(dǎo)致模型的精確率上升,是因為引入CNN增強了模型在捕獲輸入序列中的局部特征的能力,從而提高了模型對正樣本的識別能力。但相較于SENT方法,召回率有所下降,可能是因為模型的關(guān)注重點會偏向局部特征,導(dǎo)致在預(yù)測時會錯過一些全局上下文中的關(guān)鍵信息。而相較于SENT方法引入CNN后模型的F1值有所上升,說明了模型的總體性能有所提升。

2) +RATT。從實驗數(shù)據(jù)可以看出,在SENT方法上引入逆向注意力使得模型的精確率、召回率和F1均有所上升??梢苑治龅玫?,通過引入逆向注意力對編碼層的輸出進行處理,能使模型在訓(xùn)練中更有針對性地關(guān)注與互補標簽相關(guān)的隱藏狀態(tài),從而降低與正確標簽相關(guān)的隱藏狀態(tài)的權(quán)重,使得模型通過關(guān)注與互補標簽相關(guān)的信息,能有效識別出正負樣本。有針對性地關(guān)注與互補標簽相關(guān)的隱藏狀態(tài),從而降低與正確標簽相關(guān)的隱藏狀態(tài)的權(quán)重,使得模型通過關(guān)注與互補標簽相關(guān)的信息,能有效識別出正負樣本。

4" 結(jié)" 語

本文提出一種基于SENT改進的遠程監(jiān)督關(guān)系抽取方法,該方法能夠有效地辨識并過濾出噪聲數(shù)據(jù),增強了模型在處理遠程監(jiān)督產(chǎn)生的噪聲方面的能力,并提高了關(guān)系抽取任務(wù)的準確性。實驗結(jié)果顯示,本文方法在過濾噪聲數(shù)據(jù)方面和關(guān)系抽取任務(wù)中表現(xiàn)出了較好的效果,相對于傳統(tǒng)方法提升效果顯著。然而本文方法只是面向特定關(guān)系域范圍,后續(xù)仍然需要繼續(xù)研究用于開放域的方法。

注:本文通訊作者為劉勝全。

參考文獻

[1] 尚蘭蘭.基于遠程監(jiān)督的關(guān)系抽取研究綜述[J].河北省科學(xué)院學(xué)報,2022,39(6):1?8.

[2] LIU W, GONG M, TANG Z, et al. Locality preserving dense graph convolutional networks with graph context?aware node representations [J]. Neural networks, 2021, 143: 108?120.

[3] KIM Y, YIM J, YUN J, et al. NLNL: negative learning for noisy labels [C]// 2019 IEEE/CVF International Conference on Computer Vision (ICCV)." Seoul, South Korea: IEEE, 2019: 101?110.

[4] WEI M, ZHOU Y, LI Z, et al. Class?imbalanced complementary?label learning via weighted loss [J]. Neural networks: the official journal of the international neural network society, 2023(2): 166.

[5] MA R, GUI T, LI L, et al. SENT: sentence?level distant relation extraction via negative training [EB/OL]. [2023?08?17]. https://www.researchgate.net/.

[6] DENG L, YANG B, KANG Z, et al. A noisy label and negative sample robust loss function for DNN?based distant supervised relation extraction [J]. Neural networks, 2021(139): 358?370.

[7] WANG J S, LIU Q X. Distant supervised relation extraction with position feature attention and selective bag attention [J]. Neurocomputing, 2021(461): 552?561.

[8] ZHENG Z, LIU Y, DUN L, et al. Distant supervised relation extraction based on residual attention [J]. Frontiers of computer, 2022, 16(6): 3.

[9] 趙晉斌,王琦,馬黎雨,等.基于知識圖譜的遠程監(jiān)督關(guān)系抽取降噪方法[J].火力與指揮控制,2023,48(10):160?169.

[10] XIE C, LIANG J, LIU J, et al. Revisiting the negative data of distantly supervised relation extraction [C]// Annual Meeting of the Association for Computational Linguistics. [S.l.]: ACL, 2021: 277.

[11] LI D, TIAN Z, XUE L, et al. Enhancing content preservation in text style transfer using reverse attention and conditional layer normalization [EB/OL]. [2023?08?17]. https://www.xueshufan.com/publication/3190069702.

[12] 陳克正,鐘勇.基于實體注意力和負訓(xùn)練的遠程監(jiān)督噪聲過濾方法[J].計算機應(yīng)用,2022,42(z2):42?46.

[13] YU M, CHEN Y, ZHAO M, et al. Semantic piecewise convol?utional neural network with adaptive negative training for distantly supervised relation extraction [J]. Neurocomputing, 2023, 537: 12?21.

[14] YE Z X, LING Z H. Distant supervision relation extraction with intra?bag and inter?bag attentions [EB/OL]. [2023?04?18]. arxiv.org/pdf/1904.00143.

[15] JIA W, DAI D, XIAO X, et al. ARNOR: attention regulari?zation based noise reduction for distant supervision relation classification [C]// Meeting of the Association for Computational Linguistics. Association for Computational Linguistics. [S.l.]: ACL, 2019: 1399?1408.

猜你喜歡
逆向注意力標簽
逆向而行
讓注意力“飛”回來
無懼標簽 Alfa Romeo Giulia 200HP
車迷(2018年11期)2018-08-30 03:20:32
不害怕撕掉標簽的人,都活出了真正的漂亮
海峽姐妹(2018年3期)2018-05-09 08:21:02
“揚眼”APP:讓注意力“變現(xiàn)”
傳媒評論(2017年3期)2017-06-13 09:18:10
逆向解答
A Beautiful Way Of Looking At Things
標簽化傷害了誰
基于多進制查詢樹的多標簽識別方法
計算機工程(2015年8期)2015-07-03 12:20:27
逆向工程技術(shù)及應(yīng)用
灵石县| 民丰县| 肇源县| 木兰县| 浏阳市| 新野县| 敦化市| 乌鲁木齐县| 肃北| 淳安县| 西丰县| 桐乡市| 平湖市| 黄石市| 武鸣县| 固原市| 九龙城区| 房产| 运城市| 察哈| 遵义县| 东明县| 沁阳市| 盖州市| 石柱| 灌阳县| 延寿县| 喀喇| 赣州市| 昭苏县| 大竹县| 泰州市| 普兰县| 安溪县| 洛南县| 开化县| 砚山县| 沙田区| 天柱县| 阳东县| 天全县|