国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

S2SA-BiLSTM:面向法律糾紛智能問答系統(tǒng)的深度學(xué)習(xí)模型

2019-05-10 02:00:24彭敦陸
小型微型計算機系統(tǒng) 2019年5期
關(guān)鍵詞:時刻語義向量

涂 海,彭敦陸,陳 章,劉 叢

(上海理工大學(xué) 光電信息與計算機工程學(xué)院,上海 200093)

1 引 言

隨著市場經(jīng)濟的多樣化發(fā)展和互聯(lián)網(wǎng)飛速的發(fā)展,大到公司小到個體所面臨的法律糾紛越來越趨向復(fù)雜化、多樣化,各級法院每年處理的法律糾紛案件不計其數(shù),如何根據(jù)以往案例給出符合當前案件的最優(yōu)決策至關(guān)重要.因此通過智能的方式更好地解決法律糾紛問題日益被學(xué)術(shù)界和工業(yè)界所關(guān)注.本文結(jié)合人工智能、深度學(xué)習(xí)的方法,實現(xiàn)了一個高效、智能、便捷和精準的法律糾紛問答系統(tǒng).該系統(tǒng)根據(jù)糾紛當事人所描述的自身情況,為糾紛當事人提供過往的相似案例并給予解答,讓糾紛當事人作出理性且精確的判斷,以取得在處理海量法律糾紛問題任務(wù)中的實質(zhì)性突破,進一步智能化地幫助研究人員完成其領(lǐng)域知識之外的任務(wù).

盡管深層神經(jīng)網(wǎng)絡(luò)是非常強大的機器學(xué)習(xí)模型,具有較好的靈活性和強大的功能,但由于它只適用于那些輸入和目標可以用固定維度向量合理編碼的問題.這是一個很重要的局限,因為許多重要的問題最好用長度未知的序列來表達[1].基于此,一種基于神經(jīng)網(wǎng)絡(luò)的序列學(xué)習(xí)模型就能很好的解決這個問題.最近幾年,基于神經(jīng)網(wǎng)絡(luò)的序列學(xué)習(xí)在各種自然語言處理任務(wù)中取得了顯著的成功,包括機器翻譯、語法分析和對話系統(tǒng)等.Seq2seq本質(zhì)是一個編碼器-解碼器模型[2],其中編碼器先將輸入序列向量化,然后解碼器再將該向量化表示轉(zhuǎn)換為輸出序列.在此基礎(chǔ)上,本文將attention(注意力)機制融合到seq2seq模型中,以顯著改善法律糾紛問答的輸入和輸出序列以及各種任務(wù)的性能.最終的實驗也證明,在編碼器中采用attention機制將問題的詞向量進行權(quán)重更新,使得該模型生成的答案更加符合用戶需求.

迄今,seq2seq模型已經(jīng)廣泛應(yīng)用于問答系統(tǒng)中答案的自動生成,其中源序列是問答歷史,目標序列是響應(yīng).與機器翻譯不同的是問答響應(yīng)是具有創(chuàng)造性的,所生成答案的長度、連貫性和多樣性仍然是一項具有研究意義的任務(wù).多層的LSTM架構(gòu)可以解決一般的序列到序列的問題,其方法是通過學(xué)習(xí)將答案轉(zhuǎn)換為可變長度序列.編碼器中LSTM讀取輸入序列,每次讀取一個時間步長,從而獲得較大的維度向量表示,然后在解碼器中再用LSTM提取出向量的輸出序列.實驗證明,多層LSTM架構(gòu)在seq2seq模型中應(yīng)用于法律糾紛問答系統(tǒng)有顯著的效果.

問答模型的建模是自然語言處理和機器學(xué)習(xí)的重要任務(wù)[1],它的建立需要在問題和答案之間進行復(fù)雜的映射,通過現(xiàn)有的循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)來預(yù)測下一個序列繼而將答案返回.但由于RNN梯度易消失的缺點,所生成的答案不夠精準.為了實現(xiàn)法律糾紛問題的答案自動生成,本文提出的模型將問題和答案放入編碼系統(tǒng)一起訓(xùn)練,并在解碼器部分直接將源答案作為上一時刻的輸出輸入到下一時刻進行訓(xùn)練.用戶可以通過所提糾紛問答系統(tǒng)得到符合自身案情的最優(yōu)決策,進而來解決自身糾紛.此外,我們也能夠根據(jù)所有用戶的記錄實現(xiàn)對標準的seq2seq模型進一步優(yōu)化.論文的第五部分利用24種法律糾紛類型數(shù)據(jù)集對S2SA-BiLSTM法律糾紛問答模型進行測試與評估,該模型可以為提問者提供精準且有價值的答案.

2 相關(guān)工作

智能問答是NLP中具有重要研究意義的領(lǐng)域,盡管它是最古老的研究領(lǐng)域之一,但其應(yīng)用范圍十分廣泛,在各種各樣的任務(wù)中都有出色的表現(xiàn),例如信息檢索和實體提取.統(tǒng)計顯示,問答模型主要是基于機器學(xué)習(xí)的淺層模型.最近基于深度學(xué)習(xí)的研究主要集中在大文本語料(如維基百科)的開放領(lǐng)域問答,應(yīng)用信息檢索來選擇段落和閱讀理解來提取答案短語[3].訓(xùn)練SR-QA和標準RC模型之間的主要區(qū)別在于用于訓(xùn)練的段落,在標準的RC模型訓(xùn)練中,文本被手動選擇以保證在文本中包含和注釋真實的答案[4].為了提高特征的豐富性和可提取性,以及增強問答模型中語句之間的語義匹配精度,這些相關(guān)的模型都引入了語義知識庫和語義詞典等外部資源信息[5,6].但是以上模型都依賴于大量特征工程的支持,缺乏強大的學(xué)習(xí)能力.

根據(jù)深度學(xué)習(xí)的最新研究表明,神經(jīng)網(wǎng)絡(luò)模型對問答領(lǐng)域產(chǎn)生了積極的影響.GRU(Gated Recurrent Unit)和LSTM模型可以通過循環(huán)神經(jīng)網(wǎng)絡(luò)處理問答所需的較長文本.文獻[7]提出了一種端到端的神經(jīng)網(wǎng)絡(luò)模型,稱為神經(jīng)生成問答(GENQA),它可以基于知識庫中的事實生成簡單的仿真問題的答案,該模型建立在編碼器-解碼器框架上,用于序列到序列學(xué)習(xí),同時具備查詢知識庫的能力,并且在問答對的語料庫中進行訓(xùn)練,并且知識中包含相關(guān)的三元組-基礎(chǔ).文獻[1]使用了神經(jīng)網(wǎng)絡(luò)將序列映射到序列的模型,目前該框架已經(jīng)被應(yīng)用于神經(jīng)網(wǎng)絡(luò)機器翻譯,并且實現(xiàn)了WMT'14數(shù)據(jù)集中英文-法文和英文-德文翻譯任務(wù)的改進.最近,Yu[9]等和Lee[10]等提出基于神經(jīng)網(wǎng)絡(luò)的分塊和排名理念的模型應(yīng)用于問答.Sordoni[11]等和Shang[12]等使用循環(huán)神經(jīng)網(wǎng)絡(luò)來模擬在Twitter中聊天.

問答社區(qū)是一類比較成熟的互聯(lián)網(wǎng)應(yīng)用,國外的有Quora、StackOverflow等社區(qū).當用戶提出問題后,直接將答案交給用戶,有些使用Word Embedding加上卷積神經(jīng)網(wǎng)絡(luò)來解決這個問答問題.首先把兩個判斷語義是否等價的句子轉(zhuǎn)換為Word Embedding形式,作為整個神經(jīng)網(wǎng)絡(luò)的輸入層.然后使用兩個CNN(Convolutional Neural Networks)模型,其中CNN1通過卷積層和池化層來抽取一個句子的語義特征,CNN2抽取另外一個句子語義特征.之后將兩個CNN的池化層拼接起來作為后續(xù)神經(jīng)網(wǎng)絡(luò)的輸入.在后續(xù)結(jié)構(gòu)中,模型利用隱藏層對上述所得兩組語義特征進行非線性變換,并經(jīng)過線性層的分類輸出之后,最終得到兩個句子語義是否相同的答案返回給用戶.

針對法律糾紛問答模型,論文主要從以下幾個結(jié)構(gòu)闡述:第3部分簡要介紹seq2seq模型和LSTM網(wǎng)絡(luò)以及講解如何將多層LSTM加入seq2seq模型中;第4部分給出本文所提出的問答模型的詳細過程;第5部分采用基于法律糾紛數(shù)據(jù)集的實驗對所提模型進行有效性評估;第6部分則是全文的總結(jié)與展望.

3 問題定義和描述

論文要解決的問題就是用戶在遇到法律糾紛的時候,可以通過糾紛問答來判斷如何應(yīng)對自身情況.假設(shè)我們已知問答庫QAset=()1≤i≤n,將該問答庫放在S2SA-BiLSTM模型中訓(xùn)練,Qi是法律糾紛問答中的歷史問題,Ai是Qi問題的答案.對于用戶輸入新的問題Qnew,通過S2SA-BiLSTM生成模型會生成一些候選答案.這些答案中語義與Ai最相似的答案將作為Anew返回給用戶,這里使用的是BM25[13]來計算問題和答案的相似度.首先我們需要通過對24種糾紛類型的法律文本進行預(yù)處理從而提高算法的計算效率.在神經(jīng)網(wǎng)絡(luò)中,對于文本的數(shù)據(jù)預(yù)處理無非是將文本轉(zhuǎn)化為模型可理解的數(shù)字.在這里我們需要加入以下四種字符,主要用來字符補全,都是用在Decoder端序列中,告訴解碼器句子的起始與結(jié)束,則用來替代一些未出現(xiàn)過的詞或者低頻詞.

3.1 序列到序列問答模型

Seq2seq技術(shù)突破了傳統(tǒng)的固定大小輸入問題框架,開創(chuàng)了將經(jīng)典深度神經(jīng)網(wǎng)絡(luò)模型運用于翻譯與智能問答這一類序列型任務(wù)的先河,并被證實在機器翻譯以及人機短問答的應(yīng)用中有著不俗的表現(xiàn).Seq2seq解決問答的主要思路是通過深度神經(jīng)網(wǎng)絡(luò)模型在每個時間段不斷的去學(xué)習(xí)輸入的問題序列編碼成向量,之后根據(jù)存儲的信息向量解析成目標序列.Encoder通過學(xué)習(xí)輸入,將其編碼成一個固定大小的狀態(tài)向量c,將c作為解碼的每個時刻輸入特征,Decoder再通過對狀態(tài)向量c的學(xué)習(xí)進行輸出.Encoder-Decoder框架看作一個對知識學(xué)習(xí)與應(yīng)用的過程,早期主要做一些主題分類、情感檢測等分類任務(wù),近幾年應(yīng)用在智能問答、機器翻譯和語音識別等各種問題.論文通過Encoder-Decoder結(jié)合BiLSTM以及注意力機制學(xué)習(xí)出問題序列的語境向量c即多個隱藏節(jié)點的加權(quán)總和,在解碼器中進行training和predicting解析出答案序列.

3.2 雙向長短時記憶網(wǎng)絡(luò)問答模型

循環(huán)神經(jīng)網(wǎng)絡(luò)本質(zhì)是對一個序列信息的存儲,每一步的輸入各層都共享參數(shù),包括對前一個狀態(tài)信息的過濾和當前輸入信息的整合,但是不足之處在于存取上下文信息范圍有限.這時候雙向長短時記憶網(wǎng)絡(luò)就能很好的彌補這個不足,解決標準RNN長期距離依賴缺陷和梯度消失問題.例如對應(yīng)Q:“我想要離婚怎么辦?”,其中“離婚”這個詞通過雙向長短時記憶網(wǎng)絡(luò)能夠同時獲取到它前后詞的特征來存儲并傳遞上下文信息,使得在解碼階段生成的答案更加聚焦.LSTM通過輸入門、遺忘門和輸出門三個結(jié)構(gòu)來實現(xiàn)信息的保護和控制,在此使用多層LSTM能夠更加抽象的表達特征信息增加生成準確率并減低訓(xùn)練時間,在減少神經(jīng)元個數(shù)的同時,也讓法律糾紛問答生成的答案更加準確.糾紛問題序列為x={x1,x2,…,xT},其中xt表示t時刻糾紛問題的詞向量,t-1時刻的隱藏層輸出為ht-1,在t時刻的LSTM內(nèi)部記憶單元公式如下.

輸入門:

it=σ(Wixt+Uiht-1+bi)

(1)

遺忘門:

ft=σ(Wfxt+Ufht-1+bf)

(2)

輸出門:

ot=σ(Woxt+Uoht-1+bo)

(3)

t時刻內(nèi)部狀態(tài):

(4)

cell state:

(5)

t時刻輸出:

ht=ot⊙tanh(ct)

(6)

其中σ是sigmoid函數(shù),W和U為參數(shù)矩陣,⊙代表逐元素相乘.輸入門可以確定輸入向量xt如何改變記憶單元的狀態(tài),輸出門可以允許記憶單元對輸出有影響.最后,忘記門允許記憶單元記住或忘記其先前的狀態(tài).由于單向的LSTM只能獲取當前詞之前詞的特征,實驗證明雙向的LSTM比單向的LSTM效果更佳.上文的特征信息由正向LSTM獲取,下文特征信息由反向LSTM獲取,每一步的輸出是兩個方向輸出向量的連接,這樣相對于單向LSTM來說能夠捕獲更多的特征信息使得法律糾紛問答中的問題和答案更加有效.

3.3 注意力機制問答混合

在一些現(xiàn)有的神經(jīng)網(wǎng)絡(luò)問答模型中,問題和答案的詞向量所占權(quán)重其實都是相等的,沒有考慮到一些具有關(guān)鍵特征的詞語在問答模型中對語義匹配的重要性.而且在一般的問答系統(tǒng)中問題和答案存在很多無關(guān)緊要的詞,存在的噪音使得問答的準確度降低.而加入注意力機制的混合深度學(xué)習(xí)模型在產(chǎn)生輸出的時候能夠更加關(guān)注問題序列中攜帶的信息,所以論文中引入注意力機制來解決這種冗余所帶來的問題.通過動態(tài)調(diào)整的方法來回答問題中更有用的信息部分,定義權(quán)值的大小來表示語義的重要性,權(quán)值越大,語義越為重要,反之亦然,譬如下面這個問答匹配對:

Q:一方為無民事行為能力人的,哪些人能為無民事行為能力人一方提起離婚訴訟?

A:當事人為無民事行為能力人的,其法定監(jiān)護人作為法定代理人可以為無民事行為能力人提起離婚訴訟.

根據(jù)這個問題去匹配候選答案時,問題中的“無民事行為能力”和“離婚訴訟”這些詞語為用戶關(guān)注的焦點,而“法定監(jiān)護人”和“法定代理人”這些詞語的本身與問題的描述表現(xiàn)出更為共現(xiàn)的關(guān)系,所以論文在S2SA-BiLSTM模型中引入注意力機制以突顯這些共現(xiàn)詞語的重要性.

4 問答模型

4.1 基本模型

上一部分內(nèi)容對法律糾紛的問題定義進行了描述,將神經(jīng)網(wǎng)絡(luò)的深度進行了拓展,在第一層BiLSTM基礎(chǔ)上再疊加一層BiLSTM,就是在t時刻把每個輸入對應(yīng)BiLSTM層的輸出作為下一層BiLSTM神經(jīng)網(wǎng)絡(luò)相應(yīng)節(jié)點的輸入.整個法律糾紛問答模型是建立在注意力機制和seq2seq架構(gòu)之上的[14],在Encoder和Decoder端分別使用了兩層的Bi-LSTM,并且加了一個注意力模型.當用戶輸入法律糾紛問題時,系統(tǒng)將為問題中的各單詞分配不同權(quán)重來突出法律糾紛問題的重點,以確保用戶能夠得到合理的解決糾紛的答案,問答模型如圖1所示.圖1中的狀態(tài)向量c是Encoder輸出的最終狀態(tài),作為Decoder的初始狀態(tài).對于用戶輸入的法律糾紛問題可以用Q來表示,最終返回給用戶的答案用A表示,Q和A由各自的單詞序列構(gòu)成Q=(q1,q2,…,qn)和A=(a1,a2,…,an),在Encoder端對Q進行編碼,將輸入句子通過非線性變換轉(zhuǎn)化為中間語義c=φ(q1,q2,…,qn).通過糾紛問題序列Q表示的狀態(tài)向量c和生成的前一時刻的信息a1,a2,…,ai-1

圖1 seq2seq問答模型Fig.1 Seq2seq Q&A model

來生成t時刻答案序列at.編碼和解碼之間最大的局限性是一個固定長度的語義向量c,一是語義向量無法表示整個序列的信息;二是先輸入的內(nèi)容攜帶的信息會被后面輸入的信息稀釋掉,所以在編碼階段引入注意力機制,可以很好的避免這個問題.在訓(xùn)練過程中,解碼器沒有把每個時刻的預(yù)測輸出作為下一時刻的輸入,下一時刻的輸入直接用目標數(shù)據(jù),這樣能保證生成的答案更加[16].

4.2 法律糾紛問答編碼

Encoder算法如圖2所示,最終輸出結(jié)果為每個時刻隱藏層狀態(tài)h1,h2,…,hT.前一時刻的隱藏層狀態(tài)為si-1即位置i-1處輸出的隱藏狀態(tài),由encoder所有時刻的輸出ht結(jié)合si-1產(chǎn)生能量e1,e2,…,eT是注意力機制比較關(guān)鍵的過程.能量eT就是用戶輸入法律糾紛問題的詞qt對即將生成答案的詞at的影響力.針對此時每個輸入詞能量的大小,這時需要一個對齊模型就可以知道應(yīng)該使用哪個詞與當前的at進行對齊.

(7)

算法1.問答編碼算法

輸入:預(yù)處理后問答數(shù)據(jù)向量S

輸出:帶有上下文信息的狀態(tài)向量c

圖2 問答糾紛編碼算法Fig.2 Q&A dispute decoder algorithm

在Encoder中引入注意力機制是希望得到一個context向量,所以依賴于h1,h2,…,hT用加權(quán)平均的方法將它們?nèi)诤显谝黄?為了不使context向量縮放若干倍,不能直接將e作為權(quán)值,所以需要將et轉(zhuǎn)換成概率∝t使得它們的和為1,同時可以用來表示問題序列中每個詞與候選答案序列中每個詞的匹配程度.

(8)

使用softmax函數(shù)求得概率如下:

(9)

ct是h1,h2,…,hT的線性組合,在得到輸入序列每一個時刻的取值∝t后將其與各時刻的輸出ht加權(quán)求和,即得到了當前時刻context向量ct,公式如下:

(10)

4.3 法律糾紛問答解碼

Decoder算法如圖3所示,答案生成如圖4所示,Decoder與Encoder的交互在于context向量ci,ci包含了encoder部分更多的信息然后結(jié)合詞向量和前一時刻隱藏層狀態(tài)通過

算法2.問答解碼算法

輸入:狀態(tài)向量c,targetdataT,

輸出:A*

圖3 問答糾紛解碼算法Fig.3 Q&A dispute decoder algorithm

LSTM單元生成下一時刻的hidden_state,decoder在時刻i的hidden_state表示為si,pre_hidden_state表示為si-1.雖然經(jīng)過LSTM生成的hidden_state已經(jīng)包含了所要生成糾紛問答詞的信息,但是要想知道生成具體的詞,還需要計算目標語言中每個詞的條件概率,在輸出結(jié)果后將目標數(shù)據(jù)再輸入下一階段.si的維度可以認為是目標語言詞典的大小,使用softmax算出每個詞的概率,公式如下,

圖4 S2SA-BiLSTM框架Fig.4 S2SA-BiLSTM framework

s(ωi)=Wωi[yi-1;si-1;ci]+bωi

(11)

(12)

與此同時通過計算困惑度(Perplexity)的值來判斷候選答案是否符合語言規(guī)則和語句是否通順,公式如下:

(13)

模型目標函數(shù)定義為:

(14)

A*代表模型生成的候選答案,Ai表示候選答案中的詞,R(Ai,Atarget)是詞與目標答案的相關(guān)度,Wi是詞的權(quán)重.

5 實驗與分析

5.1 數(shù)據(jù)來源

論文中法律糾紛問答模型實驗數(shù)據(jù)來自某公司提供的24種法律糾紛問答對,每一種糾紛類型包含5000個問題答案對,其中80%為訓(xùn)練集,20%為測試集.首先對問題和答案進行預(yù)處理,使用Google開源的詞向量計算Word2Vec[15]來訓(xùn)練24種糾紛類型的問題答案對詞向量,事先去除特殊字符和標點符號以及去除一些常見無意義的停用詞.所訓(xùn)練的詞向量維數(shù)d設(shè)置為300,句子最大的長度設(shè)置為100.

5.2 實驗結(jié)果分析

實驗1.與Baseline model對比

本實驗?zāi)康脑u估法律糾紛問答生成模型S2SA-BiLSTM在問答任務(wù)中不同規(guī)模數(shù)據(jù)集上的效果,使用Baseline model和法律糾紛問答生成模型S2SA-BiLSTM分別在法律糾紛問答數(shù)據(jù)集的20%、40%、60%、80%和100%的規(guī)模上進行了對比實驗,Baseline model在seq2seq中編碼和解碼階段使用了最簡單的神經(jīng)網(wǎng)絡(luò).S2SA-BiLSTM模型和Baseline model在同一個數(shù)據(jù)集上訓(xùn)練了同等數(shù)量的次數(shù),并且在同一測試集上進行了測評,對比測評指標分別為:準確率(Precision)、召回率(Recall)和F值.實驗結(jié)果如表1所示.

表1 對比實驗結(jié)果
Table 1 Comparison of experimental results

模型訓(xùn)練集大小準確率P(%)召回率R(%)F值(%)BaselineS2SA-BiLSTM20%63.1665.2341.2463.1649.8964.19BaselineS2SA-BiLSTM40%64.3268.9151.1866.4357.0167.65BaselineS2SA-BiLSTM60%71.3675.4268.5772.2469.9473.80BaselineS2SA-BiLSTM80%81.2484.6376.2579.1678.6781.80BaselineS2SA-BiLSTM100%89.6291.3285.6890.6787.6190.99

由表1可以看出,S2SA-BiLSTM模型比Baseline model在不同規(guī)模的訓(xùn)練集上的準確率、召回率和F值均有一定的提升,如圖5所示,準確率分別提升了2.07%、4.59%、4.06%、3.39%和1.7%.實驗表明隨著數(shù)據(jù)集的增大,S2SA-BiLSTM模型能增強自身學(xué)習(xí)語義特征的能力從而提高了其生成的候選答案與目標答案的匹配度.

實驗2.與其他神經(jīng)網(wǎng)絡(luò)進行比較

本實驗的目的是為了驗證S2SA-BiLSTM模型生成的候選答案的有效性,使用平均準確率(Mean Average Precision,MAP)和平均倒數(shù)排序(Mean Reciprocal Rank,MRR)作為評價指標在同一測試集上與問答任務(wù)中其他神經(jīng)網(wǎng)絡(luò)作對比.實驗結(jié)果如圖6所示.

圖5 精確度P的對比Fig.5 Comparison of accuracy P

由圖6可以看S2SA-BiLSTM模型的MAP和MRR比其他神經(jīng)網(wǎng)絡(luò)均有一定的提升,平均準確率MAP反映的是從所有生成的候選答案檢索出與目標答案相似的準確率的平均值,生成出來的相似候選答案越靠前MAP就越高.平均倒數(shù)排序MRR是將用戶輸入5個問題的5個目標答案作為Query,放在被S2SA-BiLSTM模型生成所有候選答案中相似度最高的5個候選答案的排序取倒數(shù)作為它的準確度,再對它們的倒數(shù)求和取平均.從S2SA-BiLSTM模型的MAP和MRR兩個評價指標可以看出,生成的候選答案在有效性上比其他神經(jīng)網(wǎng)絡(luò)又提升了一個檔次.

圖6 MAP和MRR對比Fig.6 Comparison of MAP and MRR

表2是本文模型實驗與其他模型的對比結(jié)果,從表中可以看出,基于深度學(xué)習(xí)的BLSTM模型在問答匹配領(lǐng)域的效果明顯優(yōu)于基于機器學(xué)習(xí)的SVM分類排序方法.同時,本文提出的S2SA-BiLSTM模型又在傳統(tǒng)BLSTM基礎(chǔ)上提高了MRR值,有效證明了在Seq2Seq模型中使用雙向長短期記憶網(wǎng)絡(luò)結(jié)合注意力機制能夠?qū)W習(xí)到句子中更多的隱藏的語音特征,從而提高答案的準確率.此外,我們發(fā)現(xiàn)Wang等[18]模型的實驗中,Word overlap和Average word Embedding這兩個方法存在一個共同的問題,即無法像深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)一樣學(xué)習(xí)句子中抽象的語義信息,從而影響其實驗的MRR值.

實驗3.與其他神經(jīng)網(wǎng)絡(luò)運算性能的比較

為了證明S2SA-BiLSTM模型在生成候選答案具有明顯的速度提升,在相同的測試集上與其他神經(jīng)網(wǎng)絡(luò)生成問答模型對運算速度進行比較,運行時間明顯小于其他四種模型,如圖7所示.

表2 與其他相關(guān)模型的MRR比較
Table 2 Experimental evaluation results compared with other relevant models

模型方法MRRWu模型[17]Edit distanceTFISF sumRe-estimate query likelohood modelBLSTM20.9845.3169.3666.34Wang模型[18]Average word embeddingWord overlapEmbedding-based featuresAll features46.1051.5474.7080.08本文模型S2SA-BiLSTM84.41

圖7 運算性能的比對Fig.7 Comparison of computing performance

6 結(jié) 論

互聯(lián)網(wǎng)為人們提供海量法律信息的同時,一些法律糾紛問題也隨著人們?nèi)找嬖鲩L的生活水平而來.根據(jù)用戶提出的法律糾紛問題有效地生成法律知識答案,這一措施有助于快速獲取相應(yīng)的法律糾紛知識并為自身提供解答有一定的現(xiàn)實應(yīng)用意義.論文結(jié)合深層長短時記憶網(wǎng)絡(luò)融入注意力機制,成功構(gòu)建了面向法律糾紛答案自動生成的深度學(xué)習(xí)模型--S2SA-BiLSTM.最終實驗也表明,本文所提出的S2SA-BiLSTM模型在處理大規(guī)模法律糾紛問答數(shù)據(jù)集時,具有很好的生成效果,其準確率和召回率均有顯著提升.此后的研究將圍繞構(gòu)建知識圖譜自動問答以及對抗式生成網(wǎng)絡(luò)(GAN)自動問答來展開.

猜你喜歡
時刻語義向量
向量的分解
冬“傲”時刻
捕獵時刻
聚焦“向量與三角”創(chuàng)新題
語言與語義
“上”與“下”語義的不對稱性及其認知闡釋
向量垂直在解析幾何中的應(yīng)用
向量五種“變身” 玩轉(zhuǎn)圓錐曲線
街拍的歡樂時刻到來了
認知范疇模糊與語義模糊
页游| 塔城市| 东山县| 邵阳市| 永丰县| 抚松县| 玉龙| 通州区| 龙州县| 通化市| 舟曲县| 来安县| 阿坝| 潍坊市| 阳朔县| 双柏县| 高邑县| 灵璧县| 诸城市| 苏尼特右旗| 二连浩特市| 任丘市| 股票| 忻城县| 罗源县| 遵化市| 南丹县| 高邮市| 辽宁省| 甘谷县| 平度市| 卫辉市| 察隅县| 开化县| 皋兰县| 江西省| 小金县| 稷山县| 海安县| 休宁县| 抚顺市|