向露,周玉,宗成慶
摘 要:雙語術(shù)語對齊庫是自然語言處理領(lǐng)域的重要資源,對于跨語言信息檢索、機器翻譯等多語言應(yīng)用具有重要意義。雙語術(shù)語對通常是通過人工翻譯或從雙語平行語料中自動提取獲得的。然而,人工翻譯需要一定的專業(yè)知識且耗時耗力,而特定領(lǐng)域的雙語平行語料也很難具有較大規(guī)模。但是同一領(lǐng)域中各種語言的單語術(shù)語庫卻較易獲得。為此,提出一種基于兩種不同語言的單語術(shù)語庫自動實現(xiàn)術(shù)語對齊,以構(gòu)建雙語術(shù)語對照表的方法。該方法首先利用多個在線機器翻譯引擎通過投票機制生成目標(biāo)端“偽”術(shù)語,然后利用目標(biāo)端“偽”術(shù)語從目標(biāo)端術(shù)語庫中檢索得到目標(biāo)端術(shù)語候選集合,最后采用基于mBERT的語義匹配算法對目標(biāo)端候選集合進行重排序,從而獲得最終的雙語術(shù)語對。計算機科學(xué)、土木工程和醫(yī)學(xué)三個領(lǐng)域的中英文雙語術(shù)語對齊實驗結(jié)果表明,該方法能夠提高雙語術(shù)語抽取的準(zhǔn)確率。
關(guān)鍵詞:雙語術(shù)語;單語術(shù)語庫;術(shù)語對齊;語義匹配
中圖分類號:TP391;H083? 文獻標(biāo)識碼:A? DOI:10.12339/j.issn.1673-8578.2022.01.002
Bilingual Terminology Alignment Based on Chinese-English Monolingual Terminological Bank//XIANG Lu, ZHOU Yu, ZONG Chengqing
Abstract: Bilingual terminologies are essential resources in natural language processing, which are of great significance for many multilingual applications such as cross-lingual information retrieval and machine translation. Bilingual terminology pairs are usually obtained by either human translation or automatic extraction from a bilingual parallel corpus. However, human translation requires professional knowledge and is time-consuming and labor-intensive. Besides, it is not easy to have a large bilingual parallel corpus in a specific domain. But the monolingual terminology banks of various languages in the same domain are relatively easy to obtain. Therefore, this paper proposes a novel method to extract bilingual terminology pairs by automatically aligning terms from monolingual terminology banks of two languages. Firstly, multiple online machine translation engines are adopted to generate the target pseudo terminology through a voting mechanism. Secondly, the target pseudo terminology is used to retrieve from the target terminology bank to obtain the candidate set of target terminologies. Finally, a mBERT-based semantic matching model is used to re-rank the candidate set and obtain the final bilingual terminology pair. Experimental results of Chinese-English bilingual terminology alignment on three domains, including computer science, civil engineering, and medicine, show that our proposed method can effectively improve the accuracy of bilingual terminology extraction.
Keywords: bilingual terminology; monolingual terminological bank; terminology alignment; semantic matching
引言
術(shù)語是專業(yè)領(lǐng)域中概念的語言指稱(GB/T 10112—959),也可定義為“通過語言或文字來表達或限定專業(yè)概念的約定性語言符號”[1-2]。術(shù)語通常由一個或多個詞匯單元組成,包含了一個領(lǐng)域的基本知識。隨著全球化進程的快速發(fā)展,不同語言間的知識、技術(shù)交流的需求愈加迫切和頻繁。而術(shù)語作為知識的核心載體,其相互翻譯卻成為各國間知識、技術(shù)交流的最大障礙之一[3]。因此,研究雙語術(shù)語自動抽取方法對于雙語術(shù)語詞典構(gòu)建、跨語言信息檢索和機器翻譯等應(yīng)用都具有十分重要的實用價值。
人工翻譯構(gòu)建是獲得高質(zhì)量雙語術(shù)語的一種可靠方式,但是人工翻譯需要一定的專業(yè)知識且耗時耗力。為此,許多研究者提出了從不同資源中抽取雙語術(shù)語的方法,包括基于平行語料庫的雙語術(shù)語抽取[4-8]和基于可比語料庫的雙語術(shù)語抽取[9-10]?;谄叫校杀龋┱Z料庫的雙語術(shù)語自動抽取通常分為兩個步驟,首先通過單語術(shù)語抽取分別得到兩個語言的單語術(shù)語候選表,而后通過計算候選術(shù)語在平行(可比)語料中的共現(xiàn)概率或基于雙語詞典計算術(shù)語對的翻譯概率,其中概率高于預(yù)設(shè)閾值的候選結(jié)果將抽取作為雙語術(shù)語。由于平行語料的文本是互為譯文的關(guān)系,基于平行語料庫的雙語術(shù)語抽取能夠獲得較高的準(zhǔn)確率。但是對于眾多語言對,尤其是低資源語言,特定領(lǐng)域的雙語平行數(shù)據(jù)非常稀缺且難以獲取。此外,受限于可比語料庫的規(guī)模和質(zhì)量,從其中抽取雙語術(shù)語對的準(zhǔn)確率往往較低。
相比于雙語平行(可比)語料庫,同一領(lǐng)域中不同語言的單語術(shù)語庫更容易獲得。可以是已經(jīng)構(gòu)建好的單語術(shù)語庫,也可以利用現(xiàn)有的單語術(shù)語抽取方法[11-14]對單語語料庫進行自動抽取獲得。
基于此,本文提出一種從兩種不同語種的單語術(shù)語庫中自動進行術(shù)語對齊以抽取雙語術(shù)語對的方法。該方法僅利用單語術(shù)語本身的信息,而不依賴于上下文信息,在獲取不同語言同一領(lǐng)域的單語術(shù)語庫后,能夠迅速抽取雙語術(shù)語對。具體地,對于一個源端術(shù)語,該方法首先利用多個在線機器翻譯引擎通過投票機制生成目標(biāo)端“偽”術(shù)語,然后通過目標(biāo)端“偽”術(shù)語與目標(biāo)端術(shù)語庫中的術(shù)語之間的文本相似度篩選出目標(biāo)端術(shù)語候選集合,最后通過基于mBERT(multilingual bidirectional encoder representation from transformers)[15] 的語義匹配模型對源端術(shù)語和目標(biāo)端術(shù)語候選集的語義相似度重排序,從而獲得最終的雙語術(shù)語對。本文提出的方法在計算機科學(xué)、土木工程和醫(yī)學(xué)三個領(lǐng)域的中英單語術(shù)語庫上進行了實驗,實驗結(jié)果表明本文所提方法能夠顯著地提高雙語術(shù)語抽取的準(zhǔn)確率。
本文的組織結(jié)構(gòu)如下:第1部分介紹雙語術(shù)語抽取的相關(guān)工作,第2部分對本文的任務(wù)進行形式化描述,第3部分對本文所提出的面向單語術(shù)語庫的雙語術(shù)語對齊方法進行詳細介紹,第4部分介紹本文所使用的數(shù)據(jù)集和實驗設(shè)置,并給出詳細的實驗結(jié)果和分析,最后進行總結(jié)和展望。
1 相關(guān)工作
1.1 單語術(shù)語抽取
自動術(shù)語抽取是從文本集合中自動抽取領(lǐng)域相關(guān)的詞或短語,是本體構(gòu)建、文本摘要和知識圖譜等領(lǐng)域的關(guān)鍵基礎(chǔ)問題和研究熱點[11]。根據(jù)單語術(shù)語抽取的原理,可以將方法分為三類:基于規(guī)則的方法[12, 16-21],基于統(tǒng)計的方法[22-27] 和基于機器學(xué)習(xí)的方法[14, 28-31]。其中,基于機器學(xué)習(xí)的方法又可以細分為使用傳統(tǒng)機器學(xué)習(xí)的方法和使用神經(jīng)網(wǎng)絡(luò)的方法。不同的術(shù)語抽取方法可以相互融合集成,使用多種策略以提升性能。
1.2 雙語術(shù)語抽取
根據(jù)所使用語料的不同,雙語術(shù)語抽取可以分為基于平行語料庫的雙語術(shù)語抽取[3-8, 32-33]和基于可比語料庫的雙語術(shù)語抽取[9-10, 34-35]。其中,雙語平行語料由互為翻譯的源語言文本和目標(biāo)語言文本組成,而可比語料則是由不同語言同一主題的非互譯單語文本組成。雙語術(shù)語對齊的基本思路是術(shù)語及其翻譯往往出現(xiàn)在相似的上下文中[36]。
從抽取方法上,雙語術(shù)語抽取以單語術(shù)語抽取為基礎(chǔ),也可以劃分為兩種方法:對稱策略抽取法,即先分別對兩種單語語料進行單語術(shù)語抽取,然后對單語術(shù)語抽取的結(jié)果進行雙語術(shù)語對齊;非對稱策略抽取法,即使用一種語言單語術(shù)語抽取的結(jié)果在另外一種語言單語語料上查找對應(yīng)的術(shù)語翻譯。
在基于平行語料庫的雙語術(shù)語抽取上,孫樂等[4]根據(jù)詞性規(guī)則進行單語術(shù)語抽取,然后融合句子字符長度信息計算翻譯概率,從而抽取雙語術(shù)語對。孫茂松等[3]使用短語對齊、組塊分析相結(jié)合的方法在雙語語料上進行候選術(shù)語的抽取。張莉等[37]在孫樂等[4]的研究基礎(chǔ)上將術(shù)語語序位置信息引入術(shù)語對齊。劉勝奇等[38]提出使用多策略融合Giza++術(shù)語對齊方法,使用多種關(guān)聯(lián)和相似度提升術(shù)語對齊的對準(zhǔn)率。在基于可比語料的雙語術(shù)語抽取上,Rapp等[39]和Tanaka等[40]通過建立源語言文本與目標(biāo)語言文本的共現(xiàn)矩陣并進行矩陣相似度計算來抽取翻譯等價對。Yu等[41]通過句法分析獲得細粒度的上下文信息,從而抽取中英雙語詞語對。Lee等[42]使用一種基于EM框架結(jié)合統(tǒng)計學(xué)、詞法、語言學(xué)、上下文和時空特征的無監(jiān)督混合模型來從可比語料中抽取雙語術(shù)語。
不同于前述工作,本文主要關(guān)注的是從兩種語言的單語術(shù)語庫中自動進行術(shù)語對齊,從而抽取雙語術(shù)語對。單語術(shù)語庫可以是已經(jīng)構(gòu)建好的單語術(shù)語庫,也可以利用現(xiàn)有的單語術(shù)語抽取方法進行構(gòu)建。該方法僅利用單語術(shù)語本身的信息,而不依賴于上下文信息,在獲取不同語言同一領(lǐng)域的單語術(shù)語庫后,能夠迅速抽取雙語術(shù)語對。
1.3 預(yù)訓(xùn)練模型詞向量
深度學(xué)習(xí)給自然語言處理領(lǐng)域帶來了突破性的變革,其中一個關(guān)鍵的概念就是詞嵌入。作為最常見的文本特征表示方法之一,詞嵌入已被廣泛應(yīng)用于各種自然語言處理任務(wù)。分布式詞向量是利用神經(jīng)網(wǎng)絡(luò)模型來學(xué)習(xí)單詞的共現(xiàn)性,通過無監(jiān)督學(xué)習(xí)得到能夠表達詞語語義信息的低維度向量。
最近,許多預(yù)訓(xùn)練模型通過不同的策略提升了語言表征能力。其中,Devlin等[15]提出了BERT模型。BERT模型的基礎(chǔ)是自注意力(self-attention)機制,利用自注意力機制可以獲取雙向的上下文信息,通過在海量的無監(jiān)督語料庫上訓(xùn)練獲得句子中每個單詞的上下文表示信息。BERT在多種自然語言處理任務(wù)上取得了最優(yōu)的研究成果[15, 43]。
2 任務(wù)定義
給定源端術(shù)語,雙語術(shù)語對齊任務(wù)旨在從目標(biāo)端術(shù)語集合中找到其對應(yīng)的翻譯,其形式化定義如下:
給定源語言S中的一組術(shù)語集合QS,和目標(biāo)語言T中一組術(shù)語集合QT,QS和QT是同一領(lǐng)域(如醫(yī)學(xué)領(lǐng)域)不同語言的術(shù)語集合,本文的目標(biāo)是為每個源端術(shù)語wS∈QS,從目標(biāo)端術(shù)語集合QT中找到對應(yīng)的翻譯wT,從而獲得雙語術(shù)語對wS,wT。此處將雙語術(shù)語對wS,wT抽取的問題轉(zhuǎn)換為跨語言文本相似度度量任務(wù)。為了減小目標(biāo)端術(shù)語比對范圍,對于源端術(shù)語wS,首先利用多個在線機器翻譯引擎通過投票機制生成目標(biāo)端“偽”術(shù)語w'T,然后利用w'T和文本相似度算法對目標(biāo)端術(shù)語集合QT進行篩選,獲得目標(biāo)端術(shù)語候選集合QcandT,最后對wS與候選集QcandT中的候選術(shù)語進行語義相似度重排序,選取相似度最高的作為最終術(shù)語翻譯對。
3 本文方法
本文提出一種從兩種不同語種的單語術(shù)語庫中自動進行術(shù)語對齊以抽取雙語術(shù)語對的方法。如圖1所示,該方法采用“生成—篩選—比較”的方式,共分為三個步驟:(1) 目標(biāo)語言偽術(shù)語生成,即利用多個在線翻譯引擎通過投票機制生成目標(biāo)語言偽術(shù)語;(2) 目標(biāo)語言術(shù)語候選集生成,通過最長公共子串(longest common sub-sequence, LCS)算法[43]對目標(biāo)語言術(shù)語庫進行篩選,生成目標(biāo)語言術(shù)語候選集;(3) 基于語義相似度的重排序,通過預(yù)訓(xùn)練語言模型BERT對目標(biāo)語言術(shù)語候選集進行基于跨語言語義相似度的排序,得到得分最高的目標(biāo)端術(shù)語,生成最終的雙語術(shù)語對。
3.1 目標(biāo)端偽術(shù)語生成
機器翻譯就是實現(xiàn)從源語言到目標(biāo)語言轉(zhuǎn)換的過程[44]。隨著深度學(xué)習(xí)和人工智能技術(shù)的快速發(fā)展,機器翻譯技術(shù)得到了快速發(fā)展,包括谷歌、百度、有道、搜狗等在內(nèi)的許多互聯(lián)網(wǎng)公司都已經(jīng)部署了各自的在線機器翻譯引擎。因此,本文借助已有的機器翻譯引擎作為不同語言之間的橋梁,將源語言術(shù)語轉(zhuǎn)換為目標(biāo)語言表述。由于術(shù)語翻譯的準(zhǔn)確性和專業(yè)性要求較高,通過機器翻譯引擎生成的目標(biāo)語言表述雖然一定程度上能夠表達源語言術(shù)語的含義,但是不能確保是完全正確的目標(biāo)語言術(shù)語,本文將其定義為“目標(biāo)端偽術(shù)語”。這些源語言術(shù)語對應(yīng)的目標(biāo)端偽術(shù)語需要和目標(biāo)端術(shù)語庫進行進一步的相似度計算才能最終確定其對應(yīng)的目標(biāo)端術(shù)語。表1給出了中文術(shù)語(源語言)、機器翻譯引擎翻譯結(jié)果以及標(biāo)準(zhǔn)的英語術(shù)語(目標(biāo)語言)的示例。
利用多個在線翻譯引擎對源語言術(shù)語進行翻譯,生成多個目標(biāo)端表述后,須從中選擇一個合適的表述作為源語言術(shù)語對應(yīng)的目標(biāo)端偽術(shù)語。本文采用多數(shù)投票法選擇最終目標(biāo)端偽術(shù)語。多數(shù)投票法以單個模型的預(yù)測結(jié)果為基礎(chǔ),采用少數(shù)服從多數(shù)的原則確定模型預(yù)測的結(jié)果。
假設(shè)對于一個源語言術(shù)語wS,采用N個在線翻譯引擎對其進行翻譯,得到目標(biāo)端偽術(shù)語集合Q'T=w'T1,w'T2,…,w'TN,統(tǒng)計w'Ti∈Q'T在目標(biāo)端偽術(shù)語集合中出現(xiàn)的次數(shù)countw'Ti,則目標(biāo)端偽術(shù)語w'T定義為:
w'T=argw'Timaxcountw'Ti,w'Ti∈Q'T? ?(1)
即w'T為得票數(shù)最多的翻譯結(jié)果,若同時有多個翻譯結(jié)果獲得最高票數(shù),則從中隨機選取一個作為最終目標(biāo)端偽術(shù)語。
3.2 目標(biāo)端候選集生成
在獲得目標(biāo)端偽術(shù)語的基礎(chǔ)上,若直接利用目標(biāo)端偽術(shù)語與目標(biāo)端術(shù)語集合中的每個目標(biāo)端標(biāo)準(zhǔn)術(shù)語進行比對,則會存在噪聲多、時間成本高的問題。因此,本節(jié)將利用目標(biāo)端偽術(shù)語對目標(biāo)端術(shù)語集合進行篩選,生成目標(biāo)端候選集,從而縮小標(biāo)準(zhǔn)術(shù)語的搜索空間。具體而言,通過目標(biāo)端偽術(shù)語和目標(biāo)端術(shù)語集合中的每個術(shù)語進行相似度計算,這里采用LCS算法,保留相似度得分最高的K個術(shù)語形成候選集。
如算法1所示,遍歷目標(biāo)端術(shù)語集合QT,計算由上一步獲得的目標(biāo)端偽術(shù)語w'T與目標(biāo)端術(shù)語集合中的術(shù)語wTi的相似度simscore(第4行),當(dāng)候選集中目標(biāo)端術(shù)語的個數(shù)小于K時,直接將wTi加入到候選集U中,并更新候選集中相似度得分最小值LCSscore_L(第5—第11行)。當(dāng)候選集中目標(biāo)端術(shù)語個數(shù)等于K且simscore大于候選集中相似度得分最小值,則將得分最小的術(shù)語從候選集U中剔除,并從相似度得分集合scoreset刪除一個數(shù)值為LCSscore_L的元素,然后將wTi加入到候選集U中,同時更新候選集中相似度得分最小值LCSscore_L(第12—第20行)。當(dāng)遍歷完QT后,即可獲得目標(biāo)端候選集U。
3.3 基于語義相似度的重排序
由于LCS算法只考慮了詞形上的相似關(guān)系,而忽視了語義層面的相似關(guān)系,因此即便LCS相似度得分最高,在很多情況下依然無法獲取正確的目標(biāo)端術(shù)語。同時,使用機器翻譯系統(tǒng)生成目標(biāo)端偽術(shù)語的過程也存在一定程度上的語義失真,因此,本文提出同時利用源語言術(shù)語和目標(biāo)端偽術(shù)語對目標(biāo)端候選集進行語義層面的相似度計算,利用源語言術(shù)語信息進一步增強目標(biāo)端術(shù)語選擇的性能。
本文采用多語言預(yù)訓(xùn)練的BERT(mBERT)模型對源語言術(shù)語、目標(biāo)端偽術(shù)語和目標(biāo)候選集中的術(shù)語進行語義表示。如圖2所示,輸入為“[SEP]”分隔的字符串,取第一位隱層源語言術(shù)語、目標(biāo)端偽術(shù)語和候選詞并按標(biāo)識符單元“[CLS]”的輸出,其中中文以字符為單位,英文以詞為單位,經(jīng)過非線性變化映射到一個固定維度的向量v作為“源語言術(shù)語—候選詞”的語義表示,并和可訓(xùn)練權(quán)重矩陣W∈
Euclid Math TwoRA@
n×k進行相乘,如式(2)所示。
score=softmax(vW)? ? ?(2)
其中,n是輸出的固定維度,k是標(biāo)簽的數(shù)量,這里令k=2,標(biāo)簽分為兩種,即“語義相關(guān)”和“語義無關(guān)”。本文采用交叉熵損失對模型進行優(yōu)化學(xué)習(xí)。
使用mBERT語義相似度模型對候選集中所有術(shù)語進行語義相似度打分后,按照得分從高到低依次進行排序,得分最高的目標(biāo)端術(shù)語即為源語言術(shù)語對應(yīng)的目標(biāo)端術(shù)語(如圖1所示)。
4 實驗與結(jié)果
本文在計算機科學(xué)、土木工程和醫(yī)學(xué)三個領(lǐng)域進行了中英雙語術(shù)語對齊的實驗。
4.1 數(shù)據(jù)集構(gòu)造
為了進行雙語術(shù)語對齊的實驗,本文利用維基百科構(gòu)造了三個領(lǐng)域的中文術(shù)語庫和英文術(shù)語庫,包括計算機科學(xué)、土木工程和醫(yī)學(xué)。本文利用PetScan工具從維基百科上獲取符合特定條件的標(biāo)題列表,例如,使用“Language = en & Depth = 4 & Categories = Computer science”獲取計算機科學(xué)領(lǐng)域下的英文條目。在獲取對應(yīng)語言和領(lǐng)域下的標(biāo)題條目后,經(jīng)過簡單的規(guī)則處理,比如去掉純數(shù)字的條目、語言不正確的條目等,將過濾之后的標(biāo)題條目作為對應(yīng)領(lǐng)域的單語術(shù)語庫。在獲取單語術(shù)語庫后,由于在維基百科上,中文的頁面數(shù)遠小于英文的頁面數(shù),因此,本文遍歷中文單語術(shù)語庫,利用維基百科的跨wiki鏈接(Interwiki links)來獲取對應(yīng)的英文術(shù)語,從而獲得雙語術(shù)語庫。利用上述方法獲取的術(shù)語庫的統(tǒng)計信息如表2所示。
為了訓(xùn)練3.3節(jié)中的語義相似度模型,本文將中英雙語術(shù)語庫劃分成了訓(xùn)練集、驗證集和測試集,具體數(shù)據(jù)規(guī)模如表3所示。在訓(xùn)練過程中,雙語術(shù)語是“語義相關(guān)”樣本,需要構(gòu)造“語義無關(guān)”樣本,對于訓(xùn)練集和驗證集中的每一個中文術(shù)語,通過其對應(yīng)的英文端術(shù)語,采用LCS算法與英語單語術(shù)語庫中的其他術(shù)語進行相似度計算,取相似度前5的英語端術(shù)語作為“語義無關(guān)”訓(xùn)練樣本,使訓(xùn)練語義相似度模型時的正負樣本比例為1∶5。
在測試階段,源語言術(shù)語庫為測試集中的中文術(shù)語,目標(biāo)語言術(shù)語庫為英語單語術(shù)語庫,目標(biāo)是為中文術(shù)語找到其對應(yīng)的英語術(shù)語。
4.2 實驗設(shè)置
在線翻譯引擎:在實驗過程中,本文采用了5個在線翻譯引擎將中文單語術(shù)語庫中的術(shù)語翻譯成英文“偽”術(shù)語:谷歌翻譯、百度翻譯、有道翻譯、搜狗翻譯以及Bing翻譯。
mBERT:在谷歌發(fā)布的多語言預(yù)訓(xùn)練模型BERT-Base、Multilingual Cased基礎(chǔ)上進行微調(diào),數(shù)據(jù)采用4.1節(jié)所述方式進行構(gòu)建,batch大小設(shè)為32,訓(xùn)練輪數(shù)設(shè)為30,輸入序列最大值為100,初始學(xué)習(xí)率為0.00005,其余保持默認(rèn)參數(shù)。
評價指標(biāo):本文采用正確率(Accuracy)作為評價指標(biāo):
Acc=|predict∩reference|reference? ? (3)
其中,predict為模型獲得的雙語術(shù)語對集合,reference為標(biāo)準(zhǔn)的雙語術(shù)語對集合。|predict∩reference|代表模型預(yù)測正確的雙語術(shù)語對的個數(shù),reference代表標(biāo)準(zhǔn)雙語術(shù)語對的個數(shù)。
基準(zhǔn)模型:為了對比所提“生成—篩選—比較”方法的有效性,本文將與以下基線模型進行比較:
(1)多翻譯引擎投票方法(基線系統(tǒng)1):使用4.2節(jié)所述的5種翻譯引擎對測試集中的中文術(shù)語進行翻譯,然后采用多數(shù)投票法獲得對應(yīng)的英語術(shù)語。
(2)跨語言相似度方法(基線系統(tǒng)2):直接使用預(yù)訓(xùn)練語言模型BERT-Base、Multilingual Cased對測試集中的中文術(shù)語和英語單語術(shù)語庫進行編碼,得到對應(yīng)的句向量表示,然后計算一個中文術(shù)語和任意一個英文術(shù)語的句向量的余弦相似度,得分最高的為中文術(shù)語所對應(yīng)的英文術(shù)語。
(3)多翻譯引擎投票+余弦相似度方法(基線系統(tǒng)3):該方法與基線系統(tǒng)2類似,都是通過BERT-Base、Multilingual Cased獲取句向量表示,然后計算余弦相似度。所不同的是,這里計算的是通過多翻譯引擎投票產(chǎn)生的英語表述與英語術(shù)語的相似度,得分最高的為中文術(shù)語所對應(yīng)的英文術(shù)語。
4.3 實驗結(jié)果
在計算機科學(xué)、土木工程和醫(yī)學(xué)三個領(lǐng)域上進行了中英雙語術(shù)語對齊的實驗,實驗結(jié)果見表4。
通過該實驗結(jié)果,可以看出以下信息。
(1)當(dāng)前機器翻譯引擎對于術(shù)語的翻譯性能還有待提升。利用5個在線翻譯引擎通過投票機制生成的英語術(shù)語在計算機科學(xué)、土木工程和醫(yī)學(xué)領(lǐng)域上僅有43.34%/39.48%/46.23%的正確率。這也說明了自動構(gòu)建雙語術(shù)語庫對于提升翻譯系統(tǒng)的性能有著重要意義。
(2)多語言BERT在中英語義相似度計算上表現(xiàn)很差(基線系統(tǒng)2:6.09%/3.68%/2.87%),其性能遠低于基線系統(tǒng)1,這可能是由于多語言BERT沒有在任務(wù)對應(yīng)的雙語術(shù)語數(shù)據(jù)上微調(diào),中英文的語義空間對齊較差。而多語言BERT直接對英語偽術(shù)語和英文術(shù)語進行語義相似度計算(基線系統(tǒng)3),其性能顯著優(yōu)于基線系統(tǒng)2,這表明多語言BERT在單一語言上能較好地表征語義相似度。
(3) 本文所提方法在三個領(lǐng)域的雙語術(shù)語對齊上均顯著優(yōu)于基線系統(tǒng),該方法以基線系統(tǒng)1生成的結(jié)果作為輸入,使用LCS算法與英語標(biāo)準(zhǔn)術(shù)語庫比對,返回得分最高的10個英語術(shù)語組成候選集,最后利用mBERT進行語義相似度重排序,實驗結(jié)果表明所提方法能夠顯著提升雙語術(shù)語對齊的性能,從而得到更好的雙語術(shù)語庫。
4.4 消融分析
基本模塊分析:本文所提方法包含三個步驟:(1) 目標(biāo)語言偽術(shù)語生成,即利用多個在線翻譯引擎通過投票機制生成目標(biāo)語言偽術(shù)語;(2) 目標(biāo)語言術(shù)語候選集生成,通過文本相似度算法LCS對目標(biāo)語言術(shù)語庫進行篩選,生成目標(biāo)語言術(shù)語候選集;(3) 基于語義相似度的重排序,通過預(yù)訓(xùn)練語言模型mBERT對目標(biāo)語言術(shù)語候選集進行語義相似度重排序,得到得分最高的目標(biāo)端術(shù)語,生成最終的雙語術(shù)語對。表5展示了所提方法中不同模塊對最終結(jié)果的影響。
其中,步驟(1)表示利用多個在線翻譯引擎通過投票機制生成目標(biāo)語言偽術(shù)語,+LCS表示使用目標(biāo)語言偽術(shù)語與目標(biāo)術(shù)語庫進行LCS相似度計算,將得分最高的術(shù)語作為對應(yīng)的目標(biāo)端術(shù)語,+mBERT則是利用mBERT對LCS返回的得分最高的10個候選集進行語義相似度重排序,取相似度得分最高的為目標(biāo)端術(shù)語。
通過表5可以看出,相比于步驟(1),+LCS的性能有大幅提升,這說明對于部分術(shù)語,機器翻譯雖然不能將其完全翻譯正確,但部分能夠翻譯正確,LCS相似度計算能夠?qū)@種類型的術(shù)語進行校正。表6展示了兩個示例,其中英文術(shù)語表示術(shù)語庫中正確的術(shù)語,英文偽術(shù)語表示步驟(1)產(chǎn)生的術(shù)語,LCS(Top5)表示LCS得分前5的術(shù)語,標(biāo)紅的術(shù)語為得分最高的術(shù)語。當(dāng)術(shù)語部分翻譯錯誤時,通過LCS可以從標(biāo)準(zhǔn)術(shù)語庫中找到對應(yīng)的正確術(shù)語。使用LCS產(chǎn)生候選集后,交由mBERT進行語義相似度重排序,能夠進一步提升雙語術(shù)語對齊的性能。表7展示了經(jīng)過步驟(1) → +LCS → +mBERT 三個步驟后,生成正確英語術(shù)語的例子。
候選集規(guī)模的影響:步驟 (2)通過LCS相似度生成候選集。這里分析了生成候選集的質(zhì)量和候選集規(guī)模對最終雙語術(shù)語對齊的影響。圖3給出了LCS相似度前1—前200(Top 1—Top 200)的召回率。
隨著候選集數(shù)目的增加,召回率也在增加。取LCS相似度前200的候選術(shù)語組成候選集后,計算機科學(xué)領(lǐng)域的召回率達到95.65%,土木工程領(lǐng)域的召回率達到92.19%,醫(yī)學(xué)領(lǐng)域的召回率達到91.99%。在獲得候選集之后,通過mBERT模型進行語義相似度重排序選出最終術(shù)語。本文探討了候選術(shù)語數(shù)目對于最終雙語術(shù)語對齊的影響,將生成的不同規(guī)模的候選集交由mBERT模型進行語義相似度重排序,最終正確率結(jié)果如圖4所示。
可以看出,隨著候選集的增加,通過mBERT語義相似度重排序獲取雙語術(shù)語對的性能也會有一定的提升。當(dāng)候選集規(guī)模從5增加到60,雙語術(shù)語對齊的正確率提升較為明顯。當(dāng)候選集規(guī)模繼續(xù)增加,從60增加到200時,雖然目標(biāo)端標(biāo)準(zhǔn)術(shù)語的召回率提升明顯,但是通過mBERT進行語義相似度重排序后得到的結(jié)果并沒有明顯提升,在醫(yī)學(xué)領(lǐng)域和計算機領(lǐng)域上還出現(xiàn)了下降趨勢,經(jīng)過分析發(fā)現(xiàn)是由于過大的候選集會不可避免地帶來更多的噪聲,從而對語義相似度模型的排序造成一定干擾。此外,本文在構(gòu)造訓(xùn)練集的時候,正例和負例的比例是1∶5,這也會對語義相似度重排序的準(zhǔn)確率產(chǎn)生一定的影響。
mBERT微調(diào)的影響:所提方法最后一步是利用mBERT對候選集進行重排序得到最終結(jié)果。本文提出同時利用源語言術(shù)語和目標(biāo)端偽術(shù)語對目標(biāo)端候選集進行語義層面的相似度計算。為了驗證源端術(shù)語和目標(biāo)端術(shù)語對于mBERT模型性能的影響,本文在計算機科學(xué)和土木工程領(lǐng)域上對比了兩種微調(diào)方式:
方式1:僅利用源語言術(shù)語和目標(biāo)端候選集對mBERT進行微調(diào),以圖2中的例子為例,模型輸入為“[CLS] 邏輯卷軸管理[SEP] Logical volume management”。
方式2:僅利用目標(biāo)端偽術(shù)語和目標(biāo)端候選集對mBERT進行微調(diào),以圖2中的例子為例,模型輸入為“[CLS] Logical scroll management[SEP] Logical volume management”。
模型訓(xùn)練過程中的參數(shù)與4.2節(jié)所述參數(shù)一致,訓(xùn)練數(shù)據(jù)中正負樣本比例為1∶5。模型訓(xùn)練完成后,對LCS算法返回的得分最高的10個英語術(shù)語組成的候選集進行重排序,得分最高的術(shù)語為源端術(shù)語對應(yīng)的目標(biāo)端術(shù)語。實驗結(jié)果如表8所示。其中,第1行到第3行顯示的是在計算機科學(xué)領(lǐng)域上的實驗結(jié)果,第4到第6行顯示的是在土木工程領(lǐng)域上的實驗結(jié)果。實驗結(jié)果表明,相比于單一使用源語言術(shù)語或者目標(biāo)端偽術(shù)語,聯(lián)合使用這兩者的信息能夠增強語義相似度重排序的性能(第3行和第6行),提高模型抽取雙語術(shù)語對的能力。
5 結(jié)語
本文提出了一種面向兩種語言單語術(shù)語庫的雙語術(shù)語對齊方法,該方法由“生成—篩選—比較”三步組成,首先利用多個在線機器翻譯引擎通過投票機制生成目標(biāo)端“偽”術(shù)語,然后利用目標(biāo)端“偽”術(shù)語從目標(biāo)術(shù)語庫中檢索得到目標(biāo)端術(shù)語候選集合,最后采用基于mBERT的語義匹配算法對目標(biāo)端候選集合進行重排序,從而獲得最終的雙語術(shù)語對。該方法可以僅僅利用單語術(shù)語庫本身的信息抽取雙語術(shù)語對。在計算機科學(xué)、土木工程和醫(yī)學(xué)三個領(lǐng)域上的中英雙語術(shù)語對齊實驗結(jié)果表明,與基線系統(tǒng)相比,所提方法能夠有效地提高雙語術(shù)語抽取的性能。
在未來的研究中,需要進一步探索如何利用術(shù)語庫之外的信息提升雙語術(shù)語對齊的質(zhì)量,如利用互聯(lián)網(wǎng)大規(guī)模文本信息,學(xué)習(xí)更加準(zhǔn)確的融合上下文信息的術(shù)語表示。
注釋
① PetScan工具:https://petscan.wmflabs.org。
② 跨wiki鏈接(Interwiki links):https://www.mediawiki.org/wiki/Manual:Interwiki。
③ 多語言預(yù)訓(xùn)練模型BERT-Base, Multilingual Cased:https://huggingface.co/bert-base-multilingual-cased。
參考文獻
[1] 馮志偉.現(xiàn)代術(shù)語學(xué)引論[M].北京:語文出版社,1997.
[2] 杜波,田懷鳳,王立,等.基于多策略的專業(yè)領(lǐng)域術(shù)語抽取器的設(shè)計[J].計算機工程, 2005(14):159-160.
[3] 孫茂松,李莉,劉知遠.面向中英平行專利的雙語術(shù)語自動抽取[J].清華大學(xué)學(xué)報(自然科學(xué)版), 2014,54(10):1339-1343.
[4] 孫樂,金友兵,杜林,等.平行語料庫中雙語術(shù)語詞典的自動抽取[J].中文信息學(xué)報, 2000(6):33-39.
[5] HUANG G P, ZHANG J J, ZHOU Y, et al. A simple, straightforward and effective model for joint bilingual terms detection and word alignment in smt[C]//Proceedings of the Fifth Conference on Natural Language Processing and Chinese Computing & The Twenty Fourth International Conference on Computer Processing of Oriental Languages. Kunming, China, 2016:103-115.
[6] LEFEVER E, MACKEN L, HOSTE V. Language-independent bilingual terminology extraction from a multilingual parallel corpus:A simple, straightforward and effective model for joint bilingual terms detection and word alignment in smt[C]//Proceedings of the 12th Conference of the European Chapter of the ACL (EACL 2009). 2009: 496-504.
[7] FAN X, SHIMIZU N, NAKAGAWA H. Automatic extraction of bilingual terms from a chinese-japanese parallel corpus[C]//Proceedings of the 3rd International Universal Communication Symposium. 2009: 41-45.
[8] 蔣俊梅.基于平行語料庫的雙語術(shù)語抽取系統(tǒng)研究[J].現(xiàn)代電子技術(shù), 2016, 39(15):108-111.
[9] 康小麗,章成志,王惠臨.基于可比語料庫的雙語術(shù)語抽取研究述評[J].現(xiàn)代圖書情報技術(shù), 2009(10):7-13.
[10] AKER A, PARAMITA M L, GAIZAUSKAS R. Extracting bilingual terminologies from comparable corpora[C]//Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Sofia, Bulgaria: Association for Computational Linguistics, 2013:402-411.
[11] 張雪,孫宏宇,辛東興,等.自動術(shù)語抽取研究綜述[J].軟件學(xué)報, 2020,31(7):2062-2094.
[12] 李思良,許斌,楊玉基. DRTE:面向基礎(chǔ)教育的術(shù)語抽取方法[J].中文信息學(xué)報,2018,32(3):101-109.
[13] CRAM D, DAILLE B. Termsuit: Terminology extraction with term variant detection[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Berlin, Germany: Association for Computational Linguistics, 2016:13-18.
[14] ZHANG Z, GAO J, CIRAVEGNA F. Semre-rank: Improving automatic term extraction by incorporating semantic relatedness with personalised pagerank[J]. ACM Transactions on Knowledge Discovery from Data (TKDD), 2018, 12(5): 1-41.
[15] DEVLIN J, CHANG M W, LEE K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[C]//Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Minneapolis, Minnesota: Association for Computational Linguistics, 2019:4171-4186.
[16]? BOURIGAULT D, GONZALEZ-MULLIER I, GROS C. Lexter, a natural language processing tool for terminology extraction[C]//Proceedings of the 7th EURALEX International Congress. Gteborg, Sweden: Novum Grafiska AB, 1996: 771-779.
[17] JUSTESON J S, KATZ S M. Technical terminology: some linguistic properties and an algorithm for identification in text[J]. Natural language engineering, 1995, 1(1): 9-27.
[18] 化柏林. 針對中文學(xué)術(shù)文獻的情報方法術(shù)語抽取[J]. 現(xiàn)代圖書情報技術(shù), 2013 (6): 68-75.
[19] 祝清松, 冷伏海. 自動術(shù)語識別存在的問題及發(fā)展趨勢綜述[J]. 圖書情報工作, 2012, 56(18): 104-109.
[20] 向音, 李蘇鳴. 領(lǐng)域術(shù)語特征分析:以軍語為例[J]. 中國科技術(shù)語, 2012, 14(5): 5-9.
[21] 張樂,唐亮,易綿竹.融合多策略的軍事領(lǐng)域中文術(shù)語抽取研究[J].現(xiàn)代計算機, 2020(26):9-16,20.
[22] 屈鵬,王惠臨.面向信息分析的專利術(shù)語抽取研究[J].圖書情報工作, 2013,57(1):130-135.
[23] 曾文,徐碩,張運良,等.科技文獻術(shù)語的自動抽取技術(shù)研究與分析[J].現(xiàn)代圖書情報技術(shù), 2014(1):51-55.
[24] 胡阿沛,張靜,劉俊麗.基于改進C-value方法的中文術(shù)語抽取[J].現(xiàn)代圖書情報技術(shù), 2013(2):24-29.
[25] JONES K S. A statistical interpretation of term specificity and its application in retrieval[J]. Journal of documentation, 2004.
[26] CAMPOS R, MANGARAVITE V, PASQUALI A, et al. A text feature based automatic keyword extraction method for single documents[C]//European conference on information retrieval. Grenoble, France: Springer International Publishing, 2018:684-691.
[27] VU T, AW A, ZHANG M. Term extraction through unithood and termhood unification[C]//Proceedings of the Third International Joint Conference on Natural Language Processing: Volume-II. 2008:631-636.
[28] 賈美英,楊炳儒,鄭德權(quán),等.采用CRF技術(shù)的軍事情報術(shù)語自動抽取研究[J].計算機工程與應(yīng)用,2009,45(32):126-129.
[29] 劉輝,劉耀.基于條件隨機場的專利術(shù)語抽取[J].數(shù)字圖書館論壇, 2014(12):46-49.
[30] KUCZA M, NIEHUES J, ZENKEL T, et al. Term extraction via neural sequence labeling a comparative evaluation of strategies using recurrent neural networks[C]//19th Annual Conference of the International Speech Communication Association. Hyderabad, India: ISCA, 2018: 2072-2076.
[31] HAZEM A, BOUHANDI M, BOUDIN F, et al. Termeval 2020: Taln-ls2n system for automatic term extraction[C]//Proceedings of the 6th International Workshop on Computational Terminology. Marseille, France: European Language Resources Association, 2020:95-100.
[32] SEMMAR N. A hybrid approach for automatic extraction of bilingual multiword expressions from parallel corpora[C]//Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018). Miyazaki, Japan: European Language Resources Association (ELRA), 2018: 311-318.
[33] REPAR A, PODPEAN V, VAVPETI A, et al. Termensembler: An ensemble learning approach to bilingual term extraction and alignment[J]. Terminology. International Journal of Theoretical and Applied Issues in Specialized Communication, 2019, 25(1): 93-120.
[34] HAZEM A, MORIN E. Efficient data selection for bilingual terminology extraction from comparable corpora[C]//Proceedings of 26th International Conference on Computational Linguistics: Technical Papers (COLING).Osaka, Japan: The COLING 2016 Organizing Committee, 2016: 3401-3411.
[35] KONTONATSIOS G, KORKONTZELOS I, TSUJII J, et al. Combining string and context similarity for bilingual term alignment from comparable corpora[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP).Doha, Qatar: Association for Computational Linguistics, 2014: 1701-1712.
[36] DAILLE B, MORIN E. French-English terminology extraction from comparable corpora[C]//Second International Joint Conference on Natural Language Processing: Full Papers. Berlin, Heidelberg: Springer, 2005: 707-718.
[37] 張莉,劉昱顯.基于語序位置特征的漢英術(shù)語對自動抽取研究[J].南京大學(xué)學(xué)報(自然科學(xué)), 2015,51(4):707-713.
[38] 劉勝奇,朱東華.基于多策略融合Giza++的術(shù)語對齊法[J].軟件學(xué)報, 2015,26(7):1650-1661.
[39] RAPP R. Identifying word translations in non-parallel texts[C]//Proceedings of the 33rd Annual Meeting of the Association for Computational Linguistics. Cambridge, Massachusetts, USA: Association for Computational Linguistics, 1995:320-322.
[40] TANAKA K, IWASAKI H. Extraction of lexical translations from non-aligned corpora[C]//Proceedings of the 16th International Conference on Computational Linguistics. Copenhagen, Denmark. 1996:580-585.
[41] YU K, TSUJII J. Extracting bilingual dictionary from comparable corpora with dependency heterogeneity[C]//Proceedings of the Annual Conference of the North American Chapter of the Association for Computational Linguistics, Companion Volume: Short Papers. Boulder, Colorado: Association for Computational Linguistics, 2009: 121-124.
[42] LEE L, AW A, ZHANG M, et al. Em-based hybrid model for bilingual terminology extraction from comparable corpora[C]//Proceedings of the 23rd International Conference on Computational Linguistics. Beijing, China:Coling 2010 Organizing Committee, 2010: 639-646.
[43] LIU Y, OTT M, GOYAL N, et al. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
[44] BAKKELUND D. An lcs-based string metric[J]. Olso, Norway: University of Oslo, 2009.
[45] 宗成慶. 統(tǒng)計自然語言處理[M]. 北京: 清華大學(xué)出版社, 2013.
作者簡介:向露(1988—),女,中國科學(xué)院自動化研究所模式識別國家重點實驗室博士研究生, 主要研究方向為人機對話系統(tǒng)、文本生成和自然語言處理。通信方式:lu.xiang@nlpr.ia.ac.cn。
通訊作者:周玉(1976—),女,博士,中國科學(xué)院自動化研究所研究員,主要研究方向為自動摘要、機器翻譯和自然語言處理。通信方式:yzhou@nlpr.ia.ac.cn。
宗成慶(1963—),男,博士,中國科學(xué)院自動化所研究員,中國科學(xué)院大學(xué)崗位教授,中國計算機學(xué)會會士,中國人工智能學(xué)會會士,主要從事自然語言處理和機器翻譯研究,出版專著《統(tǒng)計自然語言處理》和《文本數(shù)據(jù)挖掘》(中、英文版),發(fā)表論文200余篇。通信方式:cqzong@nlpr.ia.ac.cn。