国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于場感知分解機(jī)的五筆輸入法

2023-08-15 07:56:34李澤南劉漢明胡珍珍司馬燊
關(guān)鍵詞:輸入法梯度準(zhǔn)確率

李澤南,劉漢明,胡珍珍,黎 姿,司馬燊,郭 港

(贛南師范大學(xué) 數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院,江西 贛州 341000)

0 引 言

20世紀(jì)80年代初期,隨著漢字編碼的發(fā)明,出現(xiàn)了中文輸入法。中文輸入一般可以分為鍵盤、手寫、語音等三種輸入方式[1],其中鍵盤輸入需要對(duì)漢字二次編碼,具有輸入不受環(huán)境制約、對(duì)系統(tǒng)性能要求低、響應(yīng)速度快等特點(diǎn),是桌面計(jì)算機(jī)系統(tǒng)的主流輸入方式[2]。在漢字輸入法的發(fā)展過程中,出現(xiàn)了大量的漢字編碼方案,分為以音為主、以形為主、音形結(jié)合三類[3]。目前常用的漢字編碼方案有拼音、雙拼、五筆、筆畫等[4]。

以音為主的漢字編碼以拼音輸入法為代表,入門門檻低,通過大容量詞庫、模糊音支持、用戶詞自動(dòng)添加、熱詞自動(dòng)更新等一系列功能,拼音輸入法取得了極大的成功。特別是手機(jī)等無實(shí)體鍵盤設(shè)備上應(yīng)用廣泛,截至2020年底,使用拼音類手機(jī)輸入法用戶規(guī)模達(dá)到7.55億人,隨著互聯(lián)網(wǎng)的影響深化下沉,用戶規(guī)模進(jìn)一步擴(kuò)大[5]。楊新濤等研究了基于深度學(xué)習(xí)的拼音輸入法,希望通過深度學(xué)習(xí)技術(shù)使?jié)h字輸入更準(zhǔn)確更高效[6]。拼音輸入法重碼率過高,特別生僻字和單字的速度遠(yuǎn)遠(yuǎn)落后于五筆輸入法[7];在線詞庫越來越大導(dǎo)致備選字詞切換速度慢,輸入法軟件本身也越來越復(fù)雜使得占用的系統(tǒng)資源越來越多。

以形為主的輸入方案體現(xiàn)了漢字的書寫、重碼率低、文字輸入效率高。王永民[8]通過長達(dá)五年的研究,在1983年發(fā)明了根據(jù)筆畫和字形特征對(duì)漢字進(jìn)行編碼的五筆字型輸入法。李亭騫等人提出的E碼漢字輸入法,根據(jù)漢字字形首尾形狀與鍵盤上的英文字母存在相似的特點(diǎn)實(shí)現(xiàn)漢字的輸入,降低了用戶記憶字根的難度。以形為主的輸入法在初期過于專注降低重碼率,導(dǎo)致編碼方案要么過于復(fù)雜,如五筆輸入法需要用戶記憶字根;要么碼長較長,如筆畫輸入法[9]。但五筆輸入法需要熟悉五筆字根表,入門門檻較高,隨著計(jì)算機(jī)的普及,更多的用戶需要操作簡單的輸入法[10]。加上五筆輸入法自出現(xiàn)以來基本上沒有太大的改進(jìn),使得拼音輸入法逐漸占據(jù)了如今的主導(dǎo)地位。

音形結(jié)合的輸入法試圖結(jié)合漢字的“音”與“形”,以期解決拼音碼的重碼率高和形碼難記的不足,如苗文音形編碼[11],但其要求拼音準(zhǔn)確且仍需用戶記憶字形碼。

拼音輸入法雖然入門簡單,使用者初期的使用體驗(yàn)效果優(yōu),但五筆輸入法整體上仍存在優(yōu)勢,在報(bào)社等需要專業(yè)性文字錄入工作的場合仍大規(guī)模使用。特別地,計(jì)算機(jī)時(shí)代導(dǎo)致手寫漢字的機(jī)會(huì)大大減少,使人們對(duì)熟悉的字變得生疏,許多原本會(huì)寫的字變得只會(huì)讀,“提筆忘字”變得越來越常見[12],嚴(yán)重地影響了中華文化的傳承。五筆等字形編碼漢字輸入法體現(xiàn)了漢字的書寫,對(duì)減少“提筆忘字”等現(xiàn)象,促進(jìn)中華文化傳承具有重要意義。

近年來,機(jī)器學(xué)習(xí)取得的長足的發(fā)展,但機(jī)器學(xué)習(xí)用于漢字輸入法的研究較少。楊新濤等提出了基于深度學(xué)習(xí)的拼音輸入法[6],但深度學(xué)習(xí)算法復(fù)雜、對(duì)計(jì)算機(jī)硬件要求高、數(shù)據(jù)訓(xùn)練中存在過擬合[13],從而影響漢字輸入的速度。推薦系統(tǒng)根據(jù)用戶的歷史記錄,向用戶推薦感興趣的事務(wù),研究結(jié)合場感知分解機(jī)[14](Field-aware Factorization Machine,FFM)推薦算法提出了一種基于FFM的五筆輸入法(Wubi based FFM,WB-FFM)。該方法根據(jù)用戶以往的數(shù)據(jù),處理漢字?jǐn)?shù)據(jù)解決稀疏特征問題,預(yù)測用戶的需求向用戶推送候選漢字,以期進(jìn)一步提高五筆漢字輸入的效率,改善用戶體驗(yàn),增加用戶粘性,為保證中華文化的傳承載體不會(huì)退化甚至消失,對(duì)中華文化傳承也具有重要意義實(shí)驗(yàn)表明,WB-FFM輸入法具有穩(wěn)健的“推薦”能力,第一候選字詞推薦準(zhǔn)確率達(dá)到98.91%,優(yōu)于現(xiàn)有典型的輸入法。

1 FFM推薦系統(tǒng)

為解決稀疏特征和特征組合的問題,Y.Juan等提出了FFM算法,它是FM(Factorization Machine)[15]模型的改進(jìn)版,以更好地適應(yīng)稀疏特征。常用漢字2 000多個(gè),對(duì)漢字輸入來說是稀疏特征問題。

1.1 FM

FM旨在解決諸如推薦系統(tǒng)等面臨的稀疏數(shù)據(jù)下的特征組合問題。假設(shè)數(shù)據(jù)有n個(gè)特征,xi是第i個(gè)特征值,xixj表示xi和xj的組合(xi,xj≠0),ω0、ωi、ωij是模型參數(shù),則二階多項(xiàng)式的模型為:

(1)

在數(shù)據(jù)稀疏的情況下,因?yàn)閤i,xj≠0的樣本不足,導(dǎo)致參數(shù)ωij的訓(xùn)練十分困難。

矩陣分解可有效解決參數(shù)ωij的訓(xùn)練問題。設(shè)ωij組成的矩陣為W,分解得W=VTV,那么,ωij可以看作第i、j維特征的隱向量之積,得FM模型。

(2)

其中,二次項(xiàng)

(3)

其中,vi,f是第i個(gè)變量的第f個(gè)因子,k?n是超參數(shù),由用戶指定。這樣,FM的復(fù)雜度可由原來的O(kn2)降為O(kn)。

1.2 FMM

Y.Juan等借鑒“場”[16]的概念提出的FFM把相同性質(zhì)的特征歸為一個(gè)“場”,同一個(gè)“場”的特征單獨(dú)One-Hot編碼。在FFM中,每一維特征xi,對(duì)特征xj(j≠i)的“場”fj,都有一個(gè)隱向量vi,fj,FFM模型為:

(4)

若f是“場”的個(gè)數(shù),則FFM的參數(shù)個(gè)數(shù)為nfk。對(duì)每個(gè)隱向量,只需要學(xué)習(xí)它的“場”的效應(yīng),使得kFFM?kFM,從而進(jìn)一步降低了算法復(fù)雜度。

1.3 FFM的優(yōu)化

在FFM領(lǐng)域中,LIBFFM作為一個(gè)廣泛使用的分解機(jī)庫,利用隨機(jī)梯度下降(SGD)優(yōu)化。

隨機(jī)梯度下降算法(Stochastic Gradient Descent,SGD)[17]源于1951年Robbins和Monro提出的隨機(jī)逼近,最初應(yīng)用于模式識(shí)別[18]和神經(jīng)網(wǎng)絡(luò)[19]。這種方法在迭代過程中隨機(jī)選擇一個(gè)或幾個(gè)樣本的梯度來替代總體梯度,從而大大降低了計(jì)算復(fù)雜度。1958年Rosenblatt等研制出的感知機(jī)采用了隨機(jī)梯度下降法的思想,即每輪隨機(jī)選取一個(gè)樣本,求其對(duì)應(yīng)損失函數(shù)的梯度,再基于給定的步長更新參數(shù)。1986年Rumelhart等分析了多層神經(jīng)網(wǎng)絡(luò)的誤差反向傳播算法,該算法每次按順序或隨機(jī)選取一個(gè)樣本來更新參數(shù),它實(shí)際上是小批量梯度下降法的一個(gè)特例。近年來,隨著深度學(xué)習(xí)的迅速興起,隨機(jī)梯度下降算法已成為求解大規(guī)模機(jī)器學(xué)習(xí)優(yōu)化問題的一類主流方法[20]。

SGD在每輪更新參數(shù)時(shí),僅隨機(jī)抽取一個(gè)樣本計(jì)算其梯度,并以此梯度為全局梯度的估計(jì)值。SGD的參數(shù)更新公式為:

wt+1=wt-αt?Lit(wt)

(5)

其中,αt為第t輪迭代的學(xué)習(xí)率,用于調(diào)整參數(shù)更新的幅度。為防止學(xué)習(xí)率過大而錯(cuò)過最優(yōu)解,常將其設(shè)置為一個(gè)遞減的序列。it∈{1,2,…,n}表示第t輪迭代中按均勻分布隨機(jī)抽取的樣本序號(hào)。

FFM模型使用帶L2正則項(xiàng)的logistic loss作為損失函數(shù),采用SGD來優(yōu)化損失函數(shù),選取單個(gè)樣本簡化損失函數(shù),公式為:

(6)

每次迭代時(shí)選取一個(gè)樣本數(shù)據(jù)點(diǎn)(y,x),對(duì)式(6)中ωj1,f2和ωj2,f1求偏導(dǎo)得:

gj1,f2=wj1,f2f(w)=λ·wj1,f2+k·wj2,f1xj1xj2

(7)

gj2,f1=wj2,f1f(w)=λ·wj2,f1+k·wj1,f2xj1xj2

(8)

其中,k為:

(9)

加入學(xué)習(xí)率提升SGD的訓(xùn)練效率,通過Adagrad算法自動(dòng)調(diào)整學(xué)習(xí)率。此時(shí),SGD(公式(5))的更新公式為:

(10)

(11)

其中,gt,j為第t輪第j個(gè)參數(shù)的梯度,是平滑項(xiàng),避免分母為0,式(11)的Gt,jj對(duì)角矩陣,對(duì)角線的值j是參數(shù)wj的平方和,隨著迭代次數(shù)的進(jìn)行,參數(shù)進(jìn)行累加,學(xué)習(xí)率逐漸減小。此時(shí)需要更新Gj1,f2與Gj2,f1,更新公式為:

Gj1,f2=Gj1,f2+(gj1,f2)2

(12)

Gj2,f1=Gj2,f1+(gj2,f1)2

(13)

最后更新模型參數(shù)為:

(14)

(15)

2 WB-FFM輸入法

FFM模型對(duì)特征數(shù)較多且稀疏問題有很好的適應(yīng)性,其根據(jù)歷史點(diǎn)擊率(Click-Through Rate,CTR)來提高向用戶推薦的準(zhǔn)確性,漢字輸入法在存在重碼的情況下通過候選窗口向用戶提供字詞選擇,且候選字詞也是高維、稀疏的。結(jié)合這些特點(diǎn),實(shí)現(xiàn)的基于FFM的五筆輸入法,利用用戶選擇候選詞的歷史記錄向用戶推薦最可能的字詞,提高了輸入效率和用戶體驗(yàn)。

2.1 訓(xùn)練集

把FFM用于五筆輸入推薦,首要的問題是如何得到訓(xùn)練集,通過提取微軟五筆輸入法(86版)的詞庫來達(dá)到這一目的。該詞庫包含了各字詞的編碼、用戶選擇次數(shù)和編碼長度,共有529 882個(gè)字詞。相對(duì)于編碼,編碼長度特征冗余,這里從數(shù)據(jù)集中去除該特征。

2.2 “場”的構(gòu)建

顯然,對(duì)訓(xùn)練集利用One-Hot[21]重構(gòu)特征后,其特征量相當(dāng)大。根據(jù)訓(xùn)練集的特點(diǎn),構(gòu)建3個(gè)“場”(見表1):

表1 訓(xùn)練集的“場”

?字詞。采用One-Hot構(gòu)造特征;

?編碼。采用One-Hot構(gòu)造特征;

?選擇次數(shù),即用戶輸入某字、詞的次數(shù)??紤]到如果對(duì)其重構(gòu)特征,需要對(duì)特征值離散化,不但會(huì)大大增加特征數(shù)量,而且會(huì)影響表示精度,所以這里不重構(gòu)特征(即1個(gè)特征)。

2.3 實(shí) 現(xiàn)

由于“場”的存在,需要把重構(gòu)特征后的數(shù)據(jù)轉(zhuǎn)化為“場標(biāo)識(shí):特征標(biāo)識(shí):值”格式(見表2)。當(dāng)特征是離散型時(shí),“值”固定為1,否則是歸一化后的字詞選擇次數(shù)。

表2 特征與“場”對(duì)應(yīng)標(biāo)識(shí)

SGD訓(xùn)練FFM模型見算法1。

算法1:SGD訓(xùn)練FFM

#分別是訓(xùn)練樣本集、驗(yàn)證樣本集和訓(xùn)練參數(shù)設(shè)置

輸入:(tr,va,pa)

輸出:model,Loss(損失函數(shù))

#特征數(shù)(tr.n)、場數(shù)(tr.m)和參數(shù)(pa)

model=init(tr.n,tr.m,pa)

Rtr=1,Rva=1

#歸一化的pa.norm為真,計(jì)算訓(xùn)練和驗(yàn)證樣本的系數(shù)

if pa.norm then

Rtr=norm(tr),Rva=norm(va)

end if

for it = 1,…,pa.itr do

#數(shù)據(jù)迭代,若新參數(shù)為真則打亂訓(xùn)練順序

if pa.rand then

tr.X=shuffle(tr.X)

end if

fori=1,…,tr.l do

#計(jì)算單個(gè)樣本的FFM輸出φ

φ=calcΦ(tr.X[i],Rtr[i],model)

eφ=exp{-tr.Y[i]*φ}

#計(jì)算樣本的訓(xùn)練誤差

Ltr=Ltr+log{1+eφ}

#單個(gè)樣本的損失函數(shù)計(jì)算梯度gΦ

gΦ=-tr.Y[i]*eφ/(1+eφ)

#再根據(jù)梯度更新model參數(shù)

model=update(tr.X[i],Rtr[i],model,gΦ)

end for

#驗(yàn)證樣本,計(jì)算樣本的FFM輸出并驗(yàn)證誤差

fori=1,…,va.l do

φ=calcΦ(va.X[i],Rva[i],model)

Lva=Lva+log{1+exp{-va.Y[i]*φ}}

end for

end for

訓(xùn)練好的模型用于WB-FFM輸入法(算法2)。

算法2:基于FFM的五筆輸入法

輸入:編碼D

輸出:用戶選擇的候選字詞Z

#檢查字詞庫,在字詞庫中匹配相應(yīng)編碼的字詞

#獲取用戶庫中匹配字詞HC(點(diǎn)擊次數(shù))

if HC>0 then

獲取用戶庫的HC

else

HC=1//字詞點(diǎn)擊次數(shù)為0,HC取值默認(rèn)為1

end if

#獲取字詞數(shù)據(jù),構(gòu)建FFM數(shù)據(jù)并預(yù)測候選字詞

SelectJdates(D)

#對(duì)候選字詞進(jìn)行排序,arr字詞的相關(guān)數(shù)據(jù)

bubbleSort(arr)

#用戶點(diǎn)擊相應(yīng)的字詞

ifZthen

#對(duì)應(yīng)用戶庫的字詞點(diǎn)擊次數(shù)累加+1

HC++

else

HC=1 #結(jié)束候選

end if

#WB-FFM清除候選字詞

return重新輸入D

3 實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)采用FM、MF[22]作為模型訓(xùn)練時(shí)的對(duì)比算法。FM采用LIBFM[23]方法實(shí)現(xiàn),LIBFM是一個(gè)廣泛使用的推薦系統(tǒng)矩陣分解庫,支持SGD等多種優(yōu)化方法,這里采用SGD,與FFM一致。MF采用LIBMF[24]方法實(shí)現(xiàn),LIBMF是一個(gè)用于潛在空間使用兩個(gè)矩陣的積來逼近一個(gè)不完整矩陣的開源工具庫;WB-FFM的FFM采用開源工具LIBFFM實(shí)現(xiàn)。實(shí)驗(yàn)采用邏輯損失對(duì)模型進(jìn)行性能評(píng)價(jià)。

另外,為測試WB-FFM輸入法的性能,還選擇了QQ、微軟、極點(diǎn)、陳橋、搜狗和王碼等6種常用五筆輸入法以及QQ和搜狗兩種常用拼音輸入法作為對(duì)比。

3.1 訓(xùn)練集

這里使用微軟五筆輸入法86版的字庫(節(jié)3.1),既作為WB-FFM、FM和LIBMF的訓(xùn)練集,也作為WB-FFM的字庫。經(jīng)過特征重構(gòu)后,共得到729 288個(gè)特征(見表3)。

表3 數(shù)據(jù)集特征數(shù)

3.2 模型構(gòu)建

主要通過實(shí)驗(yàn)的方法優(yōu)化FM、MF和FFM模型的參數(shù)。實(shí)驗(yàn)基于i7-7700HQ@2.80 GHz CPU、16 GB 內(nèi)存、Windows10系統(tǒng),C語言編程。算法需要調(diào)整的參數(shù)主要有模型的迭代次數(shù)(t)、學(xué)習(xí)率(η)、場/因素個(gè)數(shù)(k)、懲罰因子(λ)等。實(shí)驗(yàn)對(duì)不同算法最優(yōu)化:首先選取一個(gè)參數(shù)a作為優(yōu)化對(duì)象,其余參數(shù)設(shè)為默認(rèn)值;然后,在a的范圍內(nèi)(算法不同,范圍可能不同,以該算法最佳范圍為準(zhǔn))均勻取5個(gè)值對(duì)a進(jìn)行優(yōu)化;接著,固定a為最優(yōu)值,優(yōu)化第二個(gè)參數(shù),以此類推,優(yōu)化完所有參數(shù)(見圖1~圖3)。根據(jù)優(yōu)化后的參數(shù),測試了三種模型的性能(見表4、圖4)。

(a)η默認(rèn),調(diào)整k (b)k=30,調(diào)整η

(a)η,λ默認(rèn),調(diào)整k (b)λ默認(rèn),k=20,調(diào)整η (c)k=20,η=0.1,調(diào)整λ

(a)η,λ默認(rèn),調(diào)整k (b)λ默認(rèn),k=16,調(diào)整η (c)k=20,η=0.1,調(diào)整λ

圖4 不同模型的損失

表4 不同模型的性能比較

表4顯示,MF速度最快,這是因?yàn)樵撃P拖啾扔贔M和FFM來說,算法復(fù)雜度更低。另外,盡管FFM模型復(fù)雜度高于FM,但它有更小的k(表4)和更快的收斂速度(圖4),使得它的算法時(shí)間明顯小于FM。表4和圖4還顯示,FFM的對(duì)數(shù)損失明顯小于FM和MF,體現(xiàn)了該模型的優(yōu)越性。

3.3 現(xiàn)有輸入法比較

實(shí)驗(yàn)隨機(jī)從已發(fā)表的文獻(xiàn)中選取科技、體育、農(nóng)業(yè)、旅游、醫(yī)療、生態(tài)環(huán)境、航天科技、非文化遺產(chǎn)、商貿(mào)、法律共10段不同類型的文字,每段文字?jǐn)?shù)量200~300字,測試包括WB-FFM在內(nèi)的9種輸入法的性能。作對(duì)照的極點(diǎn)、QQ五筆、搜狗五筆、陳橋、QQ拼音和搜狗拼音6種輸入法具有按輸入次數(shù)排序、按最近輸入排序或有重碼時(shí)被選擇的候選項(xiàng)自動(dòng)調(diào)位至首位等“推薦”功能,測試前將它們的這些功能開啟。測試時(shí)每種輸入法按以上順序連續(xù)輸入10段文字,并統(tǒng)計(jì)候選字詞推薦到第一位的準(zhǔn)確率(見表5、圖5)。

圖5 第一候選準(zhǔn)確率

表5 第一候選平均準(zhǔn)確率 %

表5顯示,盡管王碼輸入法沒有“推薦”功能,但它的第一候選平均準(zhǔn)確率卻最高,這是因?yàn)?0段內(nèi)容來源于公開發(fā)表的文獻(xiàn),屬于較常用的文字,該輸入法會(huì)優(yōu)先推薦常用字(類似的原因,搜狗也獲得了較高的平均準(zhǔn)確率)。從圖5中可以看出,王碼輸入法的準(zhǔn)確率曲線幾乎平直,這是沒有“推薦”功能的表現(xiàn)。微軟輸入法也沒有“推薦”功能,但它的曲線出現(xiàn)了很大的波動(dòng),這應(yīng)該是它對(duì)漢字的“理解”遠(yuǎn)不如王碼所造成的。其它7種輸入法由于具有“推薦”功能,圖5顯示它們的準(zhǔn)確率逐步上升,且QQ五筆、極點(diǎn)、搜狗五筆和WB-FFM最終“收斂”到了與王碼基本相同的準(zhǔn)確率。表5和圖5還顯示,五筆輸入法第一候選準(zhǔn)確率明顯高于拼音輸入法,這是由于拼音輸入法的重碼率顯著高于五筆輸入法所造成的。另外,還統(tǒng)計(jì)了QQ和搜狗兩種拼音輸入法第一候選的平均碼長,分別為4.62和4.76(對(duì)于詞組的碼長以平均計(jì),如,“zg”為“中國”,則碼長為1),也高于五筆不高于4的碼長。

為了進(jìn)一步考察7種具有“推薦”功能的輸入法的“推薦”特性,把圖5作直線擬合,并計(jì)算對(duì)應(yīng)的斜率和方差(見表6)。表6顯示W(wǎng)B-FFM的斜率和方差都比較小。較小的斜率說明它的“推薦”比較溫和,較小的方差意味著算法穩(wěn)健性較高,可減小過擬合風(fēng)險(xiǎn)。需要說明的是,盡管搜狗五筆的斜率和方差最小,但它的斜率幾乎為零,會(huì)導(dǎo)致“推薦”收斂過慢甚至不收斂。

表6 輸入法第一候選準(zhǔn)確率線性擬合

實(shí)驗(yàn)還選取了常用、生僻等共15個(gè)不同類型的字和詞以進(jìn)一步探索7種具有“推薦”功能的輸入法的“推薦”能力。每組字、詞連續(xù)重復(fù)輸入10次,并統(tǒng)計(jì)各輸入法第一候字詞選準(zhǔn)確率(見表7、圖6)。之所以使用生僻字和詞組,是考慮到這類字和詞在各輸入法的歷史記錄基本為零。

圖6 第一候選字詞準(zhǔn)確率隨測試次數(shù)的變化

表7 輸入法第一候選字詞最終準(zhǔn)確率 %

表7顯示,無論常用或生僻字詞,WB-FFM的最終準(zhǔn)確率位列第二,僅常用字低于QQ拼音,綜合考慮圖5和表6,該輸入法整體“推薦”能力優(yōu)于現(xiàn)有方法。另外,圖6顯示了各輸入法“推薦”準(zhǔn)確率隨測試次數(shù)的增加而增加,符合推薦算法會(huì)利用歷史記錄的思想。在對(duì)常用字的“推薦”上(圖6(a)),WB-FFM并無特別之處,這是因?yàn)橐话愕臐h字輸入法在常用字的處理上都比較成熟。但圖6(b)~(d)中,WB-FFM的準(zhǔn)確率的提升比較穩(wěn)健,明顯優(yōu)于其它輸入法,說明其“推薦”穩(wěn)健性優(yōu)于其它輸入法。

4 結(jié)束語

輸入法是人們使用計(jì)算機(jī)的最基本需求。如今,人們手寫漢字的機(jī)會(huì)大大減少,對(duì)熟悉的字變得生疏,加上拼音等易用的漢字輸入法的廣泛使用,使得“提筆忘字”等現(xiàn)象越來越嚴(yán)重。五筆字型輸入法可較好地表征漢字字型,對(duì)改善人們“提筆忘字”有一定的幫助。研究把FFM推薦算法應(yīng)用到五筆字型輸入法,以期提高第一候選字詞的推薦性能,降低五筆輸入法的使用難度,增加用戶的使用粘性。

實(shí)驗(yàn)表明,提出的結(jié)合FFM算法的五筆輸入法WB-FFM的第一候選字詞的推薦準(zhǔn)確率和推薦穩(wěn)健性均高于現(xiàn)有輸入法,驗(yàn)證了推薦算法在輸入中的應(yīng)用優(yōu)勢。WB-FFM良好的推薦能力和較短的碼長,增加了五筆輸入法的易用性,但與流行的拼音輸入法相比,其較高的入門門檻還有待于今后進(jìn)一步探索。

猜你喜歡
輸入法梯度準(zhǔn)確率
一個(gè)改進(jìn)的WYL型三項(xiàng)共軛梯度法
要命的輸入法
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
健康之家(2021年19期)2021-05-23 11:17:39
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
一種自適應(yīng)Dai-Liao共軛梯度法
一類扭積形式的梯度近Ricci孤立子
高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
百度被訴侵犯商標(biāo)權(quán)和不正當(dāng)競爭
河南科技(2014年3期)2014-02-27 14:05:45
高清| 本溪市| 贵港市| 托里县| 宝丰县| 仁怀市| 酒泉市| 庆安县| 乐陵市| 昆明市| 靖宇县| 辰溪县| 洛南县| 武邑县| 和林格尔县| 湛江市| 黄石市| 丹阳市| 呼玛县| 高平市| 马公市| 西充县| 平潭县| 北京市| 凤凰县| 蛟河市| 凯里市| 涟水县| 平凉市| 贺州市| 木兰县| 二手房| 东源县| 孟连| 佳木斯市| 同德县| 汝州市| 会同县| 麻城市| 瓦房店市| 阿拉善左旗|