国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

數(shù)據(jù)分析服務(wù)流程模型推薦

2019-07-09 11:43曾兆偉
關(guān)鍵詞:相似性準(zhǔn)確率距離

曾兆偉,曹 健

(上海交通大學(xué) 計算機(jī)科學(xué)與工程系,上海 200240)

1 引 言

當(dāng)前數(shù)據(jù)分析服務(wù)在許多領(lǐng)域已經(jīng)變得至關(guān)重要.但同時,由于數(shù)據(jù)和方法的多樣性,執(zhí)行數(shù)據(jù)分析可能是一項非常復(fù)雜的任務(wù).例如數(shù)據(jù)分析中經(jīng)典的案例——嘗試預(yù)測數(shù)據(jù)內(nèi)存在異常情況時的信用風(fēng)險,其模型便十分復(fù)雜.一般這些數(shù)據(jù)分析服務(wù)工作流模型都是由專業(yè)的數(shù)據(jù)分析人員進(jìn)行建立的,對于經(jīng)驗不足的人員來說,建立此數(shù)據(jù)分析服務(wù)工作流模型是一件具有挑戰(zhàn)性的任務(wù).而對于經(jīng)驗豐富的專業(yè)人員來說,這項任務(wù)同時也是十分費時費力的.

與此同時由于數(shù)據(jù)分析模型的多樣性,用戶想找到相似的模型進(jìn)行借鑒或者復(fù)用時,也往往十分困難.如在流行的數(shù)據(jù)分析服務(wù)平臺OpenML上,用戶在上面上傳數(shù)據(jù)集,對數(shù)據(jù)集創(chuàng)建相應(yīng)的數(shù)據(jù)分析任務(wù),構(gòu)建模型,并挑選模型在數(shù)據(jù)集上運行、分析.但在OpenML上其存在著20,000左右用戶上傳的數(shù)據(jù)集,針對這些數(shù)據(jù)集用戶創(chuàng)建了68,000左右的數(shù)據(jù)分析任務(wù),并且構(gòu)建約6,000個左右模型,在這些數(shù)據(jù)集上共運行了9,000,000次模型.用戶如果想要通過數(shù)據(jù)集的相似性或者模型的運行記錄來人工挑出一個符合當(dāng)前數(shù)據(jù)集的模型,過程將十分困難并浪費精力.

因此對于數(shù)據(jù)分析人員進(jìn)行專業(yè)和符合需求的數(shù)據(jù)分析工作流模型推薦是十分必要的.其一方面可以節(jié)省分析人員的時間,另一方面可以復(fù)用過去已建立的模型,無需用戶自己從頭構(gòu)建模型,對建好的模型重復(fù)使用,節(jié)省成本.當(dāng)前研究和市場上,也已經(jīng)存在有相關(guān)的產(chǎn)品,如Microsoft的Azure機(jī)器學(xué)習(xí)平臺,和德國的RapidMiner數(shù)據(jù)挖掘平臺.但它們都或多或少存在一些不足之處或者可改進(jìn)的地方,如RapidMiner通過用戶在設(shè)計數(shù)據(jù)分析工作流模型的過程中,針對用戶當(dāng)前所設(shè)計完成的步驟,通過算法和庫中存在的模型進(jìn)行比較,然后為用戶推薦模型下一步的設(shè)計方案.但是,其沒將數(shù)據(jù)的上下文信息考慮在內(nèi),即數(shù)據(jù)的特征和用戶的對分析結(jié)果的偏好(如非誤率等),而這些信息對于模型推薦的準(zhǔn)確率的影響是十分之大的.比如,兩個數(shù)據(jù)集如果具有相似的特征,那么他們的數(shù)據(jù)分析工作流模型就有可能是相似的,可以復(fù)用的.同時,對于模型而言,其一般存在著文本語義標(biāo)簽,用以對于模型進(jìn)行描述.因此在設(shè)計模型時,同樣可以通過文本語義進(jìn)行推薦,提高準(zhǔn)確率和效率.

對于數(shù)據(jù)分析服務(wù)模型推薦,本文擬從每個用戶最基本的上傳信息入手,即數(shù)據(jù)集數(shù)據(jù)和文本描述信息.相比起傳統(tǒng)的在用戶建模過程中推薦下一步應(yīng)該如何構(gòu)建,本文通過數(shù)據(jù)集數(shù)據(jù)和文本描述信息在一開始為用戶進(jìn)行推薦,其一方面節(jié)省用戶的時間,不需要從頭開始構(gòu)建自己的數(shù)據(jù)分析服務(wù)流程模型,另一方面也可和傳統(tǒng)的建模過程中模型推薦相互補(bǔ)充.

本文基于OpenML數(shù)據(jù)分析服務(wù)平臺,通過針對數(shù)據(jù)集的數(shù)據(jù)特征和文本描述為用戶提供數(shù)據(jù)分析服務(wù)模型推薦.第二部分為背景與相關(guān)工作的介紹;第三部分直觀地介紹了進(jìn)行模型推薦的總體流程;第四部分介紹了文中所用算法的一些基本概念;第五部分詳細(xì)介紹了所使用的算法;第六部分為實驗的結(jié)果;最后對本文進(jìn)行總結(jié)與展望.

2 相關(guān)工作

工作流(服務(wù)流程)模型推薦,現(xiàn)有主要分為傳統(tǒng)的業(yè)務(wù)工作流模型推薦和隨著數(shù)據(jù)挖掘、大數(shù)據(jù)興起的數(shù)據(jù)分析工作流模型推薦.

對于傳統(tǒng)的業(yè)務(wù)工作流模型推薦[1],各種研究已較為完善[2-5],算法已較為成熟.目前主流的算法主要分為:分類(Classification)、概率圖模型(Probabilistic Graphical Models)[6].其中分類又主要分為:聚類(Clustering methods)、決策樹(Decision trees).概率圖模型又分為貝葉斯網(wǎng)絡(luò)(Bayesian networks)、馬爾科夫鏈(Markov Chains).它們都能較好的進(jìn)行業(yè)務(wù)工作流模型的推薦.

而對于數(shù)據(jù)分析工作流模型推薦,一開始研究者們紛紛借鑒了業(yè)務(wù)工作流模型推薦的方法.在用戶設(shè)計模型時,對模型進(jìn)行解析,與數(shù)據(jù)庫中模型進(jìn)行比較,為用戶推薦模型下一步構(gòu)建步驟[7,8].常見的方法有:上下文感知的KNN方法(A Context-Aware kNN Method)[9]、上下文感知共現(xiàn)方法(A Context-Aware Co-Occurrence Method)[10]、基于鏈接的方法(A Linked-Based Method)、基于鏈的方法(A Chain-Based Method)等等.

以上方法將傳統(tǒng)的模型推薦算法結(jié)合上下文信息,應(yīng)用于數(shù)據(jù)服務(wù)流程模型推薦上,確實提高了推薦的準(zhǔn)確率,但其同時也存在一些問題:

1)只考慮了模型的信息,但是數(shù)據(jù)分析工作流與傳統(tǒng)的業(yè)務(wù)工作流不同,還需要考慮數(shù)據(jù)的特征.相比起傳統(tǒng)的業(yè)務(wù)工作流模型,數(shù)據(jù)分析服務(wù)流程模型其擁有豐富的數(shù)據(jù)集信息,通過數(shù)據(jù)集信息的特征比較挖掘,往往能使得模型推薦擁有更好的效果.

2)可以利用模型描述的文本描述語義標(biāo)簽,將其加入預(yù)測因子中,提高推薦的準(zhǔn)確率.對于數(shù)據(jù)分析服務(wù)流程,其文本描述信息常常包含著其設(shè)計者所需達(dá)到的目標(biāo)或是偏好,如其可能更加偏向非誤率等,這些信息對于模型推薦的結(jié)果有很大的影響,需將其考慮在內(nèi),用以提高模型推薦的準(zhǔn)確率.

3 模型推薦

對于數(shù)據(jù)分析服務(wù)流程模型推薦,通過從OpenML下載數(shù)據(jù)集、模型、模型運行信息,其中可以直觀的觀察到在數(shù)據(jù)集中可以用于模型推薦的信息有數(shù)據(jù)集的數(shù)據(jù)信息和數(shù)據(jù)集的文本描述信息.然而,直接用數(shù)據(jù)集數(shù)據(jù)信息和文本信息進(jìn)行模型推薦是較為難以做到的.

圖1 全局模型推薦步驟Fig.1 Global model recommendation steps

故對于數(shù)據(jù)集數(shù)據(jù),如圖1所示,其可以在之上進(jìn)行特征的提取,將數(shù)據(jù)信息轉(zhuǎn)化為數(shù)字的模型特征.之后便可以利用協(xié)同過濾計算相似性.

同時,對于文本描述信息,其可以轉(zhuǎn)換為計算文本相似性.同時,可以通過轉(zhuǎn)換為文本多分類問題計算模型的類型,提高準(zhǔn)確率.

4 基本概念

文本相似性:由于文本相似性在不同領(lǐng)域其內(nèi)涵有所不同,因此沒有統(tǒng)一公認(rèn)的定義.從信息論的角度而言,文本相似度與文本之間的共性和差異有關(guān),當(dāng)文本之間的共性越大、差異越小時,則相似度越高;當(dāng)文本之間的共性越小、差異越大,則相似度越低.文本完全相同便是相似度最大的情況.基于假設(shè)可以推論出相似度定理,如公式(1)所示.

(1)

其中,common(A,B)是描述文本A和B的共性信息,description(A,B)是描述A和B的全部信息,從公式(1)可以看出相似度與文本共性成正相關(guān).同時在實際應(yīng)用中其計算文本相似性主要的方法有如圖2所示.

協(xié)同過濾[11]:協(xié)同過濾是利用集體智慧的一個典型方法,其主要目的便是預(yù)測和推薦.協(xié)同過濾算法的核心思想便是:人以類聚,物以群分.其通過對用戶歷史行為數(shù)據(jù)進(jìn)行挖掘,發(fā)現(xiàn)用戶的偏好,基于用戶不同的偏好為用戶進(jìn)行群組劃分,并且為各個群組推薦符合用戶偏好的商品.

圖2 文本相似度計算方法分類Fig.2 Text similarity calculation method category

協(xié)同過濾算法主要可以分為兩類:基于用戶的協(xié)同過濾算法(user-based collaborative filtering)和基于用戶的協(xié)同過濾算法(item-based collaborative filtering).

其中,協(xié)同過濾算法最重要的便是相似度的度量.相似性的度量的方法有很多種,不同的度量方法適用于不同的應(yīng)用.相似性度量方法的設(shè)計也是機(jī)器學(xué)習(xí)算法設(shè)計中很重要的一部分,尤其是對于聚類算法,推薦系統(tǒng)這類算法.

相似性的度量方法必須滿足拓?fù)鋵W(xué)中的度量空間的基本條件:

假設(shè)d是度量空間M上的度量:d:M×M→R,其中度量d滿足:

非負(fù)性:d(x,y)≥0,當(dāng)且僅當(dāng)x=y時取等號;

對稱性:d(x,y)=d(y,x);

三角不等性:d(x,z)≤d(x,y)+d(y,z)

這里主要介紹三種相似性的度量方法:歐式距離、皮爾遜相關(guān)系數(shù)和余弦相似度.

歐式距離,即歐幾里德距離(Euclidean Distance)最初用于計算歐幾里德空間中兩個點的直線距離.假設(shè)點x和y是n維空間的兩個點,它們之間的歐幾里德距離計算公式為:

(2)

可以看出,當(dāng)n=2時,歐幾里德距離即為平面上兩個點的直線距離.用歐幾里德距離表示相似度時,一般采用公式(3)進(jìn)行轉(zhuǎn)換:

(3)

由公式可以看出,當(dāng)x,y間距離越小,它們的相似度便越大.

皮爾遜相關(guān)系數(shù)(Pearson Correlation Coefficient)則一般用于計算兩個定距變量間聯(lián)系的緊密程度,它的取值在 [-1,+1] 之間.在歐氏距離的計算中,不同特征之間的量級對歐氏距離的影響比較大,例如A=(0.05,1),B=(1,1)和C=(0.05,4),我們就不能很好的利用歐式距離判A和B,A和C之間的相似性的大小.而皮爾遜相似性的度量就對量級不敏感:

(4)

sx,sy是x和y的樣品標(biāo)準(zhǔn)差.

余弦相似性[12](Cosine Similarity)則為計算兩個向量的夾角,有著與皮爾遜相似度同樣的性質(zhì),對量級不敏感,被廣泛應(yīng)用于計算文檔數(shù)據(jù)的相似度:

(5)

5 算 法

利用數(shù)據(jù)文本描述信息和特征進(jìn)行數(shù)據(jù)分析服務(wù)流程模型推薦,本文利用OpenML上的數(shù)據(jù)集及模型數(shù)據(jù)信息,其構(gòu)建模型步驟如圖3所示.

1)對數(shù)據(jù)集及模型信息進(jìn)行預(yù)處理;

2)提取數(shù)據(jù)集數(shù)據(jù)特征;

3)提取數(shù)據(jù)集文本描述特征;

4)利用數(shù)據(jù)集數(shù)據(jù)和文本特征構(gòu)建SVM模型類型分類器,得到模型類型;

5)利用協(xié)同過濾算法計算數(shù)據(jù)集間數(shù)據(jù)特征和文本描述信息特征的相似性,根據(jù)相似性和模型類型推薦模型.

圖3 模型推薦具體步驟Fig.3 Model recommended specific steps

5.1 數(shù)據(jù)預(yù)處理

實驗基于數(shù)據(jù)集基于OpenML,主要包括數(shù)據(jù)集數(shù)據(jù),數(shù)據(jù)集文本描述信息,各個數(shù)據(jù)集上模型運行信息等.

首先過濾數(shù)據(jù)集信息,對于在上面運行模型次數(shù)少于100次的數(shù)據(jù)集,因為其信息不足,進(jìn)行排除.

然后標(biāo)注各個數(shù)據(jù)集上的“最佳模型”,并得到此模型的模型類型.在此考慮最佳模型主要有兩方面影響因子:模型在此數(shù)據(jù)集上運行得到的準(zhǔn)確率accuracy,模型被用戶運行次數(shù)runTime.可以根據(jù)如下公式進(jìn)行歸一化處理,并得到評分最高的模型.

(6)

其中,A為準(zhǔn)確率,R為單個模型運行次數(shù),R′為數(shù)據(jù)集上所有模型總運行次數(shù),α和β為歸一化因子.

當(dāng)然定義模型運行好壞與否不一定只取決于運行得到的準(zhǔn)確率,還有模型的ROC曲線等,其也可以類比帶入公式,并將其擴(kuò)展.

一般為取最佳運行效果或最多運行次數(shù),故根據(jù)各個模型取出此兩種評價因子,然后計算評分,即可得到各個數(shù)據(jù)集對應(yīng)的最佳模型.

5.2 數(shù)據(jù)集特征信息挖掘

對于數(shù)據(jù)集特征,可以對數(shù)據(jù)集進(jìn)行統(tǒng)計分析,參考OpenML可得到119個特征.利用這些特性可以得知數(shù)據(jù)集的一些特性,如數(shù)據(jù)集實例數(shù)目,數(shù)據(jù)集屬性數(shù)目,數(shù)字屬性數(shù)目,文本屬性數(shù)目等.同時,這些特征本身也都屬于數(shù)字特征,故可以很直接的用于后面的協(xié)同過濾推薦中.

5.3 文本描述信息挖掘

對于同類數(shù)據(jù)集的文本描述信息,其往往隱藏著相似的信息,如數(shù)據(jù)集來源、用戶偏好等等.對于文本信息挖掘,其第一步便是進(jìn)行分詞.對于英文,其天然有空格隔開,可以按照空格分詞.而對于中文則需要使用相應(yīng)的算法來進(jìn)行分詞,可以使用現(xiàn)成的分詞工具jieba等.由于本實驗采用基于OpenML的數(shù)據(jù)集,其文本描述信息英文直接分詞便可,但需要處理無用的介詞,如on等,將其篩選掉,減少無用信息.

第二步便是特征工程.在這一步,將分詞后的文本數(shù)據(jù)轉(zhuǎn)換為特征向量.為了從文本數(shù)據(jù)中選出重要的特征,有以下幾種方式:計數(shù)向量作為特征,TF-IDF向量作為特征,詞嵌入作為特征,基于文本NLP的特征,主題模型作為特征等等.

本文推薦采用TF-IDF向量[13]或NLP[14].TF-IDF(Term Frequency-Inverse Document Frequency,詞頻-逆文件頻率)是一種常用于資訊檢索與資訊探勘的加權(quán)技術(shù).TF-IDF采用統(tǒng)計方法,用以表示字詞在文件集中的一份文件的重要程度,當(dāng)該字詞在本文件出現(xiàn)頻率越高,同時在整個文件集中出現(xiàn)頻率越低,該字詞就越加重要,越能代表該文件.即TF-IDF與一個詞語在一篇文章中出現(xiàn)次數(shù)成正相關(guān),與在所有文章中出現(xiàn)次數(shù)成負(fù)相關(guān).

其中,TF(term frequency,詞頻)指的是某一個給定的詞語在給定的該文件中出現(xiàn)的頻率.IDF(inverse document frequency,逆向文件頻率)指的是如果包含詞條t的文件總數(shù)越少,IDF越大,說明詞條具有很好的類別區(qū)分能力.其公式可表示如下:

(7)

(8)

TF-IDF=TF*IDF

(9)

并且,由于一般分詞后詞語數(shù)量較多,如果取所有詞語進(jìn)行TF-IDF向量計算,則一是特征值過多,后面協(xié)同過濾計算也較慢;二是特征過于稀疏,故一般取TF-IDF值前M個詞語進(jìn)行代表該文本的TF-IDF值.

5.4 訓(xùn)練模型類型分類器

利用之前創(chuàng)建的數(shù)據(jù)集數(shù)據(jù)和文本特征可以訓(xùn)練一個分類器,用來判斷數(shù)據(jù)集屬于哪種類型的問題.常用的方法有SVM[15-18],KNN,LLSF,NNet等.其中,參考復(fù)旦大學(xué)自然語言處理實驗室使用不同分類算法對基準(zhǔn)語料進(jìn)行測試的結(jié)果.這一基準(zhǔn)預(yù)料共有9804篇訓(xùn)練文檔,9833篇測試文檔,并分為20類.在經(jīng)過預(yù)處理之后,各個分類方法的性能指標(biāo)如表1所示.

其中F1測度是綜合了召回率與準(zhǔn)確率的指標(biāo),當(dāng)兩個值都比較大的時候,對應(yīng)的F1測度才會比較大,因此F1測度比單一的召回率或準(zhǔn)確率更加具有代表性,更能體現(xiàn)性能的好壞.由比較結(jié)果不難看出,用SVM算法來進(jìn)行分類器的訓(xùn)練能取得較好的結(jié)果.

表1 復(fù)旦大學(xué)分類算法性能
Table 1 Fudan University classification algorithm performance

分類算法召回率準(zhǔn)確率F1測度支持向量機(jī)(SVM)80.2%90.2%84.9%K近鄰算法(KNN)82.3%86.3%84.3%線性最小平方擬合算法(LLSF)84.2%85.3%84.8%神經(jīng)網(wǎng)絡(luò)分類算法(NNet)75.3%79.8%77.5%樸素貝葉斯概率分類算法73.4%78.3%75.8%

SVM 算法有很堅實的理論基礎(chǔ),SVM 算法的本質(zhì)是解決一個二次規(guī)劃問題(Quadruple Programming),用其進(jìn)行文本分類效果很好,是最好的分類器之一.同時SVM算法可以使用核函數(shù)將原始的樣本空間向高維空間進(jìn)行變換,進(jìn)而能夠解決原始樣本線性不可分的問題.

通過SVM訓(xùn)練特征為TF-IDF向量的文本,預(yù)測數(shù)據(jù)集所屬的模型類型,一般有分類、回歸、聚類、子集劃分等幾種模型類型.

5.5 協(xié)同過濾模型推薦

通過利用以上的文本分析所得的數(shù)據(jù)集所屬模型類型,TF-IDF文本特征向量,數(shù)據(jù)集特征值進(jìn)行協(xié)同過濾得到推薦模型.即先利用TF-IDF向量和數(shù)據(jù)集特征值進(jìn)行協(xié)同過濾[19-22],然后得到數(shù)據(jù)集集合中與該數(shù)據(jù)集的相似矩陣,然后判斷其數(shù)據(jù)集的最佳模型是否屬于由SVM所得的模型類型,然后得到相似性最高的Top k個數(shù)據(jù)集的最佳模型.

5.6 算法實例

對OpenML上數(shù)據(jù)集anneal(id=2)進(jìn)行驗證并進(jìn)行模型推薦.對其數(shù)據(jù)集數(shù)據(jù)特征提取,可得到如表2所示.

表2 數(shù)據(jù)集數(shù)據(jù)特征
Table 2 Feature of data set

數(shù)據(jù)集名稱Credit-g實例數(shù)目 898屬性數(shù)目 39數(shù)字屬性數(shù)目6文本屬性數(shù)目33… …

對其文本描述信息進(jìn)行特征提取,轉(zhuǎn)化為TF-IDF向量,如表3所示.

表3 文本TF-IDF向量
Table 3 Text TF-IDF vector

單詞坐標(biāo)TF-IDF值(0,2340)0.0804(0,869)0.1040(0,745)0.088(0,2326)0.2317……

然后通過代入SVM分類器,得到模型類型為有監(jiān)督分類(Supervised Classification).

最后,利用歐氏距離處理TF-IDF向量,利用余弦相似度處理數(shù)據(jù)集數(shù)據(jù)特征,協(xié)同過濾得到推薦模型Top1為:weka.J48(1).Top5為:weka.J48(1),weka.SMO_RBFKernel,weka.ZeroR(1),weka.RandomForest(1),weka.weka.NaiveBayes(1).而通過分析任務(wù)運行信息得出的定義最佳模型為:weka.J48(1),故通過模型推薦結(jié)果符合實際情況.

6 實驗結(jié)果

6.1 實驗數(shù)據(jù)平臺介紹

OpenML是一個開放,協(xié)作,自動化的數(shù)據(jù)分析、機(jī)器學(xué)習(xí)平臺.其主要由數(shù)據(jù)集、任務(wù)、模型、運行情況構(gòu)成.

數(shù)據(jù)集,即用戶所需進(jìn)行數(shù)據(jù)分析工作上傳的數(shù)據(jù)集合,它們是由許多實例構(gòu)成,通常以表格形式呈現(xiàn).

任務(wù)由一個數(shù)據(jù)集和一個數(shù)據(jù)分析任務(wù)組成,如分類或聚類以及評估方法.對于監(jiān)督任務(wù),這也指數(shù)據(jù)中的目標(biāo)所代表的列.

模型指從特定的庫或框架(如Weka,mlr或scikit-learn)中識別特定的機(jī)器學(xué)習(xí)算法構(gòu)成的工作流流程.

運行是特定的流程,即模型和具有特定的參數(shù)設(shè)置,適用于特定的任務(wù).

用戶在OpenML上面上傳數(shù)據(jù)集,對數(shù)據(jù)集創(chuàng)建任務(wù),構(gòu)建模型,挑選模型在任務(wù)上運行.在OpenML上共有2萬左右用戶上傳的數(shù)據(jù)集,對于這些數(shù)據(jù)集用戶創(chuàng)建了6萬8千左右的數(shù)據(jù)分析任務(wù),構(gòu)建了約6千個左右模型,在這些任務(wù)(數(shù)據(jù)集)上共運行了9百萬次模型.實驗通過API接口獲取這些數(shù)據(jù),對模型和運行信息分析,得到對應(yīng)數(shù)據(jù)集的最佳模型,并將全部數(shù)據(jù)集分為訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集.接著對數(shù)據(jù)集數(shù)據(jù)信息和數(shù)據(jù)集文本描述信息進(jìn)行特征提取,模型分類,模型推薦.

6.2 文本特征提取方法比較

首先,過濾運行次數(shù)不足100的數(shù)據(jù)集,然后對于公式(1)中α,β各取0.5,然后對于1814個數(shù)據(jù)集進(jìn)行上述實驗,對比實驗各種不同的文本特征提取方法,得到結(jié)果為表4.

表4 文本特征提取方法比較
Table 4 Comparison of text feature extraction methods

文本特征提取方法Top1Top5直接使用最流行模型25.8%50.3%TF-IDF39.4%77.5%計數(shù)向量33.6%65.8%基于文本/NLP的特征38.4%78.5%

由上述表格可以看到,在利用數(shù)據(jù)集特征和文本描述信息計算數(shù)據(jù)集相似性以推薦模型時,不同文本特征提取方法對結(jié)果的影響.

對比直接使用最流行模型,即使用人數(shù)最多的模型進(jìn)行推薦,可以看到還是能取得不錯的效果.對于使用最流行的一個模型進(jìn)行推薦,其準(zhǔn)確率可以達(dá)到25.8%,使用最流行的5個模型進(jìn)行推薦,其準(zhǔn)確率可以達(dá)到50%左右.當(dāng)然,隨著數(shù)據(jù)集和模型數(shù)量的增長,該準(zhǔn)確率也會降低.

而當(dāng)使用上述算法進(jìn)行構(gòu)建、推薦時,可以看到使用TF-IDF和NLP進(jìn)行文本特征表示效果最好,同時也能較為明顯的提升了模型推薦的準(zhǔn)確率.對比計數(shù)向量,TF-IDF向量考慮到了逆文檔頻率,更加能夠體現(xiàn)出不同文本信息之間的區(qū)別.而NLP也通過構(gòu)建語言模型,提取特征更加豐富準(zhǔn)確.而從效率方便性來看,TF-IDF特征向量要更加簡便.

6.3 相似性距離計算方法對比

其次,當(dāng)令α,β各取0.5,文本特征提取方法使用TF-IDF特征向量時,對比不同相似性距離計算方法如表5所示.

表5 相似性距離計算方法對比
Table 5 Comparison of similarity distance calculation methods

數(shù)據(jù)集特征 文本描述 準(zhǔn)確率(Top5)歐式距離歐式距離66.1%歐式距離余弦相似度67.0%余弦相似度余弦相似度76.8%余弦相似度歐式距離77.5%

因為皮爾遜相關(guān)系數(shù)和余弦相似度效果類似,同時皮爾遜相關(guān)系數(shù)值區(qū)間為[-1,1]要將其轉(zhuǎn)換,并和歐氏距離等進(jìn)行合并比較麻煩,故此處不將皮爾遜相關(guān)系數(shù)進(jìn)行比較.

結(jié)果如表5所示,分析可得,對于數(shù)據(jù)集特征,使用余弦相似性進(jìn)行計算明顯要比歐氏距離要好.分析其原因應(yīng)該是因為數(shù)據(jù)集數(shù)字特征之間量級相差可能較大,用歐式距離進(jìn)行計算較難以準(zhǔn)確算出相似性,而余弦相似性在處理量級相差較大的特征時明顯比歐式距離好.對于文本描述信息,其使用余弦相似度和歐式距離進(jìn)行計算差別不大,因為在使用TF-IDF特征向量進(jìn)行文本特征表示后,其值都為[0,1]之間,故兩者并無太大區(qū)別.

6.4 模型分類影響

在處理文本描述信息中,我們先將其利用SVM多進(jìn)行文本多分類,得到數(shù)據(jù)集所屬的模型類型,然后利用此信息對協(xié)同過濾得到的模型進(jìn)行過濾.對于模型分類,其準(zhǔn)確率為89.7%.

而當(dāng)令α,β各取0.5,文本特征提取方法使用TF-IDF特征向量,數(shù)據(jù)集特征距離計算方法使用余弦相似度,文本描述使用歐式距離計算時,其對比結(jié)果如表6所示.

表6 模型分類準(zhǔn)確率影響
Table 6 Model classification accuracy rate impact

是否分類準(zhǔn)確率(Top5)SVM分類得到模型類型77.5%無分類68.9%

由表6可以看出,利用SVM算法先對文本描述信息進(jìn)行分類,得到數(shù)據(jù)集所屬模型類型,對得到準(zhǔn)確的模型有較為明顯的提升.

6.5 最佳模型計算方法對比

最后,當(dāng)文本特征提取方法使用TF-IDF特征向量,數(shù)據(jù)集特征距離計算方法使用余弦相似度,文本描述使用歐式距離計算,并使用SVM分類得到模型類型,α,β取不同值對模型推薦的準(zhǔn)確率影響如表7所示.

由表7可以看出,當(dāng)取最佳模型只考慮模型運行時準(zhǔn)確率時,取得的最佳模型在算法模型推薦時效果最差.當(dāng)取最佳模型只考慮流行度或者說模型運行次數(shù)時,取得的最佳模型在算法模型推薦時效果最好.

其原因是因為當(dāng)只考慮模型運行準(zhǔn)確率時,各個數(shù)據(jù)集的模型運行的準(zhǔn)確率可能有偶然性,同時最佳模型的種類也會更多,各個數(shù)據(jù)集上最佳模型相似性也會更低.反之,當(dāng)只考慮流行程度時,最佳模型的種類將會大大減少,模型推薦的準(zhǔn)確率相對而言會更高,但這并不代表模型推薦的效果會更好.因為對于用戶而言,不僅僅考慮模型的流行度,模型的準(zhǔn)確率也是重要的考慮因素,故需對其取一個平衡,均衡考慮.

表7 最佳模型計算方法對比
Table 7 Comparison of the best model calculation methods

模型準(zhǔn)確率運行次數(shù)準(zhǔn)確率(Top5)α=1.0β=063.6%α=0β=1.081.7%α=0.5β=0.577.5%

7 結(jié)論與展望

本文針對當(dāng)前流行的數(shù)據(jù)分析服務(wù)流程提出了基于數(shù)據(jù)集的模型推薦方法,通過對數(shù)據(jù)集數(shù)據(jù)和文本描述信息特征的提取,使用SVM分類對其進(jìn)行模型類型的預(yù)測,再綜合協(xié)同過濾算法對其進(jìn)行模型推薦.

本文針對數(shù)據(jù)集數(shù)據(jù)特征和文本描述信息,實驗了多種方法,在其之上定義了最佳模型的計算方法,實驗了三種文本特征表示方法:計數(shù)向量,TF-IDF,NLP方法,并在其上驗證了多種距離計算方法對模型推薦效果的影響.

實驗結(jié)果可以發(fā)現(xiàn),通過數(shù)據(jù)集數(shù)據(jù)特征和文本描述信息能較好進(jìn)行模型推薦,可以大大節(jié)省用戶建模時間,讓模型可以充分被重復(fù)利用.

當(dāng)然,實驗也存在一些不足之處,和接下來進(jìn)一步優(yōu)化目標(biāo):

1)可將用戶的偏好從文本描述信息中抽取出來,或者通過標(biāo)注訓(xùn)練的方法從文本描述信息中得到用戶偏好.

2)可以進(jìn)一步分析數(shù)據(jù)集規(guī)模和模型推薦準(zhǔn)確性的關(guān)系.

3)利用TF-IDF向量進(jìn)行計算文本描述信息相似性,對于每個新的數(shù)據(jù)集每次都要重新開頭計算.可以考慮使用其他文本特征表示方法在不失準(zhǔn)確率的情況下提高效率.

猜你喜歡
相似性準(zhǔn)確率距離
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
頸椎病患者使用X線平片和CT影像診斷的臨床準(zhǔn)確率比照觀察
淺析當(dāng)代中西方繪畫的相似性
算距離
12個毫無違和感的奇妙動物組合
基于隱喻相似性研究[血]的慣用句
每次失敗都會距離成功更近一步
愛的距離
临海市| 遵义市| 昭苏县| 故城县| 高陵县| 临海市| 中超| 永仁县| 界首市| 江安县| 宁海县| 曲水县| 达拉特旗| 田林县| 荣昌县| 黎城县| 宁海县| 古田县| 独山县| 长武县| 师宗县| 瓮安县| 道孚县| 平邑县| 大同县| 丰宁| 嵩明县| 南靖县| 社会| 兴安县| 同江市| 永胜县| 栖霞市| 崇信县| 淮南市| 梓潼县| 离岛区| 滁州市| 巴彦县| 阿鲁科尔沁旗| 资源县|