王 濤
摘 要 隨著大數(shù)據(jù)時代的來臨,信用越來越成為機構(gòu)與機構(gòu)之間和機構(gòu)與政府之間能夠順利溝通的重要因素,但由于難以獲取中小企業(yè)的數(shù)據(jù),針對一些企業(yè)征信的報告的研究探索分析還不夠豐富。然而企業(yè)信用預(yù)測不僅能夠分析出影響企業(yè)信用風(fēng)險的重要特征,而且還可以對企業(yè)的抗風(fēng)險能力作出預(yù)測,可見本文其重要意義。隨著機器學(xué)習(xí)的熱潮,決策樹算法發(fā)展最近幾年火速發(fā)展,該算法優(yōu)點繁多,穩(wěn)定,生成的決策規(guī)則易于理解,易于解釋,因此我們主要根據(jù)C&RT決策樹、隨機森林、梯度增強樹,這三個模型分別對中小企業(yè)的信用風(fēng)險進(jìn)行預(yù)測,對比分析,希望通過分析征信報告中所列特征的數(shù)據(jù),能夠識別出高違約風(fēng)險的企業(yè),以達(dá)到警示放貸風(fēng)險的目的。
關(guān)鍵詞 機器學(xué)習(xí) 決策樹 Bootstrap 隨機森林 adaBoost GBDT
中圖分類號:TP311.13 文獻(xiàn)標(biāo)識碼:A 文章編號:1007-0745(2020)02-0052-03
在數(shù)據(jù)挖掘中決策樹方法[1]是一個有效并且常用的方法。它的目標(biāo)是創(chuàng)建一個模型來預(yù)測樣本的目標(biāo)值。這種決策樹的自頂向下歸納是貪心算法[2]一種,也是目前為止最為常用的一種訓(xùn)練方法,與相對其他的訓(xùn)練方法相比,決策樹最大的特點是符合人類的直覺,根據(jù)某些條件進(jìn)行分類,具有很強的解釋性,有利于分析影響因素,[3]可使用決策樹方法分析影響違約風(fēng)險因素。
隨機森林是一個包含多個決策樹的分類器,并且其輸出的類別是由個別樹輸出的類別眾數(shù)而定。隨機森林的引入最初是由Leo Breiman[4]在一篇論文中提出的。這篇文章描述了一種結(jié)合隨機節(jié)點優(yōu)化和Bagging,利用了C&RT[5]過程構(gòu)建不相關(guān)樹的森林的方法。梯度提升是一種用于回歸和分類問題的機器學(xué)習(xí)技術(shù),其產(chǎn)生的預(yù)測模型是弱預(yù)測模型的集成,如采用典型的決策樹作為弱預(yù)測模型,這時則為梯度提升樹(GBDT)。梯度提升的思想源自Leo Breiman[6]的一個觀察:可以將提升方法解釋為針對適當(dāng)成本函數(shù)的優(yōu)化算法。也就是通過不斷的弱分類模型集成最終得到一個強分類器。
本文第一部分概述,第二部分介紹C&RT決策樹、隨機森林、梯度增強樹的基本理論,第三部分進(jìn)行數(shù)據(jù)預(yù)處理,第四部分進(jìn)行數(shù)值實驗,第五部分結(jié)論。
1 模型
在本篇文章中我們從最基本的決策樹模型開始,延伸到隨機森林、梯度提升樹,介紹這些模型的基本概念、核心思想、以及三者之間的對比差異,接下來再對三個模型進(jìn)行數(shù)據(jù)實驗,分析不同效果。
1.1 決策樹
決策樹是一個傳統(tǒng)的根據(jù)條件聚集的學(xué)習(xí)模型,在這里我們主要分析classification and Regression Tree(C&RT)。那么我們的決策樹模型可以表示為:
其中,c為每一個分支,G(x)為全體樹,b(x)為分枝規(guī)則, 為在c分枝時的子樹。我們主要從三個角度來討論C&RT。
(1)分枝的數(shù)量:由于是C\&RT樹,那么我們假設(shè)每個節(jié)點都有且只有兩個子節(jié)點。
(2)分枝規(guī)則:
其中h(x)是分枝函數(shù),分為左枝(c=1)和右(c=2)枝。上式第一項表示左(右)枝的數(shù)據(jù)集大小,第二項表示左(右)枝的純度大小。對于二分類決策樹來說,我們的純度用基尼指數(shù)來衡量
其中k是種類,n代表樣本數(shù)量,是當(dāng)時等于1,否則等于0。
(3)分枝終止條件:所有的y都一樣,也就是純度等于0。所有的x都一樣,則無法分為左右枝。
依據(jù)以上的三個條件,我們可以建立算法表示C&RT決策樹模型。
現(xiàn)在討論過擬合情況,我們需要剪枝。設(shè)為訓(xùn)練模型的誤差,那么對于過擬合情況來說則有,導(dǎo)致測試誤差大幅上升。為了降低擬合度,我們加入一個正則項:表示G樹的葉子數(shù)量。那么轉(zhuǎn)化為問題:
其中表示權(quán)衡參數(shù)。我們實驗時可以條件參數(shù)控制決策樹的深度,這個深度由葉子的數(shù)量來衡量,進(jìn)而調(diào)控模型的過擬合程度[7]。
1.2 隨機森林
從決策樹的推導(dǎo)過程中發(fā)現(xiàn),決策樹容易重現(xiàn)過擬合現(xiàn)象,也就是說當(dāng)我們的測試集合不一樣時,預(yù)測的方差比較大,為了降低這個方差,我們引入隨機森林[8]。首先在這里引入Bootstrap[9]:采用重復(fù)抽樣方法從初始樣本中抽取一定數(shù)量的樣本,此過程允許重復(fù)抽樣。應(yīng)用這個方法我們可以估計到很多不同的目標(biāo)函數(shù),然后再來求這些目標(biāo)函數(shù)的均值即得到最終的目標(biāo)函數(shù)。我們將C&RT與Bootstrap結(jié)合起來,也就是說我們有以下過程:
(1)從總樣本n中,抽取樣本數(shù)量;
(2)由此樣本訓(xùn)練C&RT模型,得到目標(biāo)函數(shù);
(3)返回第一步,并且重復(fù)N次;
(4)最終目標(biāo)函數(shù)為。
在實驗的時候,我們可以控制N的大小,進(jìn)而控制模型的擬合度。
1.3 梯度提升樹(GBDT)
首先梯度提升樹是自適應(yīng)增強Adaboost和C&RT的結(jié)合。那么我們先來介紹AdaBoost。AdaBoost方法[10]是一種迭代算法,它通過輸入不同弱分類器,不斷的調(diào)整樣本匹配權(quán)重,得到新的弱分類器,最后將所有分類器疊加[11],那么Adaboost可以轉(zhuǎn)化為下面這個優(yōu)化問題:
其中h(x)是第t次擬合數(shù)據(jù)最佳的梯度變化量,也就是先求出第t次的gt,然后再求其對應(yīng)的最佳,最后我們求得的目標(biāo)函數(shù)是,對應(yīng)的GBDT可以轉(zhuǎn)化為下面的優(yōu)化問題:
其中,那么稱為殘差。因此,在使用平方損失函數(shù)時,GBDT算法的每一步在生成決策樹時只需要擬合前面的模型的殘差。
2 數(shù)據(jù)預(yù)處理
在這一部分我們首先對數(shù)據(jù)作簡單的介紹,用python對數(shù)據(jù)做缺失值處理,為了從特征中提取更多的信息,必須對特征進(jìn)行特定屬性處理。針對本文章的數(shù)據(jù)特點,出現(xiàn)了類別不平衡的問題,下面我們給出具體的解決辦法。
2.1 數(shù)據(jù)介紹
數(shù)據(jù)來源于全國部分中小企業(yè)的政府登記數(shù)據(jù),樣本數(shù)量為14366個,178個特征,1個標(biāo)簽。特征主要有以下部分:ID、企業(yè)類型、經(jīng)營期限至、登記機關(guān)、企業(yè)狀態(tài)、郵政編碼、投資總額、核準(zhǔn)日期、行業(yè)代碼、注銷時間、經(jīng)營期限自、成立日期、行業(yè)門類、企業(yè)類別、管轄機關(guān)、經(jīng)營范圍、城建稅、遞延收益、長期負(fù)債合計、長期借款、長期應(yīng)付款、短期借款、遞延所得稅負(fù)債、非流動負(fù)債合計、負(fù)債合計等共178個。
2.2 缺失值處理
查看發(fā)現(xiàn)許多特征缺失嚴(yán)重。我們特別刪除缺失比例超過70%的特征:經(jīng)營期限至,投資總額,注銷時間。
下面分析每個特征和標(biāo)簽之間的相關(guān)系數(shù),并刪除相關(guān)系數(shù)不存在的特征,即:長期負(fù)債合計_年初數(shù),其他負(fù)債(或長期負(fù)債)_年初數(shù),其他應(yīng)交款_年初數(shù),應(yīng)付福利費_年初數(shù),預(yù)提費用_年初數(shù),長期負(fù)債合計_年末數(shù)等。經(jīng)查看這些數(shù)據(jù)不僅缺失嚴(yán)重,而且值變化方差很小,故刪去。
最后對類型數(shù)據(jù)處理:郵政編碼、核準(zhǔn)日期、經(jīng)營期限、成立日期、經(jīng)營范圍和特殊無信息特征ID,由于處理較困難,這些特征都刪去。
在這些處理之后我們有152個特征,1個標(biāo)簽。為簡單起見,我們給每一列特征的缺失值賦值為該特征的均值。
2.3 類別不均衡處理
查看標(biāo)簽值{0,1}在樣本中所占的比例,我們發(fā)現(xiàn)未違約所占比例為93.4%,違約比例為6.6%,那么在這里我們需要處理類別不平衡問題。在這里主要有三種方式,我們主要采用第三種方式,對數(shù)據(jù)進(jìn)行擴充。
(1)對較多的那個類別進(jìn)行欠采樣(under-sampling),舍棄一部分?jǐn)?shù)據(jù),使其與較少類別的數(shù)據(jù)相當(dāng)。
(2)對較少的類別進(jìn)行過采樣(over-sampling),重復(fù)使用一部分?jǐn)?shù)據(jù),使其與較多類別的數(shù)據(jù)相。
(3)對數(shù)據(jù)進(jìn)行采用的過程中通過相似性同時生成并插樣“少數(shù)類別數(shù)據(jù)”,叫做SMOTE算法。具體SMOTE算法介紹可以參考[12],SMOTE算法是對較少數(shù)類別的樣本進(jìn)行擴充,擴充的方法類似于k近鄰方法進(jìn)行樣本間差值,最后得到新的數(shù)據(jù)集合。
3 數(shù)值實驗
這一部分主要介紹擬合模型、參數(shù)的選擇、以及擬合的效果與分析。主要利用三個模型來進(jìn)行擬合數(shù)據(jù)。
·決策樹
·隨機森林
·梯度上升樹(GBDT)
我們將數(shù)據(jù)的70%的作為訓(xùn)練集合,數(shù)據(jù)的30%作為測試集合,并做10層的交叉驗證。
經(jīng)查看表,我們可以看出企業(yè)所得稅、城建稅、印花稅對企業(yè)信用風(fēng)險的影響因素最大(如表1)。下面對幾個稅種做簡要介紹。
企業(yè)所得稅:是對我國境內(nèi)的企業(yè)和其他取得收入的組織的生產(chǎn)經(jīng)營所得和其他所得征收的一種所得稅。
城建稅:是以納稅人實際繳納的產(chǎn)品稅、增值稅、營業(yè)稅稅額為計稅依據(jù)。該稅主要有以下兩個特征:(1)以納稅人實際繳納的產(chǎn)品稅、增值稅、營業(yè)稅稅額為計稅依據(jù),分別與產(chǎn)品稅、增值稅、營業(yè)稅同時繳納;(2)加強城市的維護(hù)建設(shè),擴大和穩(wěn)定城市維護(hù)建設(shè)資金的來源。
印花稅:是對經(jīng)濟活動和經(jīng)濟交往中訂立、領(lǐng)受具有法律效力的憑證的行為所征收的一種稅。因采用在應(yīng)稅憑證上粘貼印花稅票作為完稅的標(biāo)志而得名。
再者對比分析三個模型,我們可以得到以下結(jié)論:
(1)決策樹在識別違約企業(yè)中,準(zhǔn)確率最高。
(2)隨機森林和GBDT這兩個模型效果差不多,因此復(fù)雜模型針對風(fēng)險問題可能是無力的。
(3)說明簡單模型的在某些情況下有可能是最好的。
4 結(jié)論
在中小企業(yè)信用評估過程中,企業(yè)借款違約不歸還本金和利息是比較常見的現(xiàn)象。如何控制企業(yè)風(fēng)險是中小企業(yè)健康發(fā)展的關(guān)鍵。本文站在銀行角度,研究企業(yè)這一主題的信用違約風(fēng)險的方法。通過總結(jié)和比較目前信用評估模型的基本原理和優(yōu)缺點,提出了應(yīng)用集成學(xué)習(xí)方法改進(jìn)決策樹模型來度量企業(yè)信用違約風(fēng)險的思路。
本文采用的數(shù)據(jù)是全國部分中小企業(yè)的政府登記數(shù)據(jù)。我們采用協(xié)方差矩陣的形式,摘除部分步相關(guān)特征,在此數(shù)據(jù)的基礎(chǔ)上做缺失值處理。然而由于本數(shù)據(jù)類別不平衡問題嚴(yán)重,我們采用SMOTE算法進(jìn)行數(shù)據(jù)預(yù)處理。接下來用決策樹,隨機森林,GBDT來進(jìn)行分類評估效果,并取得了滿意的效果。
本文的主要結(jié)論如下:
第一:本文以中小企業(yè)這一貸款主體參與主體為切入點,研究其違約風(fēng)險度量方法的問題,目前國內(nèi)外對中國國內(nèi)中小企業(yè)信用違約風(fēng)險度量較少且都不夠深入,本文將中小企業(yè)信用風(fēng)險評估與集成學(xué)習(xí)聯(lián)系在一起,對中小企業(yè)的違約風(fēng)險進(jìn)行了初步探究與度量。
第二:本文終結(jié)了決策樹中集中流行的風(fēng)險評估方法及其它們的應(yīng)用。通過比較幾類模型的優(yōu)缺點和幾種模型的側(cè)重點得到:決策樹容易過擬合,隨機森林可以有效的降低過擬合,GBDT可以關(guān)注于分錯的目標(biāo),提高分類的準(zhǔn)確率,進(jìn)而得出在本數(shù)據(jù)情況下,決策樹模型在識別企業(yè)有信用違約風(fēng)險有很大優(yōu)勢。
第三:本文最后得出對中小企業(yè)風(fēng)險影響的重要特征有以下十項:企業(yè)所得稅、城建稅、印花稅、增值稅、行業(yè)門類、管轄機關(guān)、企業(yè)狀態(tài)、行業(yè)代碼、注冊資本、存貨中的原材料_年末數(shù),可以看出對中小企業(yè)運行影響最大的因素是稅收,隨著這幾年中小企業(yè)生存環(huán)境惡劣,對中小企業(yè)減稅不乏是一種很不錯的政策。
參考文獻(xiàn):
[1] QUINLAN J R.Simplifying decision trees[J].International journal of man-machine studies,1987,27(03):221–234.
[2] BLACK P E.Greedy algorithm[J].Dictionary of Algorithms and Data Structures,2005:2.
[3] 唐劍琴.基于決策樹算法的P2P網(wǎng)貸借款人違約風(fēng)險度量研究[D]. 湖南師范大學(xué).2016.
[4] BREIMAN L.Random forests[J].Machine learning, 2001,45(01):5–32.
[5] SHALEV-SHWARTZ S,BEN-DAVID S.Understanding machine learning:From theory to algorithms[M].[S.l.]:Cambridge university press,2014.
[6] BREIMAN L.Arcing the edge[R].[S.l.]:Technical Report 486,Stati stics Depart-ment,University of California at...,1997.
[7] ABDI H,WILLIAMS L J.Principal component analysis[J].Wiley interdisci-plinary reviews:computational statistics,2010,02(04):433–459.
[8] RODRIGUEZ J J,KUNCHEVA L I,ALONSO C J.Rotation fore st:A new clas-sifier ensemble method[J].IEEE transactions on pattern analysis and machine in-telligence,2006,28(10):1619–1630.
[9] BREIMAN L.Bagging predictors[J].Machine learning,1996, 24(02):123–140.
[10] FREUND Y,SCHAPIRE R E.A decision-theoretic generalization of on-line learning and an application to boosting[J].Journal of computer and system sci-ences,1997,55(01):119–139.
[11] FRIEDMAN J H.Greedy function approximation:a gradient boosting machine[J].Annals of statistics,2001:1189–1232.
[12] CHAWLA N V,BOWYER K W,HALL L O,et al.SMOTE:synthe tic minority over-sampling technique[J].Journal of artificial intelligence research,2002,16:321–357.
上海對外經(jīng)貿(mào)大學(xué),上海