国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學習的學習表現(xiàn)預測系統(tǒng)

2022-10-15 13:17魏迪海
現(xiàn)代信息科技 2022年14期
關(guān)鍵詞:神經(jīng)網(wǎng)絡預測深度

魏迪海

(樂山開放大學,四川 樂山 614800)

0 引 言

為了探索適合學生的最優(yōu)學習要素,一門被稱為教育數(shù)據(jù)挖掘(Educational Data Mining,EDM)的新學科產(chǎn)生。教育數(shù)據(jù)挖掘?qū)嶋H上就是基于計算機技術(shù)的學習系統(tǒng),交互學習環(huán)境,模擬學習環(huán)境,現(xiàn)有學校學習系統(tǒng)等采集用戶學習行為數(shù)據(jù)。在心理學和學習科學的理論指導下,利用計算機科學、數(shù)據(jù)挖掘等領域的知識,發(fā)現(xiàn)學生是如何學習。EDM 的優(yōu)勢體現(xiàn)在可以把不同領域的各種數(shù)據(jù)連接在一起。它關(guān)注從研究所提供的大量數(shù)據(jù)中提取特征以支持教育過程的進展。

1 研究背景

EDM 與傳統(tǒng)數(shù)據(jù)庫技術(shù)不同,它可以回答問題,例如誰是潛在的課程成績不及格學生?EDM 可以回答更深層次的問題,例如預測學生的成績(如果他在考試中通過或失敗)。研究人員還可以建立學生模型來單獨預測每個學生的特征和表現(xiàn)。因此,參與EDM 領域的研究人員使用不同的數(shù)據(jù)挖掘技術(shù)來評估講師,以便提高他們的教育能力。

由于當前教育系統(tǒng)并沒有重視對學生表現(xiàn)的預測,因此這些系統(tǒng)效率并不高。預測學生感興趣的課程并了解他在教學活動過程的學習行為可以提高教育效率。結(jié)合深度學習和EDM 技術(shù),完成學生的評估過程,可以更好地提高學生的表現(xiàn)以及優(yōu)化教育過程。此外,深度學習還可以用在更廣泛的教育數(shù)據(jù),通過模式識別、圖像處理、對象檢測和自然語言處理等方法。通過機器學習技術(shù)實現(xiàn)的學習管理系統(tǒng),可以利用數(shù)據(jù)挖掘來獲得更好、更準確的結(jié)果。

本文提出一種深度學習方法,通過在長短期記憶(LSTM)上實施卷積神經(jīng)網(wǎng)絡來構(gòu)建學生表現(xiàn)的預測模型,可以基于學生數(shù)據(jù)預測他將來的學習表現(xiàn)。本文還引入了數(shù)據(jù)預處理技術(shù)(如mini-max scaler 和quantile transforms)以提高結(jié)果的準確性。本研究的目的是提取新特征并找到它們的權(quán)重,以根據(jù)從特征中導出的權(quán)重來構(gòu)建變量節(jié)點和隱藏層的神經(jīng)網(wǎng)絡系統(tǒng)。然后,在構(gòu)建系統(tǒng)后使用這些特征及其權(quán)重來預測有關(guān)學生的信息。

2 深度學習技術(shù)

2.1 基本概念

數(shù)據(jù)科學和現(xiàn)代技術(shù)(如大數(shù)據(jù)和高性能計算機)的發(fā)展為機器學習提供了通過復雜系統(tǒng)理解數(shù)據(jù)及其行為的機會。機器學習使計算機能夠在不同的算法中學習,而無須嚴格執(zhí)行來自某個程序或有限指令集。

深度學習是直接從不同媒介的數(shù)據(jù)學習有用特征的機器學習技術(shù),其利用許多神經(jīng)網(wǎng)絡層來進行無監(jiān)督或有監(jiān)督的非線性數(shù)據(jù)處理,以進行分類和模式識別任務,模擬了人腦分析、決策和學習方面的能力。深度學習的目標是模擬人腦直接從無監(jiān)督數(shù)據(jù)中提取特征。

深度學習的核心是對信息的特征和表示進行分層計算,例如對低層到高層的特征分別進行定義。雖然機器學習獲得大量學生的前期學習表現(xiàn)數(shù)據(jù),但執(zhí)行時由于忽略了數(shù)據(jù)行為特征常常不能得到理想的效果。而深度學習的特征是從特定的學生數(shù)據(jù)中自動提取的。這種特征方法是深度學習系統(tǒng)獨立的一部分。

可見,利用輸入數(shù)據(jù)計算表示特征是預測學生未來表現(xiàn)的關(guān)鍵。本文通過大量的實際學生課程數(shù)據(jù),例如學生之前學期的平均成績績點和所獲得學分,作為深度學習的提取特征,來進行學生學習表現(xiàn)的預測研究。

2.2 常見的深度學習技術(shù)

2.2.1 深度神經(jīng)網(wǎng)絡(DNN)

DNN 是一個具有多個隱藏層的神經(jīng)網(wǎng)絡。它的模型在復雜的數(shù)據(jù)和非線性函數(shù)下表現(xiàn)更好。這種類型的深度學習可以適應訓練期間對隱藏層的任何改進,并且訓練通過反向傳播算法進行。由于DNN 在使用復雜數(shù)據(jù)的預測模型時具有良好的可擴展性,因此被認為適用于教育深度學習預測。

2.2.2 卷積神經(jīng)網(wǎng)絡(CNN)

CNN 由于能夠識別各種完整的特征行為而被廣泛應用于圖像識別的各個領域。因此,它的用途被擴展到包括教育和學習預測過程。從這個意義上說,CNN 與神經(jīng)網(wǎng)絡類似,一般是由連接的多個神經(jīng)元以分層的形式組成,通過訓練完成分層結(jié)構(gòu)。DNN 在連接上與網(wǎng)絡不同,例如深度信念網(wǎng)絡、反向傳播和稀疏自動編碼器;網(wǎng)絡中的每一層可以共享每個神經(jīng)元的權(quán)重,因此權(quán)重可以控制網(wǎng)絡中的層。CNN 通過在特定時間點提取新特征用于學生行為,該特征考慮了教育狀況的特征。

2.2.3 遞歸神經(jīng)網(wǎng)絡(RNN)

RNN 考慮了一種神經(jīng)網(wǎng)絡算法,并在數(shù)據(jù)序列方面表現(xiàn)良好。該算法的優(yōu)點之一是它記錄了當前狀態(tài)或下一個狀態(tài)中使用的先前狀態(tài)。除隱藏層外,還有動態(tài)輸入輸出層;在隱藏層內(nèi)部,輸入和輸出情況由一個節(jié)點到另一個節(jié)點的輸出權(quán)重表示。由于隱藏層中的連接和反饋路徑,此類算法在訓練期間的優(yōu)勢適用于預測。

2.2.4 長短期記憶(LSTM)

LSTM 模型被定義為RNN 的變體。該算法的價值在于在隱藏層中創(chuàng)建了自環(huán)。它在系統(tǒng)運行過程中自動生成路徑,并在每次迭代中生成短路徑。它類似于DNN,但在更新影響神經(jīng)網(wǎng)絡中排序路徑的權(quán)重方面有所不同。這種類型使用歷史中的先前數(shù)據(jù)來提取有用的信息(通常為特征),以實現(xiàn)更好的學生行為預測。

本研究的主要目的是通過考慮以長短期記憶(LSTM)為代表的深度學習技術(shù)并利用基于時間的特征提出一種新方法。

3 基于深度學習長短期記憶網(wǎng)絡的預測

為了從前一門課程的表現(xiàn)中預測學生下一門課程的表現(xiàn),本文利用收集的數(shù)據(jù)去訓練所提出的模型。從多學科大學采集真實數(shù)據(jù)后,進行數(shù)據(jù)預處理,去除冗余屬性、噪聲等。然后,根據(jù)數(shù)據(jù)獲取日期將數(shù)據(jù)分為兩組:第一個數(shù)據(jù)集來自2007年到2016年,用于訓練,而第二個數(shù)據(jù)集來自2016年到2019年,用于測試所提出模型的預測能力。測試過程一些評價指標評估所提出的預測模型的準確能力。

本文提出的整體模型框架如圖1所示,包含四個階段。第一階段為收集數(shù)據(jù),并建立一個簡單的學生數(shù)據(jù)庫。第二階段為數(shù)據(jù)預處理過程,提取操作數(shù)據(jù)和有用信息數(shù)據(jù)并進行預處理操作,包括對它們的權(quán)重根據(jù)特征進行計算。第三階段為把這些特征輸入到神經(jīng)網(wǎng)絡,然后創(chuàng)建多個隱藏層來處理數(shù)據(jù)。第四階段是模型評估,包括訓練模式和帶有評價指標的測試模式。

圖1 學生成績預測網(wǎng)絡流程圖

3.1 數(shù)據(jù)說明

本文從某所大學收集數(shù)據(jù),包含2007年至2019年的課程、學生、分數(shù)等信息,有4 699 個科目(課程)、83 993 名學生和3 828 879 條記錄。除了訓練和測試樣本之外,這些數(shù)據(jù)集還使用樣本信息描述數(shù)據(jù)分布。還考慮了訓練率和總樣本數(shù)。

該數(shù)據(jù)集代表16個學術(shù)單位(學院/研究所/學院)的學生表現(xiàn)。數(shù)據(jù)分為兩個不相等的部分。主要部分(從2007年到2016年收集的數(shù)據(jù))用于訓練,而剩余的樣本部分(從2017年到2019年收集的數(shù)據(jù))用于測試。訓練數(shù)據(jù)集和測試數(shù)據(jù)集的課程績點的統(tǒng)計直方圖分別如圖2和圖3所示。其中,經(jīng)濟學教育的數(shù)據(jù)占比最高,約為18%,而物理教育的占比最低,僅為0.9%。可以看到,約89.7%的訓練數(shù)據(jù)集的課程績點水平等于或大于中等等級,而測試數(shù)據(jù)集等于或大于中等等級的百分比為88.6%。

圖2 訓練數(shù)據(jù)集的統(tǒng)計直方圖

圖3 測試數(shù)據(jù)集的統(tǒng)計直方圖

3.2 數(shù)據(jù)集預處理和轉(zhuǎn)換

由于收集的數(shù)據(jù)包含冗余信息,需要通過預處理解決數(shù)據(jù)冗余屬性和噪聲等。主要步驟如下:(1)清除課程名稱、講師姓名、學生姓名等冗余屬性;(2)清除學生已注冊但考試、免修課程等未完成的冗余或噪音記錄;(3)清除一些上課學生總數(shù)少于15人時的課程;(4)將字符串或文本值轉(zhuǎn)換為數(shù)值。

對整個輸入數(shù)據(jù)進行分析后選擇學習模型輸入屬性,見表1,為本文使用的數(shù)據(jù)集樣本。這些選定的屬性是根據(jù)實驗結(jié)果和一些以前的學生表現(xiàn)預測模型選擇的。

表1 部分訓練集內(nèi)容

由于各種屬性存在不同的分布,對預測模型使用分位數(shù)變換法(Quantile Trans Formation,QTF)和最小最大縮放法(Min-Max Scaler,MMS)來生成和轉(zhuǎn)換深度學習網(wǎng)絡收斂的值范圍。

由于非線性變換QTF 可以顯著減少異常值的影響,因此它被認為是目前最好的預處理技術(shù)之一。高于或低于擬合界限的驗證數(shù)據(jù)/測試數(shù)據(jù)的值被設置為輸出分布范圍。在數(shù)據(jù)轉(zhuǎn)換之前,每個特征的分布和范圍都有顯著差異。QTF數(shù)據(jù)將被轉(zhuǎn)換到0 和1 之間。例如,對于工程技術(shù)課程,其訓練數(shù)據(jù)如圖4所示,而測試數(shù)據(jù)如圖5所示??梢?,經(jīng)過對特征執(zhí)行MMS 后,數(shù)據(jù)更接近正態(tài)分布。

圖4 工程技術(shù)課程訓練數(shù)據(jù)集的統(tǒng)計直方圖

圖5 工程技術(shù)專業(yè)測試數(shù)據(jù)集的統(tǒng)計直方圖

MMS 具體針對每幅圖像創(chuàng)建區(qū)間,通過使用式(1)和式(2),把每個特征的轉(zhuǎn)換到給定范圍內(nèi):

通過這些算法,本文的實驗結(jié)果與回歸任務中的原始數(shù)據(jù)相比,有較好的效果了可喜的成績。通過從訓練集中學習,將縮放器應用于測試集。

3.3 網(wǎng)絡模型訓練

使用深度學習和線性回歸兩種算法來實現(xiàn)學生成績預測模型。1D-CNN 接收21 個特征的1D 數(shù)據(jù)向量;然后,它將通過一個卷積層的堆棧,該卷積層有64 個節(jié)點,每個節(jié)點有3 個內(nèi)核。然后,在每次卷積之后,將執(zhí)行整流線性單元(rectified linear unit,ReLU)激活函數(shù),如圖6所示。

圖6 本文實施的整體架構(gòu)

其中,LSTM 包括64 個Tanh 單元和單次步長。在1D-CNN 和LSTM 上使用式(3)所示的Sigmoid 函數(shù)產(chǎn)生范圍為0 到1 的輸出。為了模擬范圍為0.0 到4.0 的學生成績,方程(3)的輸出將乘以4.0:

4 實驗結(jié)果

在本文的深度學習模型中,使用均方根傳播(RMSProp)算法或Adam 算法,作為優(yōu)化函數(shù),學習率為0.000 1。在500 個epoch 到達之前,獲得了16 000 epoch 的大小。為了減少過擬合的影響,把5 個epoch 作為迭代停止條件。如果在每個連續(xù)的epoch 之后損失沒有減少,也會停止模型的訓練。此外,Scaler 算法針對訓練集執(zhí)行,同時對訓練集和測試集進行轉(zhuǎn)換。

回歸的性能可以通過MAE 和RMSE 在測試集上平均運行5次來評估。MAE和RMSE可以分別使用式(4)和式(5)計算:

其中y是學生的真實成績值(范圍從0.0 到4.0),是學生的預測成績值。

實驗結(jié)果由以下部分給出。可以看出QTF 對回歸任務的預處理數(shù)據(jù)有不錯的性能表現(xiàn)。選擇的縮放器與RMSProp和Adam 一起運行,作為兩個優(yōu)化器進行比較。該研究是通過線性回歸和深度學習以及優(yōu)化器函數(shù)和最佳縮放器對不同教學單位的所有16 個數(shù)據(jù)集進行的,并將合并的16 個數(shù)據(jù)集作為一個數(shù)據(jù)集進行預測。

結(jié)果由多種縮放器計算獲得。很明顯,縮放器可以提高深度學習性能。在使用的縮放器中,QTF 的表現(xiàn)最好,在16 個數(shù)據(jù)集中,它得出的15 個數(shù)據(jù)集通過1D-CNN 和LSTM 方法,在CNN 的一層(1D)有明顯的改進。

Adam 優(yōu)化器函數(shù)和RMSProp 的比較結(jié)果如表2所示。通過使用RMSProp,16 個數(shù)據(jù)集中有14 個得到了改進,所有數(shù)據(jù)集的平均改進約為3.3%。

在測試模式和訓練模式下,不同算法中,結(jié)果略有不同。相比其他方法,它們在相同的條件有更好的性能表現(xiàn)。本文將所得結(jié)果與現(xiàn)有數(shù)據(jù)集進行比較,圖7說明了本文方法與訓練集基本同質(zhì)。

圖7 在同一數(shù)據(jù)集上測試和訓練不同方法的模式

對于所提出的系統(tǒng),我們有兩種模式,首先是訓練模式,使用標記數(shù)據(jù)提前學習系統(tǒng),并使用表2中所示的標準數(shù)據(jù)集運行系統(tǒng)。然后是測試模式,對所需專業(yè)學生進行成績預測。

表2 預測性能最優(yōu)函數(shù)

5 結(jié) 論

本文提出了一種應用于高等教育方面的深度神經(jīng)網(wǎng)絡,并通過比較學生的水平和成績來識別和預測學生學習表現(xiàn)行為。本文的深度神經(jīng)網(wǎng)絡構(gòu)建有四個步驟,包括數(shù)據(jù)初始化和預處理,在神經(jīng)網(wǎng)絡中構(gòu)建隱藏層的過程,為每個層提取有用的特征和權(quán)重。為了提高預測精度,我們使用了Adams 和RMSProp 兩種模型在網(wǎng)絡訓練過程。所提出的方法從所取得的結(jié)果中證明了它的價值,并且可以在實際中使用。通過這些結(jié)果,在教職員工和學生方面幫助教育機構(gòu)很容易。將來,可能需要提取的更新特征,并仔細選擇它們的權(quán)重;通過更新神經(jīng)網(wǎng)絡中的隱藏層,可以使系統(tǒng)更加可靠。

猜你喜歡
神經(jīng)網(wǎng)絡預測深度
基于人工智能LSTM循環(huán)神經(jīng)網(wǎng)絡的學習成績預測
選修2—2期中考試預測卷(B卷)
選修2—2期中考試預測卷(A卷)
四增四減 深度推進
深度思考之不等式
基于圖像處理與卷積神經(jīng)網(wǎng)絡的零件識別
MIV-PSO-BP神經(jīng)網(wǎng)絡用戶熱負荷預測
簡約教學 深度學習
三次樣條和二次刪除相輔助的WASD神經(jīng)網(wǎng)絡與日本人口預測
《福彩3D中獎公式》:提前一月預測號碼的驚人技巧!