国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于LSTM神經(jīng)網(wǎng)絡(luò)的浮選品位預(yù)測(cè)模型

2024-04-26 21:03:04王春景劉丹張文康邵平余龍舟周恭強(qiáng)
化工自動(dòng)化及儀表 2024年2期
關(guān)鍵詞:時(shí)間序列深度學(xué)習(xí)

王春景 劉丹 張文康 邵平 余龍舟 周恭強(qiáng)

作者簡(jiǎn)介:王春景(1996-),碩士研究生,從事選礦設(shè)備與選礦過(guò)程自動(dòng)化的研究。

通訊作者:劉丹(1983-),副教授,從事選礦工藝與理論、選礦設(shè)備及自動(dòng)控制的研究,ldysyz1983@126.com。

引用本文:王春景,劉丹,張文康,等.基于LSTM神經(jīng)網(wǎng)絡(luò)的浮選品位預(yù)測(cè)模型[J].化工自動(dòng)化及儀表,2024,51(2): 325-332.

DOI:10.20030/j.cnki.1000-3932.202402023

摘 要 針對(duì)目前選礦行業(yè)中浮選環(huán)節(jié)的精礦品位難以實(shí)時(shí)監(jiān)測(cè)的問(wèn)題,提出基于長(zhǎng)短時(shí)記憶(LSTM)網(wǎng)絡(luò)的浮選品位預(yù)測(cè)模型。利用浮選品位參數(shù)在時(shí)序上的相關(guān)性,采用兩層LSTM網(wǎng)絡(luò)提取特征,將浮選過(guò)程中的藥劑添加量、充氣速率、礦漿pH值等參數(shù)作為輸入值,對(duì)浮選后的精礦品位進(jìn)行實(shí)時(shí)預(yù)測(cè),并以平均絕對(duì)誤差(MAE)、均方根誤差(RMSE)、可決系數(shù)(R2)對(duì)預(yù)測(cè)結(jié)果進(jìn)行評(píng)價(jià)。實(shí)驗(yàn)結(jié)果表明:該神經(jīng)網(wǎng)絡(luò)模型的參數(shù)與結(jié)構(gòu)設(shè)置合理,預(yù)測(cè)表現(xiàn)良好,MAE為0.080 7、RMSE為0.109、R2達(dá)到了0.678。該模型適用于浮選環(huán)節(jié)的實(shí)時(shí)精礦品位預(yù)測(cè),后續(xù)可根據(jù)預(yù)測(cè)值反饋調(diào)節(jié)浮選過(guò)程參數(shù),使得精礦品位趨近期望值,對(duì)浮選過(guò)程的智能化具有促進(jìn)作用。

關(guān)鍵詞 長(zhǎng)短時(shí)記憶網(wǎng)絡(luò) 深度學(xué)習(xí) 時(shí)間序列 浮選品位預(yù)測(cè)

中圖分類號(hào) TP14? ?文獻(xiàn)標(biāo)志碼 A? ?文章編號(hào) 1000-3932(2024)02-0325-08

選礦作為連接采礦與冶煉的重要環(huán)節(jié),其主要目的是剔除脈石并富集有用礦物,分選后的精礦品位高、雜質(zhì)少,可以減輕后續(xù)冶煉過(guò)程的資源消耗。而品位作為衡量精礦品質(zhì)的一個(gè)重要指標(biāo),在選礦過(guò)程中備受關(guān)注。長(zhǎng)期以來(lái),人們普遍缺乏對(duì)精礦品位的實(shí)時(shí)監(jiān)測(cè)能力,在浮選過(guò)程中,選礦廠通常采用人工采樣化驗(yàn)的方法來(lái)獲取精礦的品位,但這樣的方式在時(shí)間上存在著滯后,難以及時(shí)獲取品位信息,使得各類可控變量調(diào)控不及時(shí),進(jìn)而影響精礦的品質(zhì)。

由于浮選過(guò)程的復(fù)雜性,傳統(tǒng)的機(jī)理建模方式往往難以準(zhǔn)確描述浮選過(guò)程,產(chǎn)生的預(yù)測(cè)結(jié)果可靠性不足。隨著機(jī)器學(xué)習(xí)技術(shù)的發(fā)展,基于數(shù)據(jù)驅(qū)動(dòng)的建模方法日漸成熟,國(guó)內(nèi)外學(xué)者提出了一些可行的品位預(yù)測(cè)方法。從基礎(chǔ)的最小二乘法,到相對(duì)復(fù)雜的支持向量機(jī)、隨機(jī)森林等,人們使用多種傳統(tǒng)機(jī)器學(xué)習(xí)方法對(duì)浮選品位進(jìn)行預(yù)測(cè)[1~7],通過(guò)采集浮選過(guò)程中的礦漿pH值、藥劑添加量等參數(shù),建立關(guān)鍵參數(shù)的輸入輸出模型,嘗試對(duì)浮選品位進(jìn)行實(shí)時(shí)軟檢測(cè)。之后,隨著以多層神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的深度學(xué)習(xí)技術(shù)的發(fā)展,一些新型預(yù)測(cè)模型被相繼提出,部分模型在天氣、交通預(yù)測(cè)等多種領(lǐng)域中表現(xiàn)出了優(yōu)于傳統(tǒng)機(jī)器學(xué)習(xí)模型的預(yù)測(cè)效果[8~10]。在選礦的品位預(yù)測(cè)領(lǐng)域,相關(guān)領(lǐng)域的研究人員也對(duì)一些深度學(xué)習(xí)方法進(jìn)行了探索,文獻(xiàn)[11]開(kāi)發(fā)了一種專用的深層神經(jīng)網(wǎng)絡(luò)FlotationNet,使用定制架構(gòu)處理輸入變量和輸出品位之間的不同映射關(guān)系,用以預(yù)測(cè)浮選品位;文獻(xiàn)[12]為了解決訓(xùn)練數(shù)據(jù)采集困難的問(wèn)題,使用膠囊網(wǎng)絡(luò)建立模型,其模型只使用了少量數(shù)據(jù)進(jìn)行訓(xùn)練,也得到了相對(duì)不錯(cuò)的預(yù)測(cè)結(jié)果。雖然這些嘗試取得了一定的成果,但也存在著預(yù)測(cè)效果欠佳、預(yù)測(cè)評(píng)價(jià)指標(biāo)一般、建模訓(xùn)練時(shí)間長(zhǎng)、難以在生產(chǎn)中實(shí)際布署等問(wèn)題,仍有改進(jìn)空間。

除了基于浮選參數(shù)的品位預(yù)測(cè)外,研究人員還在嘗試通過(guò)圖像信息對(duì)浮選泡沫進(jìn)行分類,并以此推導(dǎo)出最終的浮選品位[13~17]。首先采用一些聚類方法對(duì)浮選圖像進(jìn)行分類,并為各個(gè)分類人為添加其品位標(biāo)簽,用模型所輸出的幾個(gè)標(biāo)簽號(hào)對(duì)應(yīng)品位級(jí)別。但這類方式普遍存在一些問(wèn)題,不同于使用浮選參數(shù)建立的回歸模型,使用泡沫圖像的分類模型需要在訓(xùn)練前就設(shè)置好分類數(shù)量,并給每一類泡沫形態(tài)打上與其對(duì)應(yīng)的品位標(biāo)簽,而泡沫圖像的分類是否正確、需要?jiǎng)澐譃槎嗌俜N類、如何將泡沫分類與精礦品位正確對(duì)應(yīng)起來(lái)等問(wèn)題的解決方案尚不完善,導(dǎo)致使用泡沫圖像直接預(yù)測(cè)的浮選品位可靠性不高。同時(shí),在浮選車間的實(shí)際生產(chǎn)過(guò)程中,受光照強(qiáng)度、液面反光等因素的干擾,泡沫圖像無(wú)法像實(shí)驗(yàn)室條件中那樣穩(wěn)定,實(shí)際采集時(shí)會(huì)產(chǎn)生大量噪點(diǎn),影響最終的預(yù)測(cè)結(jié)果。因此,筆者將使用便于采集的浮選過(guò)程參數(shù),使用數(shù)據(jù)驅(qū)動(dòng)方式構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)精礦品位的軟測(cè)量。

1 浮選基本原理

浮選又稱浮游選礦,是根據(jù)物料的表面性質(zhì)差異,通過(guò)藥劑和機(jī)械調(diào)節(jié),高效分離出有用礦物和無(wú)用礦物的方法。浮選機(jī)的基本結(jié)構(gòu)如圖1所示,主要由浮選槽、葉輪-定子結(jié)構(gòu)、給礦口、精礦槽等部件組成。浮選時(shí),先將礦漿置于浮選槽中,并通過(guò)葉輪攪動(dòng)混勻,之后向礦漿中添加浮選藥劑并開(kāi)始供氣。由于礦物的可浮性差異,易浮礦物在與氣泡接觸后會(huì)漂浮到泡沫層,此時(shí)可用刮板將含有精礦的泡沫刮到精礦槽中,尾礦則繼續(xù)進(jìn)入下一流程,如此便完成了一次浮選操作。在這一過(guò)程中,藥劑添加量、礦漿pH值、礦漿濃度、充氣速率等參數(shù)都會(huì)對(duì)浮選品位產(chǎn)生影響,如果可以實(shí)時(shí)預(yù)測(cè)精礦品位,則可以及時(shí)調(diào)整這些參數(shù),穩(wěn)定產(chǎn)品的質(zhì)量。

2 品位預(yù)測(cè)模型

如圖2所示,品位預(yù)測(cè)模型可分為3部分:數(shù)據(jù)集的預(yù)處理、模型訓(xùn)練、預(yù)測(cè)結(jié)果的輸出與評(píng)價(jià)。數(shù)據(jù)集的預(yù)處理部分主要用于輸入向量的篩選與處理,提高數(shù)據(jù)在神經(jīng)網(wǎng)絡(luò)中的訓(xùn)練效率;模型訓(xùn)練部分則需要搭建合適的網(wǎng)絡(luò)架構(gòu),完成浮選過(guò)程的建模;輸出與評(píng)價(jià)部分用于輸出預(yù)測(cè)值,并使用有效的評(píng)估方法對(duì)預(yù)測(cè)結(jié)果進(jìn)行評(píng)價(jià)。

圖2 品位預(yù)測(cè)模型結(jié)構(gòu)

2.1 數(shù)據(jù)預(yù)處理

訓(xùn)練所用的數(shù)據(jù)集采集自某鐵選廠的浮選車間,對(duì)于浮選液位、充氣速率、礦漿流量、礦漿pH值、礦漿密度等連續(xù)變量,每20 s采集一次;對(duì)于給礦品位、精礦品位等需要化驗(yàn)的參數(shù),則是每15 min收集一次礦樣,但每2 h才進(jìn)行一次品位化驗(yàn)。通過(guò)連續(xù)6個(gè)多月的采集,該數(shù)據(jù)集共含有737 453組數(shù)據(jù),每組包含時(shí)間刻度在內(nèi)有24類參數(shù),共17 698 872個(gè)可訓(xùn)練參數(shù),數(shù)據(jù)集的參數(shù)組成匯總于表1。

在浮選過(guò)程中,雖然所采集的這些參數(shù)均會(huì)對(duì)浮選精礦產(chǎn)生相應(yīng)的影響,但影響的程度有大有小。同時(shí),數(shù)據(jù)的輸入量會(huì)影響模型的訓(xùn)練效率,輸入過(guò)多的無(wú)關(guān)數(shù)據(jù)還會(huì)占用大量顯存,提升訓(xùn)練的硬件成本。因此,在進(jìn)行訓(xùn)練前,需要通過(guò)相關(guān)性分析,剔除一些與精礦品位相關(guān)性不高的數(shù)據(jù)組。筆者在刪除數(shù)據(jù)集中的缺失值與重復(fù)項(xiàng)后,使用皮爾遜相關(guān)系數(shù)對(duì)相關(guān)性進(jìn)行判斷。皮爾遜相關(guān)系數(shù)可用于統(tǒng)計(jì)兩個(gè)變量之間的相關(guān)程度,計(jì)算值分布在-1~1之間,數(shù)值越接近0,表示相關(guān)性越差,反之則表示相關(guān)性越強(qiáng)。其計(jì)算式為:

表1 數(shù)據(jù)集的參數(shù)組成

r==(1)

整個(gè)數(shù)據(jù)集相關(guān)性的計(jì)算結(jié)果如圖3所示,其中,各類參數(shù)與精礦鐵品位的相關(guān)性如圖4所示。統(tǒng)計(jì)發(fā)現(xiàn),精礦的鐵品位與參數(shù)N(07浮選機(jī)充氣量)相關(guān)性較低,與參數(shù)F(礦漿pH值)、D(Amina用量)等的相關(guān)性較高,故在模型的輸入中剔除參數(shù)N。此外,因?yàn)榻o礦品位也是后期化驗(yàn)所得,不應(yīng)加入訓(xùn)練集中,因此參數(shù)A(給礦鐵品位)、B(給礦硅品位)也予以剔除,其余數(shù)據(jù)則保留。

完成數(shù)據(jù)篩選后,還需進(jìn)行標(biāo)準(zhǔn)化處理,統(tǒng)一參數(shù)的數(shù)量級(jí),避免參數(shù)量綱差異影響模型訓(xùn)練,同時(shí)提高梯度下降算法求最優(yōu)解的效率,加快模型的訓(xùn)練速度。筆者使用零均值歸一化方法進(jìn)行數(shù)據(jù)處理:

μ=x? ? ?(2)

σ=? ? ?(3)

z= ? ?(4)

其中,N為樣本數(shù)量,x為數(shù)據(jù)值,μ表示均值,σ為標(biāo)準(zhǔn)差,z為標(biāo)準(zhǔn)化的結(jié)果參數(shù)。

2.2 LSTM網(wǎng)絡(luò)框架

2.2.1 LSTM模型概述

長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)的結(jié)構(gòu)如圖5所示。與傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)相比,LSTM仍然是基于x和h來(lái)計(jì)算h,但對(duì)內(nèi)部結(jié)構(gòu)進(jìn)行了更精細(xì)的設(shè)計(jì),加入了輸入門(mén)i、遺忘門(mén)f以及輸出門(mén)o3個(gè)門(mén)和1個(gè)內(nèi)部記憶單元c。輸入門(mén)控制當(dāng)前計(jì)算的新?tīng)顟B(tài)以多大程度更新到記憶單元中;遺忘門(mén)控制前一步記憶單元中的信息如何被遺忘;輸出門(mén)控制當(dāng)前輸出與記憶單元間的關(guān)系。

圖5 LSTM單元結(jié)構(gòu)

經(jīng)典的LSTM中,第t步的更新計(jì)算式為:

i=σ(Wx+Uh+b)

f=σ(Wx+Uh+b)

o=σ(Wx+Uh+b)

=tanh(Wx+Uh)

c=f⊙c+i⊙

h=o⊙tanh(c)

其中,i是通過(guò)輸入x和上一步的隱含層輸出h進(jìn)行線性變換,再經(jīng)過(guò)激活函數(shù)σ得到的。輸入門(mén)i的結(jié)果是向量,其中每個(gè)元素是0~1間的實(shí)數(shù),用于控制各維度流過(guò)閥門(mén)的信息量;W、U兩個(gè)矩陣和向量b為輸入門(mén)的參數(shù),是在訓(xùn)練過(guò)程中需要學(xué)習(xí)得到的。遺忘門(mén)f和輸出門(mén)o的計(jì)算方式與輸入門(mén)類似,它們有各自的參數(shù)W、U和b。與傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)不同的是,LSTM從上一個(gè)記憶單元的狀態(tài)c到當(dāng)前狀態(tài)c的轉(zhuǎn)移不一定完全取決于激活函數(shù)計(jì)算得到的狀態(tài),還由輸入門(mén)和遺忘門(mén)共同控制。

在一個(gè)訓(xùn)練好的網(wǎng)絡(luò)中,當(dāng)輸入的序列中沒(méi)有重要信息時(shí),LSTM的遺忘門(mén)的值接近于1,輸入門(mén)的值接近于0,此時(shí)過(guò)去的記憶會(huì)被保存,從而實(shí)現(xiàn)了長(zhǎng)期記憶功能;當(dāng)輸入的序列中出現(xiàn)了重要信息時(shí),LSTM會(huì)將其存入記憶中,此時(shí)其輸入門(mén)的值會(huì)接近于1;當(dāng)輸入的序列中出現(xiàn)了重要信息,且該信息意味著之前的記憶不再重要時(shí),輸入門(mén)的值接近1,而遺忘門(mén)的值接近于0,這樣舊的記憶被遺忘,新的重要信息被記憶。經(jīng)過(guò)這樣的設(shè)計(jì),整個(gè)網(wǎng)絡(luò)更容易學(xué)習(xí)到序列之間的長(zhǎng)期特征。

2.2.2 模型架構(gòu)

如表2所示,數(shù)據(jù)處理完畢后,將會(huì)依次進(jìn)入兩個(gè)LSTM層進(jìn)行計(jì)算,最后再經(jīng)過(guò)一個(gè)全連接層以輸出計(jì)算值,其中,損失函數(shù)Loss設(shè)為MAE,優(yōu)化器Optimizer設(shè)為Adam,學(xué)習(xí)率Learning rate為0.001,迭代次數(shù)Epoch為100,批處理量Batch size為32。

表2 網(wǎng)絡(luò)結(jié)構(gòu)

2.3 模型評(píng)價(jià)指標(biāo)

神經(jīng)網(wǎng)絡(luò)模型根據(jù)任務(wù)的目的不同,可分為回歸模型和分類模型,不同于分類模型中常用的正確率指標(biāo),回歸模型更常用平均絕對(duì)誤差MAE、均方根誤差RMSE、可決系數(shù)R2等統(tǒng)計(jì)指標(biāo)來(lái)衡量結(jié)果的好壞。本模型作為時(shí)間序列的預(yù)測(cè)模型,仍屬于一種回歸模型,故采用MAE、RMSE和R2評(píng)價(jià)預(yù)測(cè)效果,MAE與RMSE越接近0、R2越接近1,則說(shuō)明模型的預(yù)測(cè)效果越好。其計(jì)算式為:

MAE=|(y-)|

RMSE=

R=1-

其中,y為真實(shí)值,為預(yù)測(cè)值,y為真實(shí)值的平均值。

3 實(shí)驗(yàn)及分析

3.1 實(shí)驗(yàn)配置

實(shí)驗(yàn)環(huán)境列于表3,處理器為Intel (R)Core(TM)i5-12400,GPU型號(hào)為NVIDIA GeForce 3090,顯存為24 GB,預(yù)測(cè)模型開(kāi)發(fā)環(huán)境為Python3.9、Pytorch1.7.0、cuda10.1。

表3 配置和環(huán)境

3.2 層結(jié)構(gòu)對(duì)預(yù)測(cè)結(jié)果的影響

在時(shí)間序列預(yù)測(cè)模型中,網(wǎng)絡(luò)的層結(jié)構(gòu)對(duì)預(yù)測(cè)結(jié)果有著顯著的影響。層數(shù)少時(shí)訓(xùn)練速度快,但預(yù)測(cè)效果可能不佳;而由于LSTM網(wǎng)絡(luò)為具有時(shí)間記憶功能的串行網(wǎng)絡(luò),且難以進(jìn)行并行優(yōu)化,當(dāng)所用層數(shù)過(guò)多時(shí)又會(huì)消耗大量的計(jì)算資源,還存在梯度消失的風(fēng)險(xiǎn)。

現(xiàn)將在其余參數(shù)不變的情況下,以層數(shù)為區(qū)分分別訓(xùn)練網(wǎng)絡(luò),對(duì)比不同層數(shù)下的預(yù)測(cè)效果,最終訓(xùn)練結(jié)果見(jiàn)表4,可以看出,3個(gè)評(píng)價(jià)指標(biāo)呈現(xiàn)一致。

表4 網(wǎng)絡(luò)層數(shù)對(duì)預(yù)測(cè)效果的影響

可決系數(shù)的變化趨勢(shì)如圖6所示,可以看出,當(dāng)LSTM網(wǎng)絡(luò)層數(shù)為2時(shí),預(yù)測(cè)效果最佳。因?yàn)長(zhǎng)STM每一層的特征提取能力都很強(qiáng),兩層結(jié)構(gòu)已經(jīng)足夠提取所需特征,繼續(xù)增加網(wǎng)絡(luò)層數(shù)對(duì)預(yù)測(cè)結(jié)果并無(wú)益處,反而會(huì)使特征梯度在傳遞過(guò)程中逐漸消失,預(yù)測(cè)效果變差。

圖6 網(wǎng)絡(luò)層數(shù)對(duì)可決系數(shù)R2的影響

3.3 超參數(shù)的優(yōu)化

在機(jī)器學(xué)習(xí)中,超參數(shù)是指無(wú)法通過(guò)模型訓(xùn)練得到,而是需要在訓(xùn)練前就進(jìn)行設(shè)置的參數(shù)。訓(xùn)練時(shí),需要對(duì)批處理量Batch size、學(xué)習(xí)率Learning rate、損失函數(shù)Loss、優(yōu)化器Optimizer等超參數(shù)進(jìn)行優(yōu)化,以提高預(yù)測(cè)模型的準(zhǔn)確性?,F(xiàn)將在保持其余變量不變的情況下,逐一調(diào)試常用的超參數(shù),調(diào)試結(jié)果見(jiàn)表5,可以看出,當(dāng)Batch size為32、Learning rate為0.001、Loss為MAE、Optimizer為Adam時(shí),此數(shù)據(jù)集在該硬件平臺(tái)的預(yù)測(cè)效果最佳。

表5 各組超參數(shù)對(duì)預(yù)測(cè)效果的影響

3.4 預(yù)測(cè)結(jié)果

使用優(yōu)化后的網(wǎng)絡(luò)結(jié)構(gòu)和超參數(shù)再次對(duì)數(shù)據(jù)集進(jìn)行模型訓(xùn)練,構(gòu)建品位預(yù)測(cè)模型。訓(xùn)練過(guò)程的損失值曲線如圖7所示,隨著迭代次數(shù)的增加,測(cè)試集的損失值逐漸減小,并開(kāi)始出現(xiàn)振蕩,直至不再持續(xù)減小時(shí)停止訓(xùn)練。

圖7 預(yù)測(cè)模型的損失值曲線

使用此模型對(duì)驗(yàn)證集做預(yù)測(cè),其結(jié)果如圖8所示,發(fā)現(xiàn)預(yù)測(cè)值可以較好地貼合實(shí)際值曲線,預(yù)測(cè)結(jié)果的MAE為0.080 7、RMSE為0.109、R2為0.678。

4 結(jié)束語(yǔ)

為了解決浮選環(huán)節(jié)中精礦品位難以實(shí)時(shí)監(jiān)測(cè)的問(wèn)題,使用浮選過(guò)程中的易測(cè)參數(shù)進(jìn)行建模,提出基于LSTM的浮選精礦品位預(yù)測(cè)模型。LSTM算法可以充分提取浮選過(guò)程的參數(shù)特征,提供可靠的預(yù)測(cè)結(jié)果。實(shí)驗(yàn)表明,浮選精礦品位與礦漿pH值、藥劑添加量、浮選機(jī)充氣量等參數(shù)在時(shí)序上存在相關(guān)性,當(dāng)使用網(wǎng)絡(luò)層數(shù)為2、超參數(shù)Batch size為32、Learning rate為0.001、Loss為MAE、Optimizer為Adam的LSTM模型時(shí)預(yù)測(cè)效果最佳。

本模型在數(shù)據(jù)集總體的預(yù)測(cè)上表現(xiàn)良好,但在部分區(qū)間仍存在預(yù)測(cè)結(jié)果波動(dòng)的情況,對(duì)此,后續(xù)研究擬通過(guò)改進(jìn)調(diào)參方式、擴(kuò)展數(shù)據(jù)集或更換其他模型的方式進(jìn)行優(yōu)化。

參 考 文 獻(xiàn)

[1] 李啟福,王雅琳,曹泊,等.基于滑窗B樣條偏最小二乘的浮選過(guò)程質(zhì)量指標(biāo)軟測(cè)量[J].中國(guó)科技論文,2012,7(4):294-301.

[2] 雷雨田,王慶凱,王旭.基于動(dòng)態(tài)隨機(jī)森林算法的銅浮選精礦品位預(yù)測(cè)[J].礦冶,2022,31(6):110-113.

[3] 任傳成,楊建國(guó).浮選過(guò)程精礦品位軟測(cè)量技術(shù)的研究進(jìn)展[J].礦山機(jī)械,2013,41(8):8-12.

[4] 陽(yáng)春華,任會(huì)峰,許燦輝,等.基于稀疏多核最小二乘支持向量機(jī)的浮選關(guān)鍵指標(biāo)軟測(cè)量[J].中國(guó)有色金屬學(xué)報(bào),2011,21(12):3149-3154.

[5] KHAJEHZADEH N,HAAVISTO O,KORESAAR L.On-stream and quantitative mineral identification of tailing slurries using LIBS technique[J].Minerals Engineering,2016,98:101-109.

[6] KHAJEHZADEH N,HAAVISTO O,KORESAAR L.On-stream mineral identification of tailing slurries of an iron ore concentrator using data fusion of LIBS,reflectance spectroscopy and XRF measurement techniques[J].Minerals Engineering,2017,113:83-94.

[7] WANG Q Y,LI F S,JIANG X Y,et al.On-stream mineral identification of tailing slurries of tungsten via NIR and XRF data fusion measurement techniques[J].Anal Methods,2020,12(25):3296-3307.

[8] TRAN T,LEE T,SHIN J Y,et al.Deep Learning-Based Maximum Temperature Forecasting Assisted with Meta-Learning for Hyperparameter Optimization[J].Atmosphere,2020,11(5):487.

[9] YU Y J,CAO J F,ZHU J F.An LSTM Short-Term Solar Irradiance Forecasting under Complicated Weather Conditions[J].IEEE Access,2018(7):053501.

[10] YUAN J,ABDEL-ATY M,GONG Y,et al.Real-Time Crash Risk Prediction Using Long Short-Term Memory Recurrent Neural Network[J].Transportation Research Record Journal of the Transportation Research Board,2019. DOI:10.1177/0361198119840611.

[11] PU Y,SZMIGIEL A,CHEN J,et al.FlotationNet:A hierarchical deep learning network for froth flotation recovery prediction[J].Powder Technology,2020,375:317-326.

[12] CEN L H,WU Y M,HU J,et al.Application of density-based clustering algorithm and capsule network to performance monitoring of antimony flotation process[J].Minerals Engineering,2022,184:ARTN 107603.

[13] ZHANG J,TANG Z H,LIU J P,et al.Recognition of flotation working conditions through froth image statistical modeling for performance monitoring[J].Minerals Engineering,2016,86:116-129.

[14] WANG X,CHEN S,YANG C,et al.Process working co-ndition recognition based on the fusion of morphological and pixel set features of froth for froth flotation[J].Minerals Engineering,2018,128:17-26.

[15] FU Y,ALDRICH C.Using Convolutional Neural Net -works to Develop State-of-the-Art Flotation Froth Image Sensors[J].IFAC-PapersOnLine,2018,51(21):152-158.

[16] FU Y,ALDRICH C.Froth image analysis by use of tra- nsfer learning and convolutional neural networks[J].Minerals Engineering,2018,115:68-78.

[17] ZARIE M,JAHEDSARAVANI A,MASSINAEI M.Flo-tation froth image classification using convolutional neural networks[J].Minerals Engineering,2020,155:106443.

(收稿日期:2023-06-06,修回日期:2023-06-28)

Flotation Grade Prediction Model Based on LSTM Neural Network

WANG Chun-jing1,2, LIU Dan1,2, ZHANG Wen-kang1,2,

SHAO Ping1,2, YU Long-zhou3, ZHOU Gong-qiang4

(1.Faculty of Land and Resources Engineering, Kunming University of Science and Technology;2.State Key Laboratory of Clean Utilization of Complex Nonferrous Metal Resources ;3. Yunnan Amade Electrical Engineering Co.,Ltd;

4. CAS Chengdu Information Technology Co., Ltd.)

Abstract? ?Considering the difficulty in real-time monitoring the concentrate grade of flotation process in the mineral processing industry, a flotation grade prediction model based on long short-term memory (LSTM) cyclic neural network was proposed. In which, through making use of the time-series correlation of flotation grade parameters, a two-layer LSTM network was used to extract features, and parameters such as reagent addition, aeration rate, ore pulp pH value during flotation were used as input values to real-time predict the concentrate grade after the flotation, including evaluating the prediction results with mean absolute error (MAE), root mean square error (RMSE), and R-squared (R2). The experimental results show that, the both parameters and structure of the neural network model are set reasonably along with good prediction performance; and the MAE is 0.080 7, the RMSE stands at 0.109 and the R2 reaches 0.678. The model is suitable for real-time concentrate grade prediction in the flotation process, and the parameters of the flotation process can be adjusted according to the predicted value feedback to make the concentrate grade approach the expected value, which can promote the intelligence of the flotation process.

Key words? ?long short-term memory network, deep learning, time series, flotation grade forecast

猜你喜歡
時(shí)間序列深度學(xué)習(xí)
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
上證綜指收益率的影響因素分析
基于指數(shù)平滑的電站設(shè)備故障時(shí)間序列預(yù)測(cè)研究
基于時(shí)間序列的我國(guó)人均GDP分析與預(yù)測(cè)
商(2016年32期)2016-11-24 16:20:57
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
基于線性散列索引的時(shí)間序列查詢方法研究
軟件工程(2016年8期)2016-10-25 15:43:57
锦州市| 丰县| 南靖县| 富源县| 镇平县| 田东县| 曲阜市| 荃湾区| 德昌县| 厦门市| 开平市| 湾仔区| 疏勒县| 沂源县| 茶陵县| 巴南区| 高碑店市| 尉氏县| 宁津县| 通化市| 翁牛特旗| 平舆县| 金门县| 屏东县| 怀集县| 泰安市| 和林格尔县| 马鞍山市| 杂多县| 辉县市| 田阳县| 印江| 永福县| 清水县| 奉化市| 连云港市| 绥江县| 霍城县| 深泽县| 汤原县| 社会|