郭俊逸 陸昊鋮 吳仕琦 陳嘉健
金融科技的應(yīng)用旨在利用先進(jìn)的科技手段,推動(dòng)金融服務(wù)的創(chuàng)新與變革,從而使得金融服務(wù)能夠更加便捷、普惠、高效且安全。金融科技的發(fā)展歷程與信息技術(shù)息息相關(guān):19世紀(jì),電報(bào)和電話的發(fā)明加速了金融信息的傳遞速度,使得金融市場(chǎng)能更快地響應(yīng)各種信息;到了20世紀(jì),計(jì)算機(jī)的發(fā)展為金融科技提供了強(qiáng)有力的技術(shù)支持,將金融科技推向新的時(shí)代(X L ZHENG,M Y ZHU,Q B LI.et al.,2019);進(jìn)入21世紀(jì),隨著互聯(lián)網(wǎng)及大數(shù)據(jù)、云計(jì)算、人工智能等技術(shù)的出現(xiàn),金融與科技的深度融合正推動(dòng)著全球經(jīng)濟(jì)向智能化轉(zhuǎn)型。
正是在這個(gè)背景下,人工智能和金融科技的潛力得到了更多的關(guān)注。通過機(jī)器學(xué)習(xí)和深度學(xué)習(xí)等方法,人工智能模型能夠處理和分析大量復(fù)雜的金融數(shù)據(jù),協(xié)助金融機(jī)構(gòu)進(jìn)行快速準(zhǔn)確地分析和決策,從而提高金融服務(wù)的效率和質(zhì)量。隨著人工智能技術(shù)日漸成熟,許多金融機(jī)構(gòu)如商業(yè)銀行、投資銀行、保險(xiǎn)公司、私募基金等開始嘗試將人工智能應(yīng)用在資產(chǎn)管理、自動(dòng)交易、金融客服、欺詐監(jiān)測(cè)等方面并且取得顯著的成果。然而,在亮麗的外表下,人工智能在金融領(lǐng)域的應(yīng)用仍然存在一些限制和挑戰(zhàn)。黨的二十大報(bào)告指出,防范金融風(fēng)險(xiǎn)還須解決許多重大問題。其中,包括數(shù)據(jù)安全性、模型的透明度及解釋性等問題。在當(dāng)今這個(gè)金融市場(chǎng)中,如何應(yīng)對(duì)這些挑戰(zhàn),使得金融科技和人工智能的應(yīng)用更加安全、有效,將是一個(gè)重要的議題。
本文將從三個(gè)主要方面深入探討這個(gè)議題:第一,介紹人工智能模型的特性及這些特性對(duì)于金融行業(yè)的影響;第二,分析人工智能應(yīng)用在當(dāng)前金融領(lǐng)域存在的問題和風(fēng)險(xiǎn);第三,討論人工智能在金融領(lǐng)域存在的問題的潛在解決方案以及未來(lái)發(fā)展前景。筆者希望,通過深入研究并提出解決方案,能夠推動(dòng)中國(guó)乃至全球的金融科技和人工智能不斷向前發(fā)展。
成功的人工智能模型離不開數(shù)據(jù)的支持。以近期流行的大語(yǔ)言模型(Large Language Model)為例,Bard的LaMDA模型使用137B個(gè)參數(shù)進(jìn)行訓(xùn)練,OpenAI公司的G P T 3.5 模型使用1 7 5 B 個(gè)參數(shù)進(jìn)行訓(xùn)練,而目前效果最好的GPT4則使用多達(dá)1T個(gè)參數(shù)作為訓(xùn)練數(shù)據(jù) (S SOMAN,H G RANJANNI,2023)。由此可見,用于訓(xùn)練的數(shù)據(jù)的質(zhì)量、數(shù)量和多樣性直接影響模型的性能。目前,主流的AI模型均為通過訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)測(cè),良好的訓(xùn)練數(shù)據(jù)可以幫助人工智能模型得到更準(zhǔn)確的效果(B LI,P QI,B LIU,2022)。因此,數(shù)據(jù)作為人工智能模型的基礎(chǔ),具有不可替代的作用。
挑戰(zhàn)1:金融數(shù)據(jù)特有的性質(zhì)會(huì)阻礙人工智能模型實(shí)現(xiàn)效益最大化。第一,金融數(shù)據(jù)的巨大規(guī)模和復(fù)雜性使得數(shù)據(jù)預(yù)處理階段變得尤為困難,如數(shù)據(jù)類別的差異性大,權(quán)益資產(chǎn)、固定收益資產(chǎn)、不動(dòng)產(chǎn)、另類資產(chǎn)等各類資產(chǎn)的數(shù)據(jù)特性差異顯著。這使得適應(yīng)各類數(shù)據(jù)特性的人工智能模型預(yù)處理變得更為復(fù)雜。第二,金融領(lǐng)域的相關(guān)數(shù)據(jù)通常源自多個(gè)渠道,包括中央銀行、證券交易所、投資銀行等。盡管這些數(shù)據(jù)都屬于同一類別,但由于每個(gè)機(jī)構(gòu)統(tǒng)計(jì)的天數(shù)、選取的樣本數(shù)量等可能存在差異,導(dǎo)致同類數(shù)據(jù)間也有微小的差異。這種微小的差異可能會(huì)對(duì)AI模型的預(yù)測(cè)結(jié)果產(chǎn)生重大影響。第三,數(shù)據(jù)的隱私性和安全性也是金融機(jī)構(gòu)需要重點(diǎn)考慮的問題。一項(xiàng)研究表明,62%的銀行家對(duì)大數(shù)據(jù)的使用持謹(jǐn)慎態(tài)度(B FANG,P ZHANG,2016)。部分私人金融機(jī)構(gòu)可能出于保護(hù)商業(yè)競(jìng)爭(zhēng)力和客戶隱私的需要,不愿公開或分享數(shù)據(jù)。而這無(wú)疑增加了人工智能模型在金融領(lǐng)域的數(shù)據(jù)收集和分析的難度。第四,人工智能模型通常需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,然而,對(duì)于一些短期內(nèi)收益起伏較大的金融機(jī)構(gòu),如私募基金,其數(shù)據(jù)的穩(wěn)定性不足,貿(mào)然使用這類數(shù)據(jù)可能會(huì)產(chǎn)生極端值。這些極端值可能會(huì)對(duì)人工智能模型的訓(xùn)練和結(jié)果造成影響。第五,金融行業(yè)數(shù)據(jù)的即時(shí)性也是限制人工智能模型廣泛應(yīng)用的因素之一。對(duì)于實(shí)時(shí)更新的金融數(shù)據(jù)流,人工智能模型需要在短時(shí)間內(nèi)處理大量的數(shù)據(jù),這對(duì)模型的計(jì)算能力和處理速度提出極高的要求,所需的計(jì)算資源也會(huì)為企業(yè)帶來(lái)巨大的成本。第六,金融市場(chǎng)的波動(dòng)性會(huì)導(dǎo)致數(shù)據(jù)常常伴隨著噪聲和異常值,這會(huì)干擾人工智能模型的學(xué)習(xí)和預(yù)測(cè),從而影響模型的準(zhǔn)確性和穩(wěn)定性。
過擬合(Overfitting)是機(jī)器學(xué)習(xí)和統(tǒng)計(jì)模型中的一個(gè)現(xiàn)象,其體現(xiàn)為模型在處理訓(xùn)練數(shù)據(jù)或歷史數(shù)據(jù)時(shí)表現(xiàn)優(yōu)異,然而在應(yīng)對(duì)測(cè)試數(shù)據(jù)或未知數(shù)據(jù)時(shí)則表現(xiàn)欠佳,因此難以有效處理新的數(shù)據(jù)并進(jìn)行準(zhǔn)確預(yù)測(cè)。具體來(lái)說,模型在訓(xùn)練過程中開始“記憶”一些無(wú)意義的噪音和異常值,而不是從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)潛在規(guī)律。產(chǎn)生過擬合的原因包括模型復(fù)雜度過高、數(shù)據(jù)量過小、數(shù)據(jù)噪聲幅度大,以及訓(xùn)練迭代次數(shù)過多等。Fernando和Rafael指出,“鑒于歷史數(shù)據(jù)的相對(duì)稀缺性和金融序列不斷變化的性質(zhì),將深度學(xué)習(xí)技術(shù)應(yīng)用到金融數(shù)據(jù)時(shí),過度擬合是不可避免的現(xiàn)象” (F D M PARDO ,R C LOPEZ,2020)。
挑戰(zhàn)2:過擬合現(xiàn)象會(huì)影響人工智能模型在金融行業(yè)的預(yù)測(cè)準(zhǔn)確性。金融市場(chǎng)的變化實(shí)質(zhì)上是對(duì)現(xiàn)實(shí)世界的真實(shí)事件作出的反應(yīng),這導(dǎo)致了金融市場(chǎng)具有較高的隨機(jī)性,因此金融數(shù)據(jù)往往含有噪聲、非線性數(shù)據(jù),以及許多隱藏的、影響市場(chǎng)行為的因素。這意味人工智能模型在處理金融數(shù)據(jù)時(shí)不可避免會(huì)遇到過擬合現(xiàn)象。David和Marcos在研究中指出,基于人工智能得出的“最優(yōu)”金融投資策略通常在統(tǒng)計(jì)學(xué)角度表現(xiàn)優(yōu)異,但在現(xiàn)實(shí)中卻是海市蜃樓(D H.BAILEY ,M L D PRADO,2011)。具體來(lái)說,金融市場(chǎng)表現(xiàn)出的是金融產(chǎn)品的實(shí)際價(jià)值與投資者預(yù)期的結(jié)合,這意味著當(dāng)現(xiàn)實(shí)世界受到突發(fā)事件的影響時(shí),投資者的行為與金融產(chǎn)品的表現(xiàn)會(huì)使得金融市場(chǎng)頻繁受到?jīng)_擊。人工智能模型的預(yù)測(cè)結(jié)果也會(huì)相應(yīng)地受到影響。此外,由于金融市場(chǎng)的隨機(jī)性,模型可能會(huì)在不斷地訓(xùn)練中過度適應(yīng)歷史數(shù)據(jù)中的噪聲,從而無(wú)法有效預(yù)測(cè)未來(lái)的趨勢(shì),以至于造成人工智能模型預(yù)測(cè)結(jié)果偏差較大。
當(dāng)前,普遍使用的人工智能模型的決策依據(jù)主要來(lái)源于訓(xùn)練數(shù)據(jù),盡管常規(guī)意義上的人工智能模型是客觀的,但模型訓(xùn)練所使用的數(shù)據(jù)存在一定的偏見性,例如性別、年齡、收入等方面的偏差。人工智能模型在訓(xùn)練過程中可能會(huì)無(wú)法判斷,甚至?xí)W(xué)習(xí)和復(fù)制這種偏差,從而導(dǎo)致其預(yù)測(cè)結(jié)果受到影響。主觀偏差會(huì)造成人工智能模型中一類常見的問題,即算法偏見。算法偏見(Algorithmic Bias)是指人工智能模型在預(yù)測(cè)、決策過程中表現(xiàn)出對(duì)某一類群體或特定結(jié)果的不公正傾向。這種傾向通常源自模型訓(xùn)練數(shù)據(jù)的不平衡或者特征選擇的問題。
挑戰(zhàn)3:算法偏見會(huì)造成多方位的社會(huì)問題。當(dāng)人工智能模型應(yīng)用在金融系統(tǒng)時(shí),算法偏見可能會(huì)引起一系列問題。首先,算法偏見會(huì)導(dǎo)致某些群體在使用金融服務(wù)時(shí)受到歧視。其次,人工智能模型的決策結(jié)果存在偏見會(huì)造成預(yù)測(cè)結(jié)果異常,不僅會(huì)對(duì)企業(yè)造成一定量的虧損,還有可能導(dǎo)致其品牌形象和社會(huì)信譽(yù)受損。人工智能模型中的算法偏見并非刻意為之,但其結(jié)果可能導(dǎo)致一些嚴(yán)重的社會(huì)問題,尤其是在對(duì)模型準(zhǔn)確度要求更高的金融領(lǐng)域。算法偏見會(huì)從四個(gè)方面對(duì)金融行業(yè)造成影響。第一,信貸評(píng)估:在使用人工智能模型進(jìn)行信貸評(píng)估時(shí),如果訓(xùn)練數(shù)據(jù)中存在偏見,例如,對(duì)特定人群(如某一種族、性別或年齡段)的過度代表或欠代表,可能導(dǎo)致算法在評(píng)估信貸風(fēng)險(xiǎn)時(shí)產(chǎn)生偏見。例如,如果歷史數(shù)據(jù)顯示某一種族或性別的違約率較高,算法可能會(huì)對(duì)此類人群進(jìn)行不公平的高風(fēng)險(xiǎn)評(píng)估。第二,投資策略:在使用算法制定投資策略時(shí),如果訓(xùn)練數(shù)據(jù)主要基于某個(gè)特定的市場(chǎng)階段(如牛市或熊市),可能導(dǎo)致算法在面對(duì)不同的市場(chǎng)環(huán)境時(shí)表現(xiàn)出偏差。例如,如果算法主要在牛市環(huán)境下進(jìn)行訓(xùn)練,它可能在熊市環(huán)境下表現(xiàn)不佳。第三,高頻交易:高頻交易(HFT)使用復(fù)雜的算法在極短的時(shí)間內(nèi)進(jìn)行大量交易,以獲得微小的價(jià)格差異帶來(lái)的利潤(rùn)。然而,這些算法可能對(duì)市場(chǎng)產(chǎn)生不利影響,如加劇市場(chǎng)波動(dòng)、引發(fā)“閃電崩盤”等。這種情況下的偏差更多的是對(duì)市場(chǎng)整體的影響,而不僅僅是對(duì)單個(gè)個(gè)體。第四,保險(xiǎn)定價(jià):在使用算法對(duì)保險(xiǎn)產(chǎn)品進(jìn)行定價(jià)時(shí),如果算法過度關(guān)注個(gè)別因素(如年齡、性別或健康狀況),可能導(dǎo)致對(duì)某些人群的不公平定價(jià)。例如,如果算法在健康保險(xiǎn)定價(jià)時(shí)過度依賴年齡因素,可能導(dǎo)致年長(zhǎng)者的保費(fèi)過高。由此可見,人工智能模型造成的算法偏見可能造成的潛在風(fēng)險(xiǎn)是每個(gè)金融從業(yè)者在使用人工智能技術(shù)時(shí)都不得不考慮的問題。
人工智能模型,尤其是深度學(xué)習(xí)模型,通常由數(shù)百萬(wàn)甚至數(shù)億個(gè)參數(shù)組成,這些參數(shù)在模型訓(xùn)練過程中進(jìn)行復(fù)雜的數(shù)學(xué)運(yùn)算,形成難以理解的決策邏輯。由于其內(nèi)部工作原理很難被觀察到,這些模型通常被視為“黑箱”(Black Box)。
“黑箱”產(chǎn)生的原因有以下兩點(diǎn):一是一些復(fù)雜的模型,例如深度神經(jīng)網(wǎng)絡(luò),包含大量的隱藏層和參數(shù),導(dǎo)致模型的決策過程十分復(fù)雜且難以直觀的分析和理解。二是許多模型需要處理大量高維數(shù)據(jù),例如卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)或循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network),數(shù)據(jù)的復(fù)雜性也會(huì)導(dǎo)致模型決策過程的透明度降低。
挑戰(zhàn)4:人工智能模型的不透明性會(huì)為金融行業(yè)帶來(lái)監(jiān)管問題?!昂谙洹边@一特征導(dǎo)致人工智能模型缺乏透明度,從而使監(jiān)管機(jī)構(gòu)、利益相關(guān)者、客戶對(duì)人工智能的決策產(chǎn)生質(zhì)疑。在金融領(lǐng)域,透明度被認(rèn)為是非常重要的一個(gè)因素。監(jiān)管機(jī)構(gòu)維持金融市場(chǎng)穩(wěn)定的重要步驟之一是了解金融市場(chǎng)的運(yùn)作過程,然而,人工智能模型決策的不透明性與之背道而馳,在一些情況下甚至?xí)`反某些金融法規(guī)。例如,歐洲的通用數(shù)據(jù)保護(hù)條例(GDPR)中要求企業(yè)能夠解釋對(duì)個(gè)人產(chǎn)生明顯影響的決策的人工智能系統(tǒng),盡管GDPR并不要求企業(yè)透露全部的算法,但是由于“黑箱”模型的存在,如何解釋算法決策過程可能會(huì)無(wú)法滿足GDPR的要求(張濤,2019)。除此之外,投資者可能會(huì)因?yàn)槟P偷牟煌该鞫葘?duì)人工智能模型與金融機(jī)構(gòu)產(chǎn)生信任危機(jī),會(huì)避免將所有資產(chǎn)與個(gè)人名譽(yù)置于危墻之下,企業(yè)利益和信譽(yù)也會(huì)隨之受損。由于無(wú)法理解“黑箱”模型內(nèi)部的運(yùn)算過程,使用者和監(jiān)管者也無(wú)法對(duì)“黑箱”模型進(jìn)行有效的風(fēng)險(xiǎn)管理。以工具為例,用戶使用工具時(shí)不僅需要了解工具的使用方法,還需要知道工具的注意事項(xiàng),這樣才能保證達(dá)成目的的同時(shí)也不會(huì)危害到人身安全。對(duì)于應(yīng)用于金融領(lǐng)域的人工智能模型,低透明度意味著有相對(duì)較低的風(fēng)險(xiǎn)管控能力,同時(shí)也會(huì)一定程度上使人工智能模型游離于監(jiān)管之外。
黑天鵝事件(Black Swan Event)指那些極端但又具有深遠(yuǎn)影響的罕見事件,這類事件的特點(diǎn)是預(yù)測(cè)困難且影響巨大(N N TALEB,2007)。黑天鵝事件在金融市場(chǎng)中用于形容那些無(wú)法預(yù)料且對(duì)市場(chǎng)有巨大打擊的突發(fā)事件。
挑戰(zhàn)5:人工智能模型無(wú)法很好地應(yīng)對(duì)黑天鵝事件及其帶來(lái)的影響。一般來(lái)說,造成黑天鵝事件的原因包括三個(gè)方面:一是市場(chǎng)的不完全理性,雖然金融市場(chǎng)在大部分時(shí)候是理性的,但是市場(chǎng)參與者的非理性行為,例如恐慌性買賣有可能會(huì)引發(fā)黑天鵝事件;二是復(fù)雜的經(jīng)濟(jì)系統(tǒng)互動(dòng),在當(dāng)前經(jīng)濟(jì)全球化的背景下,各個(gè)市場(chǎng)和金融產(chǎn)品之間的相互影響和聯(lián)系使得金融體系變得越來(lái)越復(fù)雜,可能會(huì)導(dǎo)致黑天鵝事件;三是政策因素,不可預(yù)測(cè)的政策變化常常是引發(fā)金融市場(chǎng)變動(dòng)的黑天鵝事件,例如貨幣政策轉(zhuǎn)向等。于2022年初開始的俄烏沖突可被視為一種黑天鵝事件。首先,沖突導(dǎo)致俄羅斯和烏克蘭地區(qū)的實(shí)體經(jīng)濟(jì)受到嚴(yán)重打擊?;A(chǔ)設(shè)施遭到破壞,工廠停產(chǎn),供應(yīng)鏈中斷,這些都直接影響了生產(chǎn)和貿(mào)易。進(jìn)而,這種影響會(huì)擴(kuò)散到全球范圍,尤其是對(duì)那些與這兩個(gè)國(guó)家有密切經(jīng)濟(jì)聯(lián)系的國(guó)家。其次,沖突還會(huì)引發(fā)能源價(jià)格的劇烈波動(dòng),特別是俄羅斯作為全球主要的石油和天然氣供應(yīng)國(guó),沖突可能導(dǎo)致能源供應(yīng)中斷,進(jìn)而推高全球石油和天然氣價(jià)格,影響全球經(jīng)濟(jì)的穩(wěn)定。再者,沖突引發(fā)的政治和經(jīng)濟(jì)不確定性會(huì)導(dǎo)致全球金融市場(chǎng)的劇烈波動(dòng)。在沖突爆發(fā)的消息公布后,投資者可能會(huì)出于風(fēng)險(xiǎn)規(guī)避的心理大規(guī)模拋售股票和其他風(fēng)險(xiǎn)資產(chǎn),導(dǎo)致股市暴跌。同時(shí),投資者可能會(huì)轉(zhuǎn)向黃金、美元等被視為“避風(fēng)港”的資產(chǎn),推高這些資產(chǎn)的價(jià)格。俄烏沖突這類黑天鵝事件會(huì)對(duì)全球金融市場(chǎng)造成巨大的影響,然而,對(duì)于人工智能模型來(lái)說,這類突發(fā)性事件是很難預(yù)測(cè)的。并且其引起的一系列經(jīng)濟(jì)金融波動(dòng)也會(huì)造成人工智能模型對(duì)事件發(fā)生之后的金融市場(chǎng)的分析出現(xiàn)誤差。
由此可見,黑天鵝事件是人工智能模型在金融領(lǐng)域廣泛應(yīng)用的重要阻礙之一。黑天鵝事件的預(yù)測(cè)難度很大,人工智能模型對(duì)于此類事件的預(yù)測(cè)能力表現(xiàn)得并不令人滿意,且事件發(fā)生后人工智能模型的預(yù)測(cè)準(zhǔn)確度會(huì)有一定下降。人工智能模型的預(yù)測(cè)失準(zhǔn)會(huì)導(dǎo)致金融機(jī)構(gòu)和投資者做出錯(cuò)誤的商業(yè)決策,造成無(wú)可估量的經(jīng)濟(jì)損失。此外,黑天鵝事件發(fā)生后,模型將不得不進(jìn)行大規(guī)模參數(shù)調(diào)整,這會(huì)為模型優(yōu)化帶來(lái)困難和潛在風(fēng)險(xiǎn)。
挑戰(zhàn)6:人工智能模型的廣泛應(yīng)用可能會(huì)造成金融市場(chǎng)的就業(yè)問題。隨著人工智能技術(shù)的日益發(fā)展和成熟,其在金融領(lǐng)域的應(yīng)用也逐步擴(kuò)大。然而,這種發(fā)展趨勢(shì)在某種程度上導(dǎo)致了金融市場(chǎng)就業(yè)狀況的波動(dòng),因?yàn)橐恍┕ぷ髀毮軙?huì)逐步被人工智能技術(shù)所取代?!耙允窞殍b,可以知興替”,回顧歷史,我們可以看到這并非首次出現(xiàn)技術(shù)替代人力的現(xiàn)象。在工業(yè)革命的初期,許多曾經(jīng)依賴人力完成的工作,如紡織縫紉等,被“勞動(dòng)力替代型技術(shù)”所取代,從而導(dǎo)致大量工人失業(yè)。這種現(xiàn)象造成工人的收入水平下降,資本家的利潤(rùn)上升,對(duì)整體經(jīng)濟(jì)發(fā)展產(chǎn)生了深遠(yuǎn)影響,被經(jīng)濟(jì)史學(xué)家羅伯特·艾倫稱為“恩格斯停滯”(C B FREY,2019)。不僅如此,據(jù)弗雷和奧斯本在2013年的研究預(yù)測(cè),未來(lái)20年,美國(guó)有47%的工作面臨被技術(shù)取代的風(fēng)險(xiǎn)(C B FREY,M A OSBORNE,2013)。在金融業(yè)中,一些可以通過自動(dòng)化程序完成的任務(wù),如數(shù)據(jù)處理、審計(jì)以及某些類型的客戶服務(wù),很可能在未來(lái)被人工智能技術(shù)取代。然而,這種勞動(dòng)力被技術(shù)替代的趨勢(shì)在短期內(nèi)可能導(dǎo)致社會(huì)穩(wěn)定性受到?jīng)_擊。因?yàn)殡S著一些工作崗位的消失,一些員工可能會(huì)發(fā)現(xiàn)他們的技能不能再滿足市場(chǎng)的需求。這可能會(huì)帶來(lái)一系列社會(huì)問題,如就業(yè)安全感的缺失和收入的不均等,進(jìn)而導(dǎo)致社會(huì)不滿情緒的上升。盡管人工智能的發(fā)展和應(yīng)用帶來(lái)了效率的提升和成本的降低,但其對(duì)金融行業(yè)勞動(dòng)力的影響也不容忽視。如何在新技術(shù)帶來(lái)的變革中,保持社會(huì)穩(wěn)定和公平,是我們面臨的重大挑戰(zhàn)。
挑戰(zhàn)7:人工智能模型存在安全隱患。安全,作為互聯(lián)網(wǎng)時(shí)代的關(guān)鍵核心之一,是每項(xiàng)科技進(jìn)步必須優(yōu)先關(guān)注和考慮的問題。安全的重要性在金融領(lǐng)域更加引人注目,因此,人工智能模型可能帶來(lái)的風(fēng)險(xiǎn)亦成為一個(gè)迫切需要解決的問題。人工智能算法在金融領(lǐng)域主要有以下三方面的問題:第一,數(shù)據(jù)安全問題。人工智能模型在金融領(lǐng)域的應(yīng)用通常需要處理大量的個(gè)人和企業(yè)數(shù)據(jù)。這些數(shù)據(jù)可能包括敏感信息,如個(gè)人身份信息、銀行賬戶信息、信貸歷史等。如果這些數(shù)據(jù)的保護(hù)措施不足,可能會(huì)導(dǎo)致數(shù)據(jù)泄露,對(duì)個(gè)人或者企業(yè)造成嚴(yán)重?fù)p失。第二,模型穩(wěn)健性問題。模型穩(wěn)健性是指模型在面對(duì)輸入數(shù)據(jù)的微小變化時(shí),其預(yù)測(cè)結(jié)果是否能夠保持穩(wěn)定的性質(zhì)。如果一個(gè)模型的穩(wěn)健性不足,可能會(huì)導(dǎo)致其在金融決策中的表現(xiàn)不穩(wěn)定,甚至可能出現(xiàn)嚴(yán)重的錯(cuò)誤。例如,如果一個(gè)模型對(duì)價(jià)格波動(dòng)的預(yù)測(cè)在面對(duì)微小的市場(chǎng)變化時(shí)出現(xiàn)大幅波動(dòng),那么這個(gè)模型在實(shí)際應(yīng)用中可能會(huì)導(dǎo)致嚴(yán)重的金融損失。第三,惡意攻擊問題。隨著人工智能模型在金融領(lǐng)域的應(yīng)用越來(lái)越廣泛,它們也成了攻擊者的目標(biāo)。惡意攻擊者可能會(huì)嘗試篡改模型的輸入數(shù)據(jù),以欺騙模型做出錯(cuò)誤的預(yù)測(cè)。這種攻擊方式被稱為對(duì)抗性攻擊。例如,攻擊者可能會(huì)通過篡改他們的信貸申請(qǐng)數(shù)據(jù),欺騙信貸審批模型批準(zhǔn)他們的貸款金額。
在金融領(lǐng)域,人工智能模型的安全性是一項(xiàng)至關(guān)重要的議題,須被認(rèn)真對(duì)待并謹(jǐn)慎管理。隨著人工智能的不斷演進(jìn)以及其在金融業(yè)務(wù)中的日益廣泛應(yīng)用,確保這些系統(tǒng)的安全性成為對(duì)抗?jié)撛谄茐囊约熬S系公眾對(duì)金融機(jī)構(gòu)信任度的關(guān)鍵所在。
挑戰(zhàn)8:人工智能模型大規(guī)模應(yīng)用可能會(huì)打破金融市場(chǎng)的平衡。在中國(guó),政府的干預(yù)對(duì)于經(jīng)濟(jì)高質(zhì)量發(fā)展有不可或缺的作用(王桂梅,趙喜倉(cāng),羅雨森,2020)。然而,人工智能模型在金融領(lǐng)域的大規(guī)模應(yīng)用可能會(huì)對(duì)政府干預(yù)造成一定的影響,主要表現(xiàn)在監(jiān)管難度增加、缺少人為干預(yù)的問題,以及可能打破資源分配平衡,導(dǎo)致財(cái)富兩極化。首先,如前所述,人工智能模型的復(fù)雜性和不透明性會(huì)增加監(jiān)管的難度。政府需要確保金融市場(chǎng)的公平、透明和穩(wěn)定,而這需要對(duì)市場(chǎng)行為有清晰和深入的理解。人工智能模型的決策過程通?;趶?fù)雜的算法和大量的數(shù)據(jù),這使得其決策過程往往難以理解和審查,進(jìn)而會(huì)對(duì)政府的監(jiān)管能力提出挑戰(zhàn)。其次,盡管人工智能模型在某些工作上的效率和精確性超過人類,但它缺乏理解和執(zhí)行人為干預(yù)的能力。這是因?yàn)槿藶楦深A(yù)通常涉及對(duì)復(fù)雜的社會(huì)和經(jīng)濟(jì)問題的理解,需要在各種利益之間進(jìn)行權(quán)衡,這超出了人工智能模型目前的能力范圍。并且金融市場(chǎng)的穩(wěn)定性需要人為監(jiān)管來(lái)維護(hù),而人工智能模型的大規(guī)模使用會(huì)為監(jiān)管增加難度。最后,人工智能模型的大規(guī)模應(yīng)用可能會(huì)打破資源分配的平衡,導(dǎo)致財(cái)富的兩極化。因?yàn)槿斯ぶ悄苣P偷拈_發(fā)和應(yīng)用需要投入大量的資源,這使得擁有這些資源的公司會(huì)獲得更強(qiáng)的競(jìng)爭(zhēng)力,并且會(huì)使其在金融博弈中占據(jù)優(yōu)勢(shì)地位且有可能造成財(cái)富分配不均、市場(chǎng)壟斷等經(jīng)濟(jì)問題。
例如,通過LSTM股價(jià)預(yù)測(cè)模型的預(yù)測(cè)結(jié)果和對(duì)股票市場(chǎng)具體分析的結(jié)果可以看出,盡管LSTM對(duì)于價(jià)格長(zhǎng)期穩(wěn)定的股票具有相對(duì)較高的預(yù)測(cè)準(zhǔn)確率,但其無(wú)法準(zhǔn)確預(yù)測(cè)短時(shí)間大幅漲跌的股票。這也證明了人工智能模型無(wú)法準(zhǔn)確預(yù)測(cè)復(fù)雜的金融市場(chǎng)以及對(duì)金融市場(chǎng)有影響的事件。此外,在使用人工智能模型時(shí)選取的數(shù)據(jù)集也會(huì)對(duì)結(jié)果產(chǎn)生較大影響。
盡管當(dāng)前的大部分人工智能技術(shù)在金融領(lǐng)域的應(yīng)用都存在一些問題,但人工智能依然是一項(xiàng)值得深入探索的技術(shù)。針對(duì)本文中討論的問題,筆者從以下三方面出發(fā),對(duì)于人工智能模型在金融領(lǐng)域的應(yīng)用提出建議。
在人工智能技術(shù)井噴式發(fā)展的當(dāng)前,政府和有關(guān)部門應(yīng)出臺(tái)更多相關(guān)的政策和法規(guī)來(lái)保證人工智能模型的使用走在正確的道路上。金融領(lǐng)域?qū)?shù)據(jù)的處理、信息的透明度及業(yè)務(wù)的公平性等都有嚴(yán)格的要求,而這些都是人工智能模型在使用過程中需要關(guān)注的問題。法規(guī)和政策在很大程度上決定了金融機(jī)構(gòu)如何、在何種范圍內(nèi)使用這項(xiàng)技術(shù),也影響了人工智能模型在金融領(lǐng)域的創(chuàng)新和發(fā)展。因此,建立明智的法規(guī)和政策,以及與之相適應(yīng)的實(shí)踐,對(duì)于推動(dòng)人工智能模型在金融領(lǐng)域的成功應(yīng)用至關(guān)重要(吳漢東,2017)。
政府和有關(guān)部門應(yīng)考慮以下幾方面:第一,數(shù)據(jù)保護(hù)與隱私政策,規(guī)定如何收集、存儲(chǔ)、處理和共享個(gè)人和機(jī)構(gòu)的金融數(shù)據(jù),確保數(shù)據(jù)的安全性和隱私;第二,算法透明度和可解釋性政策,對(duì)于金融機(jī)構(gòu)使用的人工智能算法,需要有規(guī)定要求其能夠解釋其決策過程和結(jié)果,增強(qiáng)算法的可信度和公正性;第三,算法公平性和無(wú)歧視政策,金融機(jī)構(gòu)在使用人工智能進(jìn)行決策時(shí),應(yīng)遵循公平性和無(wú)歧視原則,避免算法偏見帶來(lái)的不公正;第四,風(fēng)險(xiǎn)管理政策,需要有針對(duì)使用人工智能的金融機(jī)構(gòu)的特殊風(fēng)險(xiǎn)管理規(guī)定,包括數(shù)據(jù)泄露、算法誤判、系統(tǒng)故障等風(fēng)險(xiǎn);第五,人工智能責(zé)任和監(jiān)管政策,明確人工智能在金融交易和決策中的責(zé)任,建立相應(yīng)的監(jiān)管機(jī)制,確保人工智能的合規(guī)使用;第六,人工智能教育和培訓(xùn)政策,推動(dòng)在金融機(jī)構(gòu)內(nèi)部進(jìn)行人工智能教育和培訓(xùn),提高員工的AI素養(yǎng),確保他們能理解和正確使用人工智能。
人工智能的相關(guān)政策需要政府、金融機(jī)構(gòu)、人工智能企業(yè)以及公眾共同參與和建設(shè),從而為人工智能在金融領(lǐng)域的應(yīng)用和發(fā)展創(chuàng)造健康的環(huán)境。
在金融科技不斷創(chuàng)新的潮流中,金融企業(yè)如何理解和使用人工智能技術(shù),是決定其在金融市場(chǎng)競(jìng)爭(zhēng)中取得優(yōu)勢(shì)地位的關(guān)鍵之一。針對(duì)前文提到的挑戰(zhàn),筆者提出以下建議。
金融企業(yè)應(yīng)保證數(shù)據(jù)和信息安全。金融領(lǐng)域的數(shù)據(jù)安全由于涉及個(gè)人財(cái)產(chǎn)、公司信譽(yù)、商業(yè)機(jī)密等高敏感度的因素,顯得格外重要。第一,加強(qiáng)數(shù)據(jù)加密,對(duì)存儲(chǔ)和傳輸?shù)臄?shù)據(jù)進(jìn)行加密,是保護(hù)數(shù)據(jù)安全的最基本方式,可以防止未經(jīng)授權(quán)的人員訪問和使用數(shù)據(jù),同時(shí)應(yīng)使用最新和最安全的加密技術(shù),并定期更新加密算法和密鑰。第二,使用安全的數(shù)據(jù)存儲(chǔ)和處理設(shè)施,確保使用的云服務(wù)或物理數(shù)據(jù)中心具有高級(jí)別的安全保護(hù)措施。數(shù)據(jù)中心應(yīng)該有嚴(yán)格的物理安全措施,以及高級(jí)的網(wǎng)絡(luò)安全措施,例如防火墻和入侵檢測(cè)系統(tǒng)。第三,實(shí)施強(qiáng)大的訪問控制,制定嚴(yán)格的訪問控制政策,只有經(jīng)過授權(quán)的人員才能訪問和處理數(shù)據(jù)。這包括使用強(qiáng)大的身份驗(yàn)證方法,例如多因素身份驗(yàn)證。第四,數(shù)據(jù)脫敏和匿名化,在不影響數(shù)據(jù)質(zhì)量和AI算法性能的前提下,對(duì)敏感數(shù)據(jù)進(jìn)行脫敏和匿名化。這可以減少如果數(shù)據(jù)被泄露所帶來(lái)的風(fēng)險(xiǎn)。第五,建立有效的數(shù)據(jù)泄露應(yīng)急響應(yīng)機(jī)制,即使有最好的安全措施,數(shù)據(jù)泄露的風(fēng)險(xiǎn)仍然存在。因此,應(yīng)制定數(shù)據(jù)泄露應(yīng)急響應(yīng)計(jì)劃,一旦發(fā)生數(shù)據(jù)泄露,可以迅速采取行動(dòng),最大程度地減少損害。第六,培訓(xùn)員工和用戶,員工和用戶的行為是數(shù)據(jù)安全的重要組成部分。應(yīng)定期為員工和用戶提供數(shù)據(jù)安全培訓(xùn),幫助他們了解如何保護(hù)數(shù)據(jù),避免高風(fēng)險(xiǎn)行為。第七,金融公司須合理地結(jié)合人工智能和人類智能,例如加強(qiáng)員工的培訓(xùn)和教育,使他們能夠理解人工智能技術(shù),知道如何與人工智能系統(tǒng)協(xié)作,以及如何利用人工智能來(lái)做出更好的決策。此外,要重新考慮和設(shè)計(jì)職位,將一些職位的重點(diǎn)從執(zhí)行任務(wù)轉(zhuǎn)向管理和監(jiān)督人工智能,或者從處理數(shù)據(jù)轉(zhuǎn)向解釋和利用數(shù)據(jù)。
金融企業(yè)在使用人工智能技術(shù)時(shí)應(yīng)合理選取模型。隨著時(shí)代的進(jìn)步和科技的發(fā)展,越來(lái)越多的人工智能模型在金融領(lǐng)域投入使用。從簡(jiǎn)單的線性回歸到相對(duì)復(fù)雜的神經(jīng)網(wǎng)絡(luò),人工智能模型通過不斷更新,可以發(fā)揮多樣化的作用。金融研究人員和金融分析師應(yīng)該了解特定模型在特定金融領(lǐng)域的可行性(J HUANG,J CHAI,S CHO,2020)。合理的選擇人工智能模型可以提高工作效率,在人工智能模型的幫助下將復(fù)雜問題簡(jiǎn)單化,實(shí)現(xiàn)多元化的目標(biāo)。在選擇模型的時(shí)候,企業(yè)和從業(yè)者應(yīng)該考慮以下幾方面:第一,模型性能,選取相對(duì)成熟、穩(wěn)定的模型。并且使用交叉驗(yàn)證(Cross Validation)、生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks)、正則化(Regularization)技術(shù)等方法評(píng)估模型在未知數(shù)據(jù)上的性能,從而盡可能消除過擬合等問題對(duì)模型的影響。第二,符合業(yè)務(wù)需求,選擇的模型應(yīng)與具體的業(yè)務(wù)問題緊密相關(guān)。使用者需要清楚地定義希望人工智能模型解決的問題適合何種模型,例如,自然語(yǔ)言處理(Natural Language Process)適合情感分析(Sentiment Analysis)、文本挖掘(Text Mining);深度學(xué)習(xí)適合創(chuàng)建市場(chǎng)模型、創(chuàng)建交易模型、風(fēng)險(xiǎn)分析、價(jià)格走勢(shì)預(yù)測(cè)等,信貸風(fēng)險(xiǎn)評(píng)估、欺詐檢測(cè)、市場(chǎng)走勢(shì)預(yù)測(cè)等;強(qiáng)化學(xué)習(xí)(Reinforcement Learning)適合優(yōu)化投資組合和投資行為、優(yōu)化交易策略等(L CAO,2022)。第三,解釋性,在金融領(lǐng)域,模型的解釋性非常重要。一個(gè)好的金融AI模型應(yīng)該不僅能做出準(zhǔn)確的預(yù)測(cè),還能清楚地解釋其決策過程。因此,可能需要優(yōu)先考慮具有高解釋性的模型,如決策樹、邏輯回歸等。此外,隨著人工智能技術(shù)的發(fā)展,可解釋性人工智能XAI(Explainable Artificial Intelligence)的使用可以很大程度上解決人工智能模型不透明性的問題(D GUNNING,J CHOI, T MILLER.et al,2019)。第四,數(shù)據(jù)兼容性,由于金融數(shù)據(jù)的來(lái)源差異性很強(qiáng),所選模型應(yīng)與使用的數(shù)據(jù)兼容。例如,某些模型可能需要大量的數(shù)據(jù)才能工作良好,而其他模型可能更適合處理稀疏或非結(jié)構(gòu)化的數(shù)據(jù)。第五,法規(guī)遵從性,模型的選擇需要符合金融監(jiān)管法規(guī)。例如,某些地區(qū)的法規(guī)可能要求金融機(jī)構(gòu)能夠解釋其信貸決策的原因,在這種情況下公司應(yīng)選擇透明度較高的人工智能模型。第六,技術(shù)實(shí)現(xiàn),模型的選擇應(yīng)考慮到技術(shù)實(shí)現(xiàn)的可行性。一些復(fù)雜的人工智能模型需要高性能的硬件、龐大的數(shù)據(jù)庫(kù)、高水平技術(shù)人員的支持。公司需要考慮相關(guān)的硬件設(shè)施以及技術(shù)人員的技能是否匹配,以及投入產(chǎn)出比是否值得使用人工智能模型等問題。
金融是社會(huì)的重要組成部分,其在促進(jìn)經(jīng)濟(jì)增長(zhǎng)、創(chuàng)新和社會(huì)福利方面起著關(guān)鍵作用,人工智能模型在金融領(lǐng)域的應(yīng)用應(yīng)基于維護(hù)社會(huì)穩(wěn)定的前提。
在使用人工智能模型時(shí)應(yīng)注重人工與智能相結(jié)合。具體來(lái)說,人類和機(jī)器在不同的任務(wù)上各有優(yōu)勢(shì),機(jī)器擅長(zhǎng)處理大量數(shù)據(jù)、執(zhí)行復(fù)雜計(jì)算和自動(dòng)化流程;而人類在解決需要深度理解、創(chuàng)新思考和情緒智能的問題上有優(yōu)勢(shì)。因此,應(yīng)該讓人和機(jī)器各司其職、協(xié)同合作,發(fā)揮各自的優(yōu)勢(shì)。人工智能的出現(xiàn)和發(fā)展不會(huì)取代人類,但是會(huì)取代一些工作。就像第一次工業(yè)革命之后,工廠需要更多懂得如何操作機(jī)器的勞動(dòng)力;第二次工業(yè)革命之后,社會(huì)和企業(yè)需要一系列新職位如工程師、機(jī)械師、維修工等(許怡,2022)。企業(yè)、政府和社會(huì)有必要通過適當(dāng)?shù)谋U洗胧﹣?lái)緩解過渡期的困難,以及通過勞動(dòng)市場(chǎng)政策來(lái)鼓勵(lì)新的就業(yè)機(jī)會(huì)的創(chuàng)造。對(duì)于金融行業(yè)來(lái)說,只有合理地將人力資源與人工智能技術(shù)相結(jié)合,才能在保證市場(chǎng)穩(wěn)定的情況下使這項(xiàng)技術(shù)在金融領(lǐng)域更好地發(fā)揮其作用。
在使用人工智能模型時(shí)應(yīng)執(zhí)行完整的風(fēng)險(xiǎn)管理流程。金融機(jī)構(gòu)和企業(yè)在使用人工智能技術(shù)的時(shí)候需要進(jìn)行風(fēng)險(xiǎn)評(píng)估與風(fēng)險(xiǎn)控制,從而在保證安全的情況下實(shí)現(xiàn)人工智能的價(jià)值,并且降低人工智能模型對(duì)社會(huì)穩(wěn)定性的影響。企業(yè)和政府應(yīng)定期進(jìn)行全面的風(fēng)險(xiǎn)評(píng)估,識(shí)別和量化使用人工智能可能帶來(lái)的各種風(fēng)險(xiǎn),包括數(shù)據(jù)隱私和安全風(fēng)險(xiǎn)、技術(shù)風(fēng)險(xiǎn)、合規(guī)風(fēng)險(xiǎn)、業(yè)務(wù)連續(xù)性風(fēng)險(xiǎn)等。不僅如此,在使用人工智能算法的時(shí)候應(yīng)進(jìn)行算法審核,保證其性能、可靠性和公平性。金融機(jī)構(gòu)和政府應(yīng)建立實(shí)時(shí)監(jiān)控和報(bào)告系統(tǒng),以便快速發(fā)現(xiàn)和解決任何潛在的問題。包括對(duì)模型性能的監(jiān)控、對(duì)異常交易或行為的監(jiān)控,以及對(duì)任何可能的數(shù)據(jù)泄露或安全威脅的監(jiān)控。此外,金融從業(yè)者和管理者應(yīng)制定適合自身情況的風(fēng)險(xiǎn)管理制度和框架,從而最大程度降低使用人工智能帶來(lái)的不確定性(NIST,2023)??偟膩?lái)說,風(fēng)險(xiǎn)管理是人工智能在金融市場(chǎng)廣泛應(yīng)用的關(guān)鍵部分,需要在戰(zhàn)略規(guī)劃、實(shí)施和運(yùn)營(yíng)的每個(gè)階段都予以充分的考慮。只有通過有效的風(fēng)險(xiǎn)管理,金融機(jī)構(gòu)才能充分利用人工智能,同時(shí)避免或最小化可能的負(fù)面影響。
在人工智能技術(shù)發(fā)展的過程中,數(shù)據(jù)、算法和算力被視為三大核心要素,人工智能模型在金融領(lǐng)域的未來(lái)也將受到這三大核心要素的影響。
數(shù)據(jù)作為人工智能模型的“知識(shí)原料”,在金融領(lǐng)域發(fā)揮著巨大的作用。隨著大數(shù)據(jù)技術(shù)的不斷發(fā)展,人工智能模型使用的數(shù)據(jù)將不再局限于傳統(tǒng)數(shù)據(jù)集。更多的非結(jié)構(gòu)化數(shù)據(jù)(如文本、社交媒體信息、新聞事件、消費(fèi)者行為等)作為理解金融市場(chǎng)動(dòng)態(tài)的重要信息資源,將被有效地應(yīng)用于金融領(lǐng)域的人工智能模型中。因此,對(duì)于金融機(jī)構(gòu)來(lái)說,確保數(shù)據(jù)質(zhì)量和安全性十分重要。因?yàn)閮?yōu)質(zhì)安全的數(shù)據(jù)資源不僅可以提高模型的預(yù)測(cè)準(zhǔn)確性,還有助于有效防范風(fēng)險(xiǎn),對(duì)金融行業(yè)的穩(wěn)健運(yùn)行起到了關(guān)鍵性的作用。例如可以用到反量子加密技術(shù),這也將避免再次出現(xiàn)類似于“千年蟲”的問題。就如 Jonathan在文中提到的一樣,伴隨著量子時(shí)代曙光而來(lái)的安全和加密轉(zhuǎn)變將成為最不起眼的問題(喬納森·魯安,2022)。
科技進(jìn)步將帶來(lái)更多可能性。隨著科技的進(jìn)步,越來(lái)越多新的算法不斷涌現(xiàn),例如深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)等,將為人工智能模型在金融領(lǐng)域的應(yīng)用帶來(lái)更多的可能性。深度學(xué)習(xí)技術(shù)可以通過模仿人腦神經(jīng)網(wǎng)絡(luò)來(lái)理解和學(xué)習(xí)復(fù)雜的金融模型,從而實(shí)現(xiàn)更精準(zhǔn)的預(yù)測(cè)。而強(qiáng)化學(xué)習(xí)則可以通過不斷與環(huán)境互動(dòng)和學(xué)習(xí),達(dá)到優(yōu)化決策的目的,這對(duì)于金融機(jī)構(gòu)在不確定環(huán)境下的決策有著重要價(jià)值。可以預(yù)見的是,未來(lái)的金融人工智能模型算法具有向多樣性、自動(dòng)化、透明性以及個(gè)性化發(fā)展的趨勢(shì)。多樣化指未來(lái)的模型會(huì)具有更多的功能,正如在過去的幾十年中人工智能算法從決策樹到神經(jīng)網(wǎng)絡(luò)再到大語(yǔ)言模型的發(fā)展歷程,未來(lái)的算法將有能力實(shí)現(xiàn)更多、更復(fù)雜的功能。自動(dòng)化指未來(lái)的模型會(huì)具備自我學(xué)習(xí)、自我優(yōu)化的能力。具體來(lái)說,金融領(lǐng)域的人工智能模型將具備自我檢查、主動(dòng)學(xué)習(xí)、自動(dòng)優(yōu)化等能力。透明性指金融領(lǐng)域的人工智能算法會(huì)具有較高的可理解性。如前文所述,金融行業(yè)的人工智能模型有必要被政府和企業(yè)所理解,而具有高透明度的算法,例如,XAI等會(huì)成為未來(lái)的發(fā)展方向之一。個(gè)性化指根據(jù)使用者的需求定制具有獨(dú)特能力的算法,例如金融領(lǐng)域的量化交易算法或金融類大語(yǔ)言模型等。算法的進(jìn)步伴隨著人工智能模型替代人工勞動(dòng)力的過程,未來(lái)的金融算法將有能力完成現(xiàn)在的高端人力資源所做的工作。
算力是推動(dòng)人工智能發(fā)展的關(guān)鍵驅(qū)動(dòng)力。隨著計(jì)算能力的提升和云計(jì)算技術(shù)等的發(fā)展,人工智能模型將具備處理更大規(guī)模的數(shù)據(jù)的能力,例如量子計(jì)算、邊緣計(jì)算和類腦計(jì)算。量子計(jì)算通過量子力學(xué)效應(yīng)增強(qiáng)計(jì)算能力,可以為處理大量數(shù)據(jù)或者一些突發(fā)事件提供策略優(yōu)化。在2021年5月,一家量子計(jì)算公司Zapata Computing宣布了與西班牙對(duì)外銀行 (BBVA)共同進(jìn)行的研究結(jié)果,該研究旨在調(diào)查量子系統(tǒng)在創(chuàng)建信用估值調(diào)整 (Credit Valuation Adjustment,CVA)——為盡量減少系統(tǒng)性金融風(fēng)險(xiǎn)而實(shí)施的一項(xiàng)監(jiān)管要求方面的實(shí)際應(yīng)用(Jonathan,2022)。一些大型金融機(jī)構(gòu)正在逐步認(rèn)識(shí)到,量子計(jì)算在未來(lái)具有深遠(yuǎn)且廣闊的發(fā)展前景及潛在影響力,例如高盛(Goldman Sachs)與摩根大通(J.P.Morgan Chase)等機(jī)構(gòu)的團(tuán)隊(duì)正積極探索量子計(jì)算在金融領(lǐng)域中的優(yōu)化效應(yīng),并對(duì)其在人工智能模型中的潛在應(yīng)用可能性進(jìn)行深入研究。邊緣計(jì)算作為云計(jì)算的一種補(bǔ)充,進(jìn)一步推動(dòng)了微型機(jī)器學(xué)習(xí)(TinyML)發(fā)展。這一類新技術(shù)的出現(xiàn),幫助人工智能模型以更高的速度進(jìn)行計(jì)算,這對(duì)于金融市場(chǎng)的實(shí)時(shí)決策具有極大的幫助。更重要的是,高效的計(jì)算能力也為模型的實(shí)時(shí)更新和優(yōu)化提供了可能,使得模型能夠更好地適應(yīng)金融市場(chǎng)的快速變化。
隨著數(shù)據(jù)技術(shù)、算法和算力的不斷進(jìn)步,人工智能模型在金融領(lǐng)域?qū)?huì)有更廣闊的未來(lái)。我們可以預(yù)見未來(lái)的金融市場(chǎng)將會(huì)因?yàn)楦咝У臄?shù)據(jù)處理,更加精確的預(yù)測(cè)模型以及更強(qiáng)的計(jì)算能力而變得更加智能化。因此,我們有理由期待人工智能模型為金融領(lǐng)域帶來(lái)的無(wú)限可能,幫助金融機(jī)構(gòu)更好地適應(yīng)市場(chǎng)的快速變化。
盡管人工智能在金融領(lǐng)域的應(yīng)用道阻且長(zhǎng),但是其在數(shù)據(jù)處理、風(fēng)險(xiǎn)預(yù)測(cè)、決策支持等方面獨(dú)特的優(yōu)勢(shì),讓我們對(duì)人工智能在金融領(lǐng)域的未來(lái)充滿期待。我們深入探索和研究這些挑戰(zhàn)和限制,目的不僅在于指出人工智能的缺陷,更是為了通過這樣的探究找到解決問題的途徑,進(jìn)而更好地發(fā)揮人工智能在金融領(lǐng)域的潛力和價(jià)值。
在嚴(yán)格的監(jiān)督和科學(xué)指導(dǎo)下,我們期待著人工智能能夠幫助金融業(yè)提升效率,降低風(fēng)險(xiǎn),并推動(dòng)其持續(xù)、健康、穩(wěn)定地發(fā)展。在金融領(lǐng)域內(nèi),人工智能不僅有可能對(duì)現(xiàn)有的金融產(chǎn)品和服務(wù)進(jìn)行創(chuàng)新,還有可能開創(chuàng)全新的金融模式。因此,我們需要繼續(xù)研究和解決那些擋在人工智能模型應(yīng)用道路上的難題,為今后實(shí)現(xiàn)這一具有深遠(yuǎn)影響的轉(zhuǎn)型做準(zhǔn)備。