国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能法的基本問(wèn)題及制度架構(gòu)*

2023-03-09 17:44侯東德
政法論叢 2023年6期
關(guān)鍵詞:原則人工智能法律

侯東德

(西南政法大學(xué)民商法學(xué)院,重慶 401120)

當(dāng)前,隨著大數(shù)據(jù)、云計(jì)算的發(fā)展,依托于我國(guó)龐大的消費(fèi)市場(chǎng)和海量的數(shù)據(jù)支撐,推動(dòng)了人工智能在多元場(chǎng)景中的落地。當(dāng)前,我國(guó)人工智能行業(yè)已經(jīng)成為最火熱的投資風(fēng)口之一,加上國(guó)家政策的支持,人工智能產(chǎn)業(yè)發(fā)展迅猛,正逐漸成為新的經(jīng)濟(jì)增長(zhǎng)點(diǎn)和國(guó)際競(jìng)爭(zhēng)焦點(diǎn)。科技與法律具有密切的關(guān)系,隨著人工智能技術(shù)的發(fā)展,出現(xiàn)了大量新的立法領(lǐng)域。隨著人工智能技術(shù)成果在人類(lèi)生產(chǎn)、生活領(lǐng)域的應(yīng)用,種種新的社會(huì)關(guān)系相繼出現(xiàn),法律問(wèn)題也接踵而至。[1]P285法律作為調(diào)整人類(lèi)社會(huì)關(guān)系的重要行為規(guī)范,面對(duì)人工智能的發(fā)展,理應(yīng)做出回應(yīng)。在2017年國(guó)務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中,提出到2025年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系。2023年6月國(guó)務(wù)院辦公廳印發(fā)《國(guó)務(wù)院2023年度立法工作計(jì)劃的通知》,明確提出預(yù)備將人工智能法草案提請(qǐng)全國(guó)人大常委會(huì)審議。這意味著,我國(guó)人工智能立法工作已經(jīng)啟動(dòng)。

人工智能法作為新興的技術(shù)法,當(dāng)前學(xué)界針對(duì)人工智能法的屬性、立法目的、調(diào)整對(duì)象、基本原則等基本問(wèn)題尚未形成統(tǒng)一認(rèn)識(shí),針對(duì)人工智能法的制度構(gòu)建尚缺乏系統(tǒng)性的研究,而這些問(wèn)題是人工智能法立法過(guò)程中亟需且不可回避的。因此,在人工智能法立法之際,針對(duì)上述問(wèn)題展開(kāi)探討實(shí)屬必要。在這些問(wèn)題中,人工智能法的屬性為人工智能法的立法目的奠定了方向,而人工智能法立法目的又為人工智能法的調(diào)整對(duì)象和基本原則提供了指引,同時(shí),人工智能法基本原則又為人工智能具體制度的構(gòu)建提供了指引。鑒于此,本文擬首先對(duì)人工智能法的屬性、立法目的、調(diào)整對(duì)象、基本原則等基本問(wèn)題進(jìn)行分析,進(jìn)而再初步探討人工智能法的制度架構(gòu)如何搭建。

一、人工智能法的屬性

羅馬法學(xué)家關(guān)于公法與私法的劃分,在法律上將國(guó)家權(quán)力和私人活動(dòng)之間劃定了一條清晰的界限,這就使得羅馬統(tǒng)治者分別制定了旨在維護(hù)國(guó)家利益的公法和旨在維護(hù)私人利益的私法。公法與私法的劃分對(duì)后世法學(xué)的發(fā)展具有深遠(yuǎn)的影響,也為我國(guó)法治建設(shè)提供了有益的啟示。[2]P109-113由于公法與私法在價(jià)值取向、調(diào)整方法、調(diào)整對(duì)象、保護(hù)法益等方面具有顯著的差異,因此,切實(shí)明確人工智能法的公法抑或私法屬性,對(duì)于確定人工智能法的立法目的、調(diào)整對(duì)象、基本原則設(shè)計(jì)等均具有重要的意義。通過(guò)論證分析,本文認(rèn)為人工智能法宜定位為公法主導(dǎo)兼具私法性質(zhì)的部門(mén)法,主要理由如下:

一方面,從推動(dòng)人工智能的發(fā)展角度分析。人工智能作為一項(xiàng)新興技術(shù),正成為推動(dòng)我國(guó)社會(huì)經(jīng)濟(jì)創(chuàng)新發(fā)展的重要驅(qū)動(dòng)力。當(dāng)前,人工智能技術(shù)已經(jīng)在多領(lǐng)域、多場(chǎng)景中應(yīng)用落地,并且隨著人工智能紅利的不斷釋放、科研成果的迭代升級(jí),人工智能應(yīng)用場(chǎng)景將會(huì)不斷地拓展。法律對(duì)科技的發(fā)展具有多方面的重要作用,法律可以對(duì)科技活動(dòng)起到組織、管理、協(xié)調(diào)等作用,也可以規(guī)定國(guó)家各級(jí)政府在科技成果轉(zhuǎn)化和推廣中的地位和作用,明確其職責(zé)范圍。[1]P288-289國(guó)家通過(guò)立法對(duì)人工智能研發(fā)和應(yīng)用中的各類(lèi)關(guān)系進(jìn)行調(diào)整,以此推動(dòng)人工智能的健康穩(wěn)定發(fā)展。國(guó)家所制定的這一系列規(guī)范主要是為了維護(hù)國(guó)家利益和社會(huì)公共利益,并且這一系列規(guī)范所調(diào)整的主體主要是國(guó)家機(jī)關(guān)之間或國(guó)家與私人之間管理與被管理之間的關(guān)系。另一方面,從防范人工智能風(fēng)險(xiǎn)角度分析。隨著科學(xué)技術(shù)的發(fā)展人類(lèi)已經(jīng)進(jìn)入風(fēng)險(xiǎn)社會(huì),烏爾里希·貝克在《風(fēng)險(xiǎn)社會(huì)》書(shū)中提出“在現(xiàn)代化進(jìn)程中,生產(chǎn)力的指數(shù)式增長(zhǎng),使危險(xiǎn)和潛在威脅的釋放達(dá)到了一個(gè)我們所未知的程度”[3]P15史蒂芬·霍金對(duì)人工智能的發(fā)展表示擔(dān)憂(yōu),認(rèn)為成功創(chuàng)造出人工智能將是人類(lèi)歷史上最偉大的事件,很遺憾,這可能也是最后一次。埃隆·馬斯克對(duì)人工智能日益擴(kuò)散到日常生活感到焦慮,甚至有人將使用人工智能稱(chēng)之為“召喚魔鬼”。[4]P529人工智能作為一項(xiàng)新技術(shù)踏入了社會(huì)公眾的視野,所謂“新”代表著一種未知,并隱含著未知的風(fēng)險(xiǎn),需要?dú)v經(jīng)大量的應(yīng)用實(shí)踐才能實(shí)現(xiàn)不斷完善。但由于新技術(shù)自身的不成熟及不完備性,在實(shí)踐中容易引發(fā)新的風(fēng)險(xiǎn)。為防范人工智能帶來(lái)的安全風(fēng)險(xiǎn),需要通過(guò)立法的方式對(duì)人工智能的研發(fā)、供應(yīng)及使用等相關(guān)活動(dòng)進(jìn)行規(guī)制。而這一系列規(guī)范主要體現(xiàn)為國(guó)家監(jiān)管部門(mén)對(duì)人工智能研發(fā)和應(yīng)用主體的監(jiān)管,主要是強(qiáng)制性規(guī)范。法律是反映社會(huì)的鏡像,法律并不是人主觀創(chuàng)設(shè)的產(chǎn)物,而是人的行為協(xié)調(diào)的結(jié)果。[5]P103因而,人工智能立法需要立足于人工智能發(fā)展的現(xiàn)狀和人工智能對(duì)法律的需求。因此,人工智能法從總體上看宜定位為公法。

但需要注意的是,總體上將人工智能法定位為公法并不意味著人工智能法就沒(méi)有私法規(guī)范。事實(shí)上,隨著社會(huì)經(jīng)濟(jì)的發(fā)展,人類(lèi)的社會(huì)關(guān)系日益復(fù)雜化,在政府和市場(chǎng)雙重失靈面前,單純的公法或私法均難以解決各類(lèi)社會(huì)問(wèn)題。在這種背景下,出現(xiàn)了“公法私法化”和“私法公法化”思潮。[6]P117人工智能的研發(fā)與應(yīng)用不僅涉及國(guó)家利益和社會(huì)公共利益,同時(shí)還涉及私人利益,例如人工智能技術(shù)開(kāi)發(fā)與產(chǎn)品研制,人工智能產(chǎn)品與服務(wù)相關(guān)的生產(chǎn)與銷(xiāo)售,人工智能產(chǎn)品與服務(wù)相關(guān)的采購(gòu)與消費(fèi)等均會(huì)涉及私人之間的利益關(guān)系。而這些利益關(guān)系則需要私法規(guī)范加以調(diào)整。此外,人工智能的安全問(wèn)題不僅會(huì)對(duì)社會(huì)公共利益造成損壞,而且也會(huì)對(duì)私人利益造成損壞。例如,自動(dòng)駕駛汽車(chē)致人損害。關(guān)于人工智能安全問(wèn)題引發(fā)的私人利益損害應(yīng)當(dāng)由誰(shuí)承擔(dān)責(zé)任、如何承擔(dān)責(zé)任等問(wèn)題,均屬于私法調(diào)整的范疇。綜上所述,人工智能法宜定位為兼具私法屬性的公法。

二、人工智能法的立法目的

(一)立法目的條款存廢辨析

立法目的條款是反映立法目的,能夠輻射整部法律文本且執(zhí)行特定立法職能的專(zhuān)門(mén)性條款。[7]P48在立法理論研究中,關(guān)于立法目的條款的設(shè)置有不同觀點(diǎn):必設(shè)說(shuō)認(rèn)為,立法目的條款是一部法律不可或缺的,在制定法律過(guò)程中,應(yīng)當(dāng)將法律的立法目的以條文的形式加以確定。[8]P485-486廢除說(shuō)認(rèn)為,立法目的條款難以被適用,并且立法目的通常較為明確,在法律文本中設(shè)置立法目的條款有些多余,應(yīng)當(dāng)省略。[9]P381區(qū)分說(shuō)折中了前兩種觀點(diǎn),認(rèn)為是否應(yīng)當(dāng)設(shè)置立法目的條款應(yīng)當(dāng)依據(jù)法律的類(lèi)型,區(qū)分對(duì)待。至于人工智能法是否應(yīng)當(dāng)設(shè)置立法目的條款,本文持肯定觀點(diǎn),原因如下:首先,證成人工智能法的合法性。政策法是國(guó)家為了實(shí)現(xiàn)特定的目的而制定的法律,其合法性依賴(lài)于立法目的進(jìn)行證成。[10]P415人工智能法具有鮮明的政策法特征。人工智能法的正當(dāng)性不在于長(zhǎng)期的人工智能研發(fā)與應(yīng)用中的習(xí)慣。相反,我國(guó)對(duì)人工智能的規(guī)制是先有政策后有法律,并且人工智能立法的啟動(dòng)也具有較強(qiáng)的政策性。因此,人工智能法的立法目的便成了無(wú)法回避的問(wèn)題。其次,彰顯人工智能法的屬性。前文已述,人工智能法屬于兼具私法屬性的公法,公法更側(cè)重于維護(hù)國(guó)家利益和社會(huì)公共利益。通過(guò)立法目的條款規(guī)定人工智能法應(yīng)當(dāng)維護(hù)國(guó)家利益和社會(huì)公共利益,彰顯了人工智能法的屬性。最后,指引人工智能法基本原則的設(shè)計(jì)。法律原則是普遍價(jià)值觀念的法律表達(dá),集中彰顯了人們?yōu)榉伤O(shè)定的調(diào)整社會(huì)所應(yīng)達(dá)致的目標(biāo)。[11]P141人工智能法基本原則表達(dá)著人工智能的價(jià)值以及人工智能所要達(dá)到的目標(biāo),而這恰恰需要立法目的條款的指引。

(二)人工智能法立法目的考量因素

立法目的條款表達(dá)了立法者制定法律的精神以及所欲實(shí)現(xiàn)的目標(biāo)。法律屬性蘊(yùn)含著法律所要保護(hù)的法益和基本立場(chǎng),對(duì)立法目的的內(nèi)容設(shè)計(jì)具有指引和約束作用。前文已述,人工智能法宜定位為兼具私法屬性的公法。依據(jù)公法、私法劃分理論,公法更側(cè)重于保護(hù)國(guó)家利益和社會(huì)公共利益。因此,人工智能法立法目的設(shè)計(jì)宜遵循維護(hù)國(guó)家利益和社會(huì)公共利益的基本方向,具體宜考慮以下因素:

首先,憲法對(duì)人工智能法立法目的的影響。憲法是我國(guó)的根本法和母法,依憲立法是立法工作的一項(xiàng)基本原則。[12]P97人工智能法作為規(guī)制人工智能研發(fā)與應(yīng)用的基本法,其制定也必須依據(jù)憲法。所謂依憲立法,其本質(zhì)就是要求其他法律在整體上應(yīng)當(dāng)體現(xiàn)憲法的精神,而憲法精神具體體現(xiàn)在憲法指導(dǎo)思想、基本原則以及其他憲法規(guī)范形成的整體性?xún)r(jià)值中。[13]P112因此,人工智能法的立法目的也要從憲法中尋找依據(jù)。憲法作為人工智能法的上位法,對(duì)人工智能法立法目的內(nèi)容的設(shè)計(jì)具有約束性規(guī)范意義。但由于憲法所規(guī)定的內(nèi)容通常都是較為原則、抽象的,并且憲法所規(guī)定的內(nèi)容通常都是涉及國(guó)家政治、經(jīng)濟(jì)、文化、社會(huì)等各方面的重大原則性問(wèn)題,因而需要通過(guò)演繹的方法,將憲法的精神、指導(dǎo)思想和基本原則內(nèi)化為人工智能法的立法目的。

其次,國(guó)家政策對(duì)人工智能法立法目的的影響。國(guó)家政策與法律具有密切關(guān)系,國(guó)家政策與法律都是人民意志的反映,二者在本質(zhì)上是一致的。一方面國(guó)家政策的實(shí)現(xiàn)離不開(kāi)法律。另一方面,國(guó)家政策是制定法律的重要依據(jù)之一。在制定法律時(shí),國(guó)家政策尤其是黨的政策是立法的重要依據(jù),政策是法律的靈魂,沒(méi)有一定的政策指導(dǎo),立法目的就難以確定,就無(wú)從確定法律權(quán)利與法律義務(wù)。[1]P259國(guó)家政策作為國(guó)家權(quán)力的產(chǎn)物,其目的在于推進(jìn)改革、實(shí)現(xiàn)國(guó)家宏觀調(diào)控和分享改革成果。將國(guó)家政策通過(guò)法定程序上升為法律,可以有效調(diào)和法律的穩(wěn)定性與社會(huì)生活復(fù)雜性之間的矛盾,同時(shí)可以落實(shí)權(quán)力機(jī)關(guān)對(duì)個(gè)人利益與社會(huì)公共利益的協(xié)調(diào)。[14]P155當(dāng)前,我國(guó)關(guān)于人工智能發(fā)展已經(jīng)出臺(tái)多項(xiàng)政策。十九大報(bào)告、《國(guó)民經(jīng)濟(jì)和社會(huì)發(fā)展第十四個(gè)五年規(guī)劃和2035年遠(yuǎn)景目標(biāo)綱要》(以下稱(chēng)“十四五規(guī)劃”)均對(duì)人工智能技術(shù)發(fā)展有所要求。此外,我國(guó)針對(duì)人工智能技術(shù)還出臺(tái)多項(xiàng)專(zhuān)門(mén)性政策。在國(guó)家層面,2017年國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,將人工智能發(fā)展上升為國(guó)家戰(zhàn)略。在部委層面,為落實(shí)《新一代人工智能發(fā)展規(guī)劃》,工信部發(fā)布《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃(2018-2020年)》。在專(zhuān)項(xiàng)規(guī)劃方面,科技部根據(jù)《新一代人工智能重大科技項(xiàng)目實(shí)施方案》已經(jīng)啟動(dòng)實(shí)施科技創(chuàng)新2030—“新一代人工智能”重大項(xiàng)目。在重點(diǎn)領(lǐng)域方面,2020年國(guó)家發(fā)改委發(fā)布了《智能汽車(chē)創(chuàng)新發(fā)展戰(zhàn)略》,對(duì)構(gòu)建智能汽車(chē)產(chǎn)品監(jiān)管體系和網(wǎng)絡(luò)安全體系提出了明確要求。[15]P96-98人工智能法作為一部政策性法律,其立法目的也必然受到上述政策的影響。

最后,我國(guó)人工智能發(fā)展現(xiàn)狀對(duì)人工智能法立法目的的影響。首先,從法的本質(zhì)分析。物質(zhì)制約性是法律的根本屬性,社會(huì)物質(zhì)生活條件使人們產(chǎn)生了法律需求,同時(shí)又決定著法的本質(zhì)和發(fā)展。[16]P71同樣,人工智能法也必須在社會(huì)物質(zhì)生活條件下進(jìn)行具體的制度設(shè)計(jì)。因此,人工智能法立法目的條款的設(shè)置在根本上受到我國(guó)社會(huì)物質(zhì)生活條件的制約。其次,從法與社會(huì)的關(guān)系分析。若將法律與社會(huì)的關(guān)系視作線性關(guān)系,且社會(huì)為自變量,則在法律與社會(huì)將呈現(xiàn)出一種鏡像與本體的關(guān)系,在這一關(guān)系中,法律被視為鏡像,社會(huì)被視為本體。[5]P103法律與社會(huì)的鏡像關(guān)系表明,法律并非人類(lèi)憑主觀想象設(shè)計(jì)出來(lái)的,法律是對(duì)社會(huì)現(xiàn)象的一種反映。此外,立法的最終目的是通過(guò)制定法律規(guī)范解決社會(huì)實(shí)踐中的各類(lèi)糾紛。[17]P81同樣,法社會(huì)學(xué)理論也主張法律的目的是化解各類(lèi)社會(huì)利益沖突,法學(xué)研究的核心不在于立法和司法,而在于社會(huì)本身。[18]P124因此,人工智能法立法目的的設(shè)計(jì)應(yīng)當(dāng)立足于我國(guó)人工智能發(fā)展現(xiàn)狀,著眼于人工智能發(fā)展中存在的問(wèn)題和需求進(jìn)行科學(xué)設(shè)計(jì)。最后,從科學(xué)立法角度分析??茖W(xué)立法的核心在于尊重和體現(xiàn)社會(huì)發(fā)展的客觀規(guī)律,使法律能夠準(zhǔn)確適應(yīng)社會(huì)改革發(fā)展穩(wěn)定安全的需求,并能夠公正合理的協(xié)調(diào)社會(huì)利益關(guān)系。[16]P232-233因此,人工智能法的立法目的條款設(shè)計(jì)立足于我國(guó)人工智能發(fā)展現(xiàn)狀,反映人工智能發(fā)展的規(guī)律為宜。

(三)人工智能法立法目的具體設(shè)計(jì)

1.憲法約束下人工智能法立法目的設(shè)計(jì)

憲法作為人工智能法的上位法,對(duì)人工智能法立法目的內(nèi)容的設(shè)計(jì)具有約束性規(guī)范意義。我國(guó)《憲法》中有關(guān)科學(xué)技術(shù)的直接規(guī)定主要是第十四條,規(guī)定國(guó)家通過(guò)推廣先進(jìn)的科學(xué)技術(shù),以不斷提高勞動(dòng)生產(chǎn)率和經(jīng)濟(jì)效益,發(fā)展社會(huì)生產(chǎn)力。人工智能技術(shù)是引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),人工智能法作為規(guī)制人工智能的基本法,應(yīng)當(dāng)以《憲法》第十四條為指引,推動(dòng)人工智能技術(shù)創(chuàng)新,推動(dòng)人工智能技術(shù)與社會(huì)各領(lǐng)域的融合,使人工智能技術(shù)更好的造福人類(lèi)社會(huì)。此外,除《憲法》第十四章規(guī)定外,《憲法》在序言、總綱部分對(duì)基本國(guó)策的規(guī)定也是人工智能法應(yīng)當(dāng)實(shí)現(xiàn)的目標(biāo)。具體而言,《憲法》序言中規(guī)定國(guó)家的根本任務(wù)包括貫徹新發(fā)展理念,推動(dòng)物質(zhì)文明、政治文明、精神文明、社會(huì)文明、生態(tài)文明協(xié)調(diào)發(fā)展。對(duì)此,人工智能法也應(yīng)當(dāng)推動(dòng)人工智能技術(shù)與經(jīng)濟(jì)、政治、文化、社會(huì)、生態(tài)各領(lǐng)域的融合發(fā)展,為推動(dòng)我國(guó)社會(huì)主義現(xiàn)代化建設(shè)貢獻(xiàn)力量。法治與人權(quán)具有密切聯(lián)系,人權(quán)是法治進(jìn)程中的依據(jù)和根本目的,貫穿于法治建設(shè)全過(guò)程之中。同時(shí),法治又是實(shí)現(xiàn)人權(quán)的保障,是尊重和保障人權(quán)的重要途徑。[19]P262004年我國(guó)將“國(guó)家尊重和保障人權(quán)”寫(xiě)入《憲法》,這就要求在國(guó)家和社會(huì)各個(gè)領(lǐng)域,都必須尊重和保障人權(quán)。[20]P117人工智能技術(shù)是把“雙刃劍”,人工智能技術(shù)在帶給人類(lèi)生產(chǎn)、生活便利的同時(shí),也引發(fā)了新的法律風(fēng)險(xiǎn),例如網(wǎng)絡(luò)攻擊、個(gè)人信息泄露、技術(shù)失控致人損害風(fēng)險(xiǎn)等。人工智能法在促進(jìn)人工智能技術(shù)創(chuàng)新的同時(shí),也需要注重人工智能技術(shù)風(fēng)險(xiǎn)的防范,保障人工智能技術(shù)的安全、可控、可靠,避免因其潛在的風(fēng)險(xiǎn)對(duì)人類(lèi)造成損害。

2.國(guó)家政策指引下人工智能法立法目的設(shè)計(jì)

關(guān)于人工智能技術(shù)的發(fā)展,黨的十九大報(bào)告指出“推動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實(shí)體經(jīng)濟(jì)深度融合”。我國(guó)“十四五規(guī)劃”也提出,要聚焦人工智能關(guān)鍵算法的研發(fā)突破與迭代應(yīng)用,培育壯大人工智能產(chǎn)業(yè)。新一代人工智能發(fā)展規(guī)劃指出,到2025年人工智能基礎(chǔ)理論實(shí)現(xiàn)重大突破,部分技術(shù)與應(yīng)用達(dá)到世界領(lǐng)先水平。到2030年人工智能理論、技術(shù)與應(yīng)用總體達(dá)到世界領(lǐng)先水平,成為世界主要人工智能創(chuàng)新中心,智能經(jīng)濟(jì)、智能社會(huì)建設(shè)取得明顯成效。上述這些政策表明,人工智能技術(shù)的發(fā)展既需要技術(shù)層面的突破,也需要技術(shù)在社會(huì)各領(lǐng)域的應(yīng)用落地。因此,在國(guó)家政策的指引下,人工智能法的立法目的應(yīng)該包括促進(jìn)人工智能技術(shù)的發(fā)展和推動(dòng)人工智能技術(shù)在社會(huì)各領(lǐng)域的應(yīng)用落地。

3.適應(yīng)人工智能發(fā)展趨勢(shì)的人工智能法立法目的設(shè)計(jì)

當(dāng)前,我國(guó)人工智能技術(shù)已經(jīng)進(jìn)入快速發(fā)展階段,人工智能技術(shù)已經(jīng)在社會(huì)眾多領(lǐng)域應(yīng)用落地。但人工智能技術(shù)的發(fā)展仍存在以下方面問(wèn)題:一方面,人工智能技術(shù)的發(fā)展仍存在制約因素。人工智能的基礎(chǔ)支撐層由數(shù)據(jù)、算法和算力組成。數(shù)據(jù)是人工智能智能化的養(yǎng)料,算法的深度學(xué)習(xí)需要大量的數(shù)據(jù),數(shù)據(jù)越多質(zhì)量越高,則算法輸出的結(jié)果越精確。我國(guó)雖然具有海量的數(shù)據(jù)資源,但缺乏高質(zhì)量的數(shù)據(jù),這就限制了人工智能技術(shù)的發(fā)展。同時(shí)我國(guó)數(shù)據(jù)壟斷性較強(qiáng),大多數(shù)據(jù)集中于公共部門(mén)或集中于少數(shù)大型互聯(lián)網(wǎng)平臺(tái)企業(yè),并且我國(guó)尚未建立完善的數(shù)據(jù)交易、共享機(jī)制,導(dǎo)致大量數(shù)據(jù)難以得到有效利用。算法是人工智能“智慧”的核心,是一系列精確地指定用于執(zhí)行某些具體任務(wù)的指令。[21]P48-49算法可以理解為計(jì)算的方法,通過(guò)算法函數(shù)告訴人工智能以什么邏輯和步驟處理數(shù)據(jù),從而得出結(jié)論。算法模型設(shè)計(jì)需要大量的專(zhuān)業(yè)人才,而我國(guó)當(dāng)前人工智能技術(shù)人才匱乏,尤其具備跨學(xué)科、復(fù)合型人才匱乏,阻礙了人工智能產(chǎn)業(yè)的發(fā)展。算力則是快速的決定怎么走。算法深度學(xué)習(xí)需要訓(xùn)練大量數(shù)據(jù),在執(zhí)行任務(wù)時(shí)需要處理大量數(shù)據(jù),這需要強(qiáng)大的算力支撐。當(dāng)前,我國(guó)人工智能芯片短缺導(dǎo)致算力無(wú)法滿(mǎn)足人工智能發(fā)展需求,成為制約人工智能發(fā)展的關(guān)鍵因素。法律對(duì)科技具有重要的指引和激勵(lì)作用,法律可以激勵(lì)人的科技創(chuàng)造力,維護(hù)人的科技創(chuàng)造活動(dòng)自由的權(quán)利。[22]P93人工智能法作為規(guī)范人工智能發(fā)展的綜合性立法,理應(yīng)促進(jìn)人工智能技術(shù)的創(chuàng)新。

另一方面,人工智能技術(shù)安全問(wèn)題亟需法律規(guī)制。人工智能深度學(xué)習(xí)已經(jīng)能夠?qū)Υ笠?guī)模數(shù)據(jù)進(jìn)行處理和分析。然而,隨著科學(xué)技術(shù)的發(fā)展人類(lèi)已進(jìn)入風(fēng)險(xiǎn)社會(huì),人工智能作為一項(xiàng)新技術(shù)踏入社會(huì)公眾視野,“新”代表著一種未知,并隱含著未知的風(fēng)險(xiǎn),需要?dú)v經(jīng)大量的應(yīng)用實(shí)踐才能實(shí)現(xiàn)不斷完善。但由于新技術(shù)自身的不成熟及不完備性,在實(shí)踐中容易引發(fā)新的風(fēng)險(xiǎn),例如網(wǎng)絡(luò)安全、數(shù)據(jù)安全、個(gè)人隱私保護(hù)等風(fēng)險(xiǎn)。在面對(duì)科技進(jìn)步帶來(lái)的風(fēng)險(xiǎn)時(shí),即使科技風(fēng)險(xiǎn)本身具有不確定性,但政府仍應(yīng)將“預(yù)防原則”放在以法律手段應(yīng)對(duì)科技風(fēng)險(xiǎn)的中心位置。[23]P59人工智能法宜堅(jiān)持底線性規(guī)制原則,以審慎的態(tài)度防范人工智能發(fā)展中的風(fēng)險(xiǎn)。

綜上所述,人工智能法的立法目的概括說(shuō)來(lái)主要包括以下幾方面的內(nèi)容:一是尊重人工智能發(fā)展規(guī)律,推動(dòng)人工智能技術(shù)不斷創(chuàng)新;二是促進(jìn)人工智能在社會(huì)各領(lǐng)域應(yīng)用,推動(dòng)國(guó)家現(xiàn)代化建設(shè);三是防范人工智能發(fā)展中的風(fēng)險(xiǎn),維護(hù)國(guó)家安全和社會(huì)公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益,促進(jìn)人工智能健康發(fā)展和規(guī)范應(yīng)用。

三、人工智能法的調(diào)整對(duì)象

(一)人工智能法調(diào)整對(duì)象確定的法理邏輯

法律作為人類(lèi)費(fèi)時(shí)費(fèi)工,付出高昂成本所制定的規(guī)范體系,其目的在于滿(mǎn)足人類(lèi)的物質(zhì)與精神生活需要。[24]P126而國(guó)家之所以制定人工智能法其原因在于通過(guò)對(duì)人工智能相關(guān)活動(dòng)的調(diào)整,從而促進(jìn)人工智能健康發(fā)展,推動(dòng)人工智能更好的造福人類(lèi)社會(huì)。而人工智能法對(duì)人工智能相關(guān)活動(dòng)的調(diào)整,便涉及到人工智能法調(diào)整對(duì)象的問(wèn)題。人工智能法調(diào)整對(duì)象與人工智能法立法目的具有內(nèi)在的邏輯關(guān)系。一方面,人工智能法調(diào)整對(duì)象是實(shí)現(xiàn)人工智能法立法目的的介質(zhì),只有通過(guò)人工智能法對(duì)人工智能相關(guān)活動(dòng)進(jìn)行規(guī)制,才使得人工智能法立法目的得以實(shí)現(xiàn)。另一方面,人工智能法立法目的又是人工智能法調(diào)整對(duì)象納入規(guī)范的邏輯后果,人工智能法通過(guò)對(duì)人工智能相關(guān)活動(dòng)的規(guī)制,從而實(shí)現(xiàn)了人工智能法立法目的。人工智能立法目的是在遵循人工智能法屬性定位的基礎(chǔ)上確定的,蘊(yùn)含著立法者的精神和所要達(dá)至的目標(biāo),為人工智能立法奠定了基本方向。因此,人工智能法調(diào)整對(duì)象的確定宜以實(shí)現(xiàn)人工智能法立法目的為目標(biāo)。

(二)人工智能法調(diào)整對(duì)象的類(lèi)型分析

前文已述,人工智能法立法目的主要包括促進(jìn)人工智能技術(shù)創(chuàng)新、推動(dòng)人工智能應(yīng)用落地、防范人工智能風(fēng)險(xiǎn)三大方面。據(jù)此,本文將人工智能法調(diào)整對(duì)象歸納為以下方面:

1.人工智能技術(shù)研發(fā)活動(dòng)

人工智能技術(shù)研發(fā)活動(dòng)主要指人工智能相關(guān)的科學(xué)研究、技術(shù)開(kāi)發(fā)和產(chǎn)品研制等活動(dòng)。人工智能法之所以宜將人工智能技術(shù)研發(fā)活動(dòng)納入調(diào)整范圍,主要有以下原因:首先,促進(jìn)人工智能技術(shù)創(chuàng)新。人工智能技術(shù)的研發(fā)活動(dòng)離不開(kāi)數(shù)據(jù)、芯片和人才。然而,我國(guó)數(shù)據(jù)交易與共享機(jī)制不完善、人工智能人才匱乏、芯片短缺抑制了人工智能技術(shù)的創(chuàng)新。法律對(duì)科技活動(dòng)具有促進(jìn)作用,將人工智能技術(shù)研發(fā)活動(dòng)納入人工智能法調(diào)整范圍,有助于促進(jìn)人工智能技術(shù)創(chuàng)新。其次,防范人工智能技術(shù)風(fēng)險(xiǎn)。人工智能技術(shù)作為一項(xiàng)新興技術(shù),其本身存在諸多技術(shù)性缺陷,人工智能可以在不涉及人類(lèi)的情況下自動(dòng)執(zhí)行破壞性動(dòng)作。[25]P113-117這種風(fēng)險(xiǎn)又被稱(chēng)之為內(nèi)生安全風(fēng)險(xiǎn)。[26]P87將人工智能技術(shù)研發(fā)活動(dòng)納入人工智能調(diào)整范圍,可以通過(guò)立法對(duì)數(shù)據(jù)訓(xùn)練活動(dòng)、數(shù)據(jù)標(biāo)注活動(dòng)、算法設(shè)計(jì)活動(dòng)等進(jìn)行規(guī)制,從而提升數(shù)據(jù)質(zhì)量,確保算法透明、可靠、可控,避免算法偏見(jiàn),防范人工智能內(nèi)生安全風(fēng)險(xiǎn)。

2.人工智能技術(shù)應(yīng)用活動(dòng)

人工智能技術(shù)應(yīng)用活動(dòng)主要是指人工智能系統(tǒng)提供者向用戶(hù)提供人工智能系統(tǒng)服務(wù)的活動(dòng)。將人工智能技術(shù)應(yīng)用活動(dòng)納入人工智能法調(diào)整范圍主要有以下原因:首先,防范人工智能技術(shù)風(fēng)險(xiǎn),保護(hù)用戶(hù)合法權(quán)益。除人工智能技術(shù)本身缺陷會(huì)引發(fā)風(fēng)險(xiǎn)外,人工智能技術(shù)被人為濫用也會(huì)引發(fā)風(fēng)險(xiǎn),有學(xué)者稱(chēng)之為人工智能“助力攻擊風(fēng)險(xiǎn)”。[26]P82-100將人工智能技術(shù)應(yīng)用活動(dòng)納入人工智能法調(diào)整范圍,可以通過(guò)立法賦予人工智能系統(tǒng)提供者相應(yīng)的義務(wù),并明確其責(zé)任,從而防范人工智能技術(shù)被人為濫用而引發(fā)的風(fēng)險(xiǎn)。其次,推動(dòng)人工智能技術(shù)賦能千行百業(yè),讓人類(lèi)共享人工智能技術(shù)發(fā)展紅利。技術(shù)創(chuàng)新本身并非人工智能發(fā)展的最終目的,實(shí)現(xiàn)人工智能技術(shù)賦能千行百業(yè),讓人類(lèi)共享技術(shù)發(fā)展紅利才是最終歸宿。實(shí)現(xiàn)這一轉(zhuǎn)化的關(guān)鍵便是推動(dòng)科技成果轉(zhuǎn)化,促進(jìn)生成式人工智能技術(shù)在多元場(chǎng)景應(yīng)用落地。將人工智能技術(shù)應(yīng)用活動(dòng)納入人工智能法調(diào)整對(duì)象,可以通過(guò)立法促進(jìn)人工智能技術(shù)成果轉(zhuǎn)化。同時(shí),也可以通過(guò)立法維護(hù)人工智能產(chǎn)品與服務(wù)市場(chǎng)秩序,為人工智能產(chǎn)業(yè)發(fā)展?fàn)I造良好的生態(tài)環(huán)境。

3.人工智能風(fēng)險(xiǎn)管理活動(dòng)

人工智能風(fēng)險(xiǎn)管理活動(dòng)主要包括三大方面:一是國(guó)家機(jī)關(guān)對(duì)人工智能的監(jiān)管活動(dòng);二是行業(yè)組織對(duì)人工智能的自律監(jiān)管;三是企業(yè)對(duì)人工智能的自律監(jiān)管。將人工智能風(fēng)險(xiǎn)管理活動(dòng)納入人工智能法調(diào)整范圍主要有以下原因:首先,防范人工智能技術(shù)風(fēng)險(xiǎn)。人工智能在帶給人類(lèi)巨大進(jìn)步和福利的同時(shí),也帶來(lái)了不可忽略的倫理風(fēng)險(xiǎn)、極化風(fēng)險(xiǎn)、異化風(fēng)險(xiǎn)、規(guī)制風(fēng)險(xiǎn)和責(zé)任風(fēng)險(xiǎn)。[27]P47因此,需要強(qiáng)化風(fēng)險(xiǎn)意識(shí),通過(guò)制定人工智能法構(gòu)建人工智能風(fēng)險(xiǎn)防范法律體系。其次,平衡創(chuàng)新發(fā)展與風(fēng)險(xiǎn)防范之間的關(guān)系。人工智能創(chuàng)新性與風(fēng)險(xiǎn)性并存,對(duì)其監(jiān)管過(guò)于嚴(yán)格則抑制了技術(shù)創(chuàng)新,監(jiān)管寬松則難以有效防范風(fēng)險(xiǎn),如何實(shí)現(xiàn)技術(shù)創(chuàng)新與風(fēng)險(xiǎn)防范的平衡是監(jiān)管的難點(diǎn)與重點(diǎn)。將人工智能風(fēng)險(xiǎn)管理活動(dòng)納入人工智能法調(diào)整對(duì)象,在遵循包容審慎監(jiān)管的理念下,堅(jiān)持激勵(lì)性原則和底線性原則進(jìn)行具體的規(guī)則設(shè)計(jì)。最后,保護(hù)相關(guān)主體合法權(quán)益。一方面,保護(hù)用戶(hù)合法權(quán)益。通過(guò)立法加強(qiáng)人工智能風(fēng)險(xiǎn)管理活動(dòng),可以有效保護(hù)用戶(hù)的隱私權(quán)、個(gè)人信息和商業(yè)秘密。另一方面,保護(hù)被監(jiān)管者合法權(quán)益。通過(guò)立法明確應(yīng)當(dāng)對(duì)哪些領(lǐng)域、哪些活動(dòng)進(jìn)行監(jiān)管,明確監(jiān)管機(jī)關(guān)的權(quán)責(zé),明確監(jiān)管程序,明確責(zé)任類(lèi)型等,保障監(jiān)管部門(mén)依法行使監(jiān)管權(quán)。

四、人工智能法的基本原則

(一)人工智能法基本原則確定的法理邏輯

在邏輯上,法律原則是一個(gè)法律體系不可或缺的。由于人的有限理性不足以應(yīng)對(duì)法所規(guī)范的事物變化的無(wú)窮性,法與它所規(guī)范的事物之間存在永恒的矛盾。為調(diào)和該種矛盾就需要法律原則,以此填補(bǔ)法律漏洞、糾正法律訛誤。[16]P120人工智能法作為規(guī)制人工智能技術(shù)的基礎(chǔ)性、綜合性法律,宜保持法的穩(wěn)定性。而人工智能技術(shù)更新迭代速度較快,為調(diào)和法的穩(wěn)定性和人工智能技術(shù)的創(chuàng)新發(fā)展之間的矛盾,需要明確人工智能的基本原則。

法律的立法目的與法律原則均屬于概括性概念,其內(nèi)涵與外延沒(méi)有明確的界限,為發(fā)揮二者的作用可以將二者視為具有位階關(guān)系的一組概念。在二者關(guān)系中,法律的立法目的處于高位階,法律原則是法律立法目的的具體表現(xiàn)形式,處于低位階,法律原則應(yīng)當(dāng)體現(xiàn)法律的立法目的。因此,人工智能基本原則宜在人工智能法立法目的的指引下進(jìn)行討論。

(二)人工智能法基本原則確定

本文基于前文對(duì)立法目的的探討,將人工智能法基本原則確定為以下方面:

1.公平原則

公平原則包含以下含義:首先,從主體分析,公平原則是指社會(huì)上一切人都可以平等的享有、占有和支配資源、財(cái)富或機(jī)會(huì)的一種狀態(tài);其次,從社會(huì)關(guān)系分析。社會(huì)公平是通過(guò)國(guó)家法律進(jìn)行調(diào)控,體現(xiàn)了國(guó)家由守夜人轉(zhuǎn)換成仲裁者角色開(kāi)始介入社會(huì)經(jīng)濟(jì)發(fā)展以及分配公平等問(wèn)題的決斷。再次,從內(nèi)容上分析,社會(huì)公平主要與分配正義有關(guān),既包括物質(zhì)財(cái)富分配,也包括權(quán)利、機(jī)會(huì)、資源等的分配。[28]P95將公平原則作為人工智能法的基本原則主要有以下原因:首先,憲法依據(jù)。我國(guó)《憲法》第33條規(guī)定“中華人民共和國(guó)公民在法律面前一律平等。”公平原則包含著平等的含義,該條款便是公平原則的體現(xiàn)?!稇椃ā放c人工智能法屬于母法與子法的關(guān)系,《憲法》是人工智能法的立法依據(jù)。因此,公平原則也應(yīng)當(dāng)屬于人工智能的基本原則。其次,公平原則是法律正義價(jià)值的根本體現(xiàn)。[29]P25法律的基本價(jià)值包括正義、公平、秩序和效率,公平是法律價(jià)值的重要取向之一。將公平原則作為人工智能法的基本原則,體現(xiàn)了人工智能法對(duì)法律價(jià)值的認(rèn)同。最后,數(shù)字經(jīng)濟(jì)具有天然壟斷性,“摩爾定律”使得互聯(lián)網(wǎng)具有邊際成本趨零的特點(diǎn),“梅特卡夫定律”使得互聯(lián)網(wǎng)具有邊際收益遞增的優(yōu)勢(shì),[30]P26這兩大定律驅(qū)使著人工智能服務(wù)提供者實(shí)施壟斷行為。而壟斷則將導(dǎo)致弱者利益受到侵害、機(jī)會(huì)平等無(wú)法保障并且使得壟斷者獲取超額的利益。因此,應(yīng)將公平原則作為人工智能法的基本原則,堅(jiān)持普惠性和包容性,加強(qiáng)弱勢(shì)群體保護(hù),推動(dòng)全社會(huì)公平共享人工智能帶來(lái)的益處。然而,人工智能法所倡導(dǎo)的公平原則具有特定的內(nèi)涵,是在承認(rèn)相關(guān)主體的資源和個(gè)人稟賦等差異的前提下而追求的實(shí)質(zhì)公平,具體內(nèi)容包括:一是地位平等,即全社會(huì)主體在涉及人工智能各類(lèi)活動(dòng)中地位是平等的,人工智能算法不存在偏見(jiàn)和歧視;二是分配公平,即全社會(huì)主體均能夠公平共享人工智能帶來(lái)的益處;三是正當(dāng)?shù)牟顒e對(duì)待,即注重對(duì)弱勢(shì)群體保護(hù)。

2.可靠、可控、可信原則

可靠性原則是指人工智能系統(tǒng)在安全性與魯棒性層面能夠滿(mǎn)足部署環(huán)境和可持續(xù)運(yùn)行的要求??煽匦栽瓌t是指人工智能系統(tǒng)在功能層面能夠充分保護(hù)人類(lèi)的自主意志和權(quán)利,保障人類(lèi)對(duì)人工智能系統(tǒng)的控制權(quán)。可信性原則是指人工智能系統(tǒng)的設(shè)計(jì)和應(yīng)用應(yīng)當(dāng)符合人類(lèi)的價(jià)值理念和倫理道德。[31]之所以將上述可靠、可控、可信作為人工智能法的基本原則,主要有以下原因:首先,人工智能技術(shù)存在固有缺陷。人工智能技術(shù)本身存在諸多技術(shù)性缺陷,人工智能可以在不涉及人類(lèi)的情況下自動(dòng)執(zhí)行破壞性動(dòng)作。[25]P113-117羅伯特·洛根指出,人工智能生成的“智能”不是人的智能,而是模擬了人類(lèi)智能的某些屬性而已,[32]P289這種模擬的智能也將導(dǎo)致人工智能技術(shù)本身的不確定性和不穩(wěn)定性。因此,宜將可靠性作為人工智能法的基本原則之一,以確保人工智能系統(tǒng)能夠穩(wěn)定運(yùn)行。其次,人工智能存在失控風(fēng)險(xiǎn)。技術(shù)的“自主”意味著技術(shù)相對(duì)于人類(lèi)的“失控”,人工智能使得現(xiàn)代技術(shù)在“可控”與“失控”兩極之間進(jìn)一步向“失控”偏移,[33]P47-50人工智能失控則將對(duì)人類(lèi)構(gòu)成極大威脅。因此,宜將可控性也納入人工智能法的一個(gè)基本原則,以確保人工智能技術(shù)能夠被人類(lèi)所控制。最后,人工智能存在信任危機(jī)。人與技術(shù)的關(guān)系是基于某種信任而形成的一種深度融合。這種信任是人與人工智能技術(shù)關(guān)系存在的前提。[34]P38而由于人工智能算法存在缺陷,例如算法偏見(jiàn)、算法黑箱、算法權(quán)力異化等,將導(dǎo)致人與人工智能技術(shù)之間的信任危機(jī)。因此,宜將可信性也納入人工智能的基本原則,以確保人工智能可信。

3.安全和發(fā)展并重原則

一方面,人工智能法應(yīng)當(dāng)保障人工智能安全。人工智能技術(shù)與社會(huì)的融合不僅將人工智能技術(shù)本身的風(fēng)險(xiǎn)帶入人類(lèi)社會(huì),同時(shí)人工智能技術(shù)被濫用又產(chǎn)生了新的風(fēng)險(xiǎn),并使這種風(fēng)險(xiǎn)傳染性更強(qiáng)、風(fēng)險(xiǎn)系數(shù)更高。[35]P130對(duì)此,人工智能法宜遵循底線性思維,通過(guò)制定一系列規(guī)則守住安全底線,以防范人工智能技術(shù)風(fēng)險(xiǎn)。另一方面,人工智能法宜能夠促進(jìn)人工智能技術(shù)的創(chuàng)新發(fā)展。規(guī)制不是控制,當(dāng)然更不是限制,通過(guò)立法對(duì)人工智能的規(guī)制不是抑制人工智能技術(shù)的發(fā)展,即使規(guī)制具有束縛性,也是建立在合理性基礎(chǔ)上的必要束縛。對(duì)人工智能立法是為了促進(jìn)人工智能的健康發(fā)展。人工智能技術(shù)是引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),它能夠推動(dòng)社會(huì)生產(chǎn)力的極大發(fā)展,從而增加了人類(lèi)福祉。法律制度對(duì)人的行為具有激勵(lì)功能,法律制度可以通過(guò)對(duì)社會(huì)關(guān)系的調(diào)整,使人作出法律所要求和期望的行為,從而實(shí)現(xiàn)理想的法律秩序。[11]P164因此,人工智能法宜堅(jiān)持發(fā)展的原則,通過(guò)恰當(dāng)?shù)闹贫仍O(shè)計(jì),促進(jìn)人工智能技術(shù)創(chuàng)新發(fā)展。制度是社會(huì)生產(chǎn)力與生產(chǎn)關(guān)系發(fā)展到一定階段的產(chǎn)物,制度對(duì)社會(huì)實(shí)踐具有反作用,[36]P614良好的制度是一種生產(chǎn)力。人工智能風(fēng)險(xiǎn)性與創(chuàng)新性并存,人工智能法宜堅(jiān)持安全與發(fā)展并重的原則,通過(guò)科學(xué)的規(guī)則設(shè)計(jì),引導(dǎo)“技術(shù)向善”,促使人工智能技術(shù)更好的服務(wù)于人類(lèi)社會(huì)。

4.合規(guī)性原則

合規(guī)性原則主要包括以下方面內(nèi)容:一是人工智能的研發(fā)活動(dòng)、供應(yīng)活動(dòng)、使用活動(dòng)等不得違反法律、不得違背社會(huì)公德和倫理道德。二是人工智能研發(fā)者、人工智能服務(wù)提供者及其他相關(guān)主體應(yīng)當(dāng)對(duì)自己違法行為承擔(dān)責(zé)任。將合規(guī)性原則作為人工智能法的基本原則主要有以下原因:首先,合規(guī)性原則體現(xiàn)了對(duì)公民人格的尊重。合規(guī)性原則承認(rèn)法律主體擁有理性的事實(shí),同時(shí)尊重法律主體在理性的指導(dǎo)下,做出理性的行為,并相信法律主體能夠?qū)ψ约盒袨樨?fù)責(zé)。[37]P172其次,彌補(bǔ)法律的漏洞。人工智能的監(jiān)督管理活動(dòng)、研發(fā)活動(dòng)、供應(yīng)活動(dòng)是一場(chǎng)涉及多方主體的復(fù)雜活動(dòng)。人工智能法作為規(guī)制人工智能技術(shù)的綜合性法律難以全面的對(duì)人工智能各項(xiàng)活動(dòng)進(jìn)行具體規(guī)定。而合規(guī)性原則要求人工智能各項(xiàng)活動(dòng)不得違反法律、社會(huì)公德和倫理道德,因此,可以通過(guò)合規(guī)性原則彌補(bǔ)法律的漏洞。最后,實(shí)現(xiàn)人工智能法與其他法律之間的銜接。當(dāng)前我國(guó)已經(jīng)出臺(tái)《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》,同時(shí)頒布《新一代人工智能倫理規(guī)范》《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》《人工智能倫理治理標(biāo)準(zhǔn)化指南》等倫理規(guī)范??梢酝ㄟ^(guò)合規(guī)性原則,要求人工智能各項(xiàng)活動(dòng)要符合上述規(guī)范性法律文件的要求,從而實(shí)現(xiàn)人工智能法與上述法律之間的銜接。

五、人工智能法的制度架構(gòu)

(一)人工智能法制度架構(gòu)設(shè)計(jì)的法理邏輯

法律原則是法律的基礎(chǔ)性真理、原理。[16]P120法律原則可以為法律規(guī)則提供某種基礎(chǔ)或根源的綜合性的、指導(dǎo)性的價(jià)值準(zhǔn)則。[38]P26若將法律的立法目的、法律原則、具體制度視為具有位階關(guān)系的一組概念,立法目的處于最高位階,法律原則是立法目的的具體表現(xiàn)形式,具體制度又是法律原則的具體表現(xiàn)形式與載體。在這組概念中,法律原則既體現(xiàn)著法的立法目的,又涵攝具體制度。因此,人工智能法的制度體系宜在人工智能法基本原則的指引下進(jìn)行設(shè)計(jì)。

(二)人工智能法的制度架構(gòu)設(shè)計(jì)

1.人工智能發(fā)展與促進(jìn)制度

隨著互聯(lián)網(wǎng)、大數(shù)據(jù)、超級(jí)計(jì)算、腦科學(xué)等技術(shù)理論的發(fā)展,人工智能發(fā)展進(jìn)入新階段,呈現(xiàn)出深度學(xué)習(xí)、跨界融合、自主操控、大模型等新特點(diǎn)。隨著人工智能技術(shù)在社會(huì)各領(lǐng)域的融合,人工智能已經(jīng)成為推動(dòng)社會(huì)經(jīng)濟(jì)發(fā)展新的引擎并帶來(lái)社會(huì)建設(shè)發(fā)展新的機(jī)遇。同時(shí)人工智能已經(jīng)成為國(guó)際競(jìng)爭(zhēng)中的一個(gè)新的焦點(diǎn)。創(chuàng)新是發(fā)展的第一動(dòng)力,良好的制度也是一種生產(chǎn)力,人工智能法作為規(guī)范人工智能發(fā)展的基礎(chǔ)性、綜合性法律,理應(yīng)推動(dòng)人工智能的發(fā)展。推動(dòng)人工智能技術(shù)的發(fā)展可以從技術(shù)創(chuàng)新和技術(shù)應(yīng)用落地兩個(gè)大的方面著手。

一方面,實(shí)現(xiàn)人工智能技術(shù)的重大突破需要從前沿基礎(chǔ)理論、關(guān)鍵性技術(shù)、基礎(chǔ)設(shè)施、人才隊(duì)伍等方面著手,多方位提升人工智能技術(shù)創(chuàng)新能力。首先,前沿理論方面。理論對(duì)實(shí)踐具有指導(dǎo)作用,人工智能法宜明確規(guī)定國(guó)家支持大數(shù)據(jù)智能理論、跨媒體感知技術(shù)理論、混合增強(qiáng)智能理論、群體智能理論、自主協(xié)同控制與優(yōu)化決策理論、高級(jí)機(jī)器學(xué)習(xí)理論、類(lèi)腦智能計(jì)算理論、量子智能計(jì)算理論等基礎(chǔ)理論的研究和發(fā)展。其次,關(guān)鍵技術(shù)方面。人工智能應(yīng)用場(chǎng)景、功能、目的不同,所采用的技術(shù)也有所差異。人工智能法作為規(guī)范人工智能的基礎(chǔ)性、綜合性法律可以對(duì)人工智能關(guān)鍵性、共性的技術(shù)進(jìn)行規(guī)定,例如算法技術(shù)、大數(shù)據(jù)技術(shù)、芯片技術(shù)等。再次,基礎(chǔ)設(shè)施方面。人工智能技術(shù)創(chuàng)新平臺(tái)是人工智能技術(shù)研發(fā)與應(yīng)用的新基建和基礎(chǔ)。人工智能法可對(duì)人工智能創(chuàng)新平臺(tái)的布局做出引導(dǎo),包括人工智能開(kāi)源軟硬件基礎(chǔ)平臺(tái)、群體智能服務(wù)平臺(tái)、混合增強(qiáng)智能支撐平臺(tái)、自主無(wú)人系統(tǒng)支撐平臺(tái)、人工智能基礎(chǔ)數(shù)據(jù)與安全檢測(cè)平臺(tái)等。最后,人才隊(duì)伍方面。人工智能技術(shù)的發(fā)展需要大量專(zhuān)業(yè)人才,人工智能可明確規(guī)定完善人工智能領(lǐng)域?qū)W科布局,引導(dǎo)和支持高等院校開(kāi)設(shè)人工智能專(zhuān)業(yè),推動(dòng)人工智能領(lǐng)域一級(jí)學(xué)科建設(shè)。支持和鼓勵(lì)高校、科研機(jī)構(gòu)、企業(yè)等組建專(zhuān)業(yè)團(tuán)隊(duì)開(kāi)展人工智能關(guān)鍵技術(shù)研究。完善人工智能技術(shù)人員評(píng)定機(jī)制,完善科技成果轉(zhuǎn)化激勵(lì)機(jī)制。

另一方面,推動(dòng)人工智能多元應(yīng)用場(chǎng)景落地。人工智能技術(shù)創(chuàng)新推動(dòng)傳統(tǒng)生產(chǎn)優(yōu)化升級(jí),并經(jīng)由全面融入社會(huì)交往和日常生活趨勢(shì)實(shí)現(xiàn)技術(shù)發(fā)展紅利向社會(huì)公共福祉轉(zhuǎn)變。實(shí)現(xiàn)這一轉(zhuǎn)化的關(guān)鍵便是推動(dòng)科技成果轉(zhuǎn)化,促進(jìn)人工智能技術(shù)在多元場(chǎng)景應(yīng)用落地。一是政府職責(zé)。政府具有管理科技活動(dòng)的職責(zé),人工智能法宜明確各級(jí)政府科學(xué)技術(shù)管理部門(mén)在人工智能技術(shù)成果轉(zhuǎn)化和推廣中的地位、職權(quán)與責(zé)任,促進(jìn)轄區(qū)內(nèi)人工智能技術(shù)成果轉(zhuǎn)化。二是加強(qiáng)產(chǎn)權(quán)保護(hù)。科技成果的專(zhuān)利權(quán)、著作權(quán)、技術(shù)秘密等是促進(jìn)科技成果轉(zhuǎn)化的利益驅(qū)動(dòng)力量。[16]P388對(duì)此,人工智能法可明確規(guī)定加強(qiáng)人工智能發(fā)明專(zhuān)利、人工智能生成內(nèi)容、人工智能技術(shù)秘密等的保護(hù),為人工智能技術(shù)成果轉(zhuǎn)化提供良好的法律環(huán)境。三是建立健全科技成果交易制度。確權(quán)是交易的前提,當(dāng)前人工智能生產(chǎn)內(nèi)容屬性及權(quán)利歸屬、數(shù)據(jù)歸屬不明阻礙了技術(shù)成果轉(zhuǎn)化,亟需人工智能法加以規(guī)定。此外,技術(shù)的應(yīng)用容易引發(fā)壟斷、不正當(dāng)競(jìng)爭(zhēng)等擾亂市場(chǎng)秩序的現(xiàn)象。對(duì)此,人工智能法宜建立公平有序的競(jìng)爭(zhēng)規(guī)則和交易規(guī)則,以健全人工智能市場(chǎng)監(jiān)督制度。

2.人工智能風(fēng)險(xiǎn)防范制度

科學(xué)技術(shù)發(fā)展及其所伴隨的危險(xiǎn)和潛在威脅促進(jìn)生產(chǎn)力爆發(fā)式增長(zhǎng)的同時(shí)亦使得社會(huì)風(fēng)險(xiǎn)程度不斷增加,其副作用或負(fù)面效應(yīng)常常經(jīng)由某種程度獲得“可接受水平”的合法化——貝克稱(chēng)之為“虛偽的欺騙”。[3]P75-83牛津大學(xué)哲學(xué)家尼克·博斯特羅姆將建造人工智能的研究比作“玩炸彈的孩子”。[39]P172-173可見(jiàn),人工智能技術(shù)的創(chuàng)新性與風(fēng)險(xiǎn)性是并存的,亟需對(duì)其“立規(guī)矩”,以防范人工智能風(fēng)險(xiǎn)。

一是建立人工智能準(zhǔn)入制度。建立人工智能準(zhǔn)入制度是溯源治理的要求,可以從源頭防范人工智能風(fēng)險(xiǎn)。首先,建立負(fù)面清單制度。明確規(guī)定屬于負(fù)面清單規(guī)定內(nèi)的事項(xiàng)禁止或限制人工智能的研發(fā)。由于法律必須保持其穩(wěn)定性,只有意義穩(wěn)定、安定的法律,才能有效的調(diào)整社會(huì)關(guān)系,維護(hù)良好的社會(huì)秩序。[40]P81鑒于人工智能技術(shù)的迭代更新速度較快,應(yīng)用場(chǎng)景也在不斷擴(kuò)展,人工智能法作為規(guī)范人工智能技術(shù)的基礎(chǔ)性、綜合性法律宜遵循宜粗不宜細(xì)的立法原則,以此維護(hù)法律的穩(wěn)定性。具體可以表述為對(duì)于以攻擊、破壞為目的,或具有較大社會(huì)危害性且無(wú)法控制的技術(shù)應(yīng)明確禁止研發(fā)。對(duì)具有較大社會(huì)危害性但可以控制的技術(shù)限制研發(fā)。具體的禁止和限制事項(xiàng)授權(quán)國(guó)務(wù)院另行規(guī)定。同時(shí)規(guī)定對(duì)于負(fù)面清單規(guī)定禁止研發(fā)的,任何人和社會(huì)組織都不得研發(fā)。對(duì)于負(fù)面清單規(guī)定限制研發(fā)的,經(jīng)批準(zhǔn)后可以研發(fā)。其次,建立備案登記制度。人工智能風(fēng)險(xiǎn)性與創(chuàng)新性并存,對(duì)人工智能的法律規(guī)制應(yīng)遵循安全與發(fā)展并重原則。因此,對(duì)于負(fù)面清單以外的事項(xiàng),可以采取備案登記制度,加強(qiáng)事后監(jiān)管。

二是建立分級(jí)分類(lèi)監(jiān)管制度。分級(jí)分類(lèi)監(jiān)管制度是安全和發(fā)展并重原則的具體體現(xiàn),契合了人工智能的創(chuàng)新性與風(fēng)險(xiǎn)性特征。分級(jí)分類(lèi)監(jiān)管的前提是按風(fēng)險(xiǎn)高低對(duì)人工智能進(jìn)行分級(jí)分類(lèi)。歐盟《人工智能法案》將人工智能系統(tǒng)的風(fēng)險(xiǎn)劃分為不可接受風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)和輕微風(fēng)險(xiǎn)這樣四類(lèi),并對(duì)不同的風(fēng)險(xiǎn)類(lèi)型規(guī)定了不同的監(jiān)管措施,該規(guī)定對(duì)我國(guó)人工智能法的立法具有一定的借鑒意義??紤]到人工智能技術(shù)更新較快,為保持法律的穩(wěn)定性,我國(guó)的人工智能法可以對(duì)人工智能風(fēng)險(xiǎn)進(jìn)行概括性劃分,具體類(lèi)型可以授權(quán)國(guó)務(wù)院規(guī)定。具體而言,對(duì)于可能危害國(guó)家安全、社會(huì)公共利益、人民群眾生命健康的人工智能應(yīng)劃分為不可接受風(fēng)險(xiǎn)等級(jí)。對(duì)于該風(fēng)險(xiǎn)等級(jí)的人工智能無(wú)論是研發(fā)、投放市場(chǎng)或是使用均應(yīng)當(dāng)被禁止。對(duì)于可能危害自然人、社會(huì)組織其他人身權(quán)益、財(cái)產(chǎn)安全的人工智能應(yīng)劃分為重大風(fēng)險(xiǎn)等級(jí)。該風(fēng)險(xiǎn)等級(jí)的人工智能是重點(diǎn)監(jiān)管對(duì)象,宜對(duì)其建立入市前和入市后的全流程風(fēng)險(xiǎn)監(jiān)管措施。對(duì)于可能造成其他輕微危害的人工智能劃分為一般風(fēng)險(xiǎn)等級(jí)。對(duì)于該風(fēng)險(xiǎn)等級(jí)的人工智能應(yīng)當(dāng)堅(jiān)持包容審慎的理念,賦予其一定的自由度,同時(shí)賦予人工智能研發(fā)者和提供者一定的義務(wù),加強(qiáng)事后監(jiān)管。

三是建立試錯(cuò)容錯(cuò)監(jiān)管制度。人的理性發(fā)展在于不斷檢視自身錯(cuò)誤。[41]P44人的理性認(rèn)知是有局限的,正如科恩所言,縱然人具有高度的智慧并秉持高度的審慎,政府官員也難免出錯(cuò)。[42]P178人工智能作為一項(xiàng)新興科學(xué)技術(shù),囿于人的有限認(rèn)知尚無(wú)法對(duì)其進(jìn)行全面認(rèn)識(shí),宜遵循發(fā)展與安全并重原則,對(duì)其實(shí)施試錯(cuò)容錯(cuò)監(jiān)管。首先,明確試錯(cuò)容錯(cuò)監(jiān)管的適用范圍。對(duì)于風(fēng)險(xiǎn)等級(jí)屬于不可接受風(fēng)險(xiǎn)的禁止研發(fā)和使用,不能適用試錯(cuò)容錯(cuò)監(jiān)管制度。對(duì)于風(fēng)險(xiǎn)等級(jí)屬于重大風(fēng)險(xiǎn)的要求強(qiáng)制適用試錯(cuò)容錯(cuò)監(jiān)管制度。對(duì)于風(fēng)險(xiǎn)等級(jí)屬于一般風(fēng)險(xiǎn)的,由人工智能系統(tǒng)研發(fā)者、提供者自主選擇是否適用試錯(cuò)容錯(cuò)監(jiān)管制度。其次,明確試錯(cuò)容錯(cuò)制度適用條件。采取試錯(cuò)容錯(cuò)監(jiān)管的人工智能系統(tǒng)應(yīng)當(dāng)滿(mǎn)足相關(guān)法律法規(guī)、倫理規(guī)則及相關(guān)技術(shù)標(biāo)準(zhǔn)??梢笕斯ぶ悄芟到y(tǒng)研發(fā)者、提供者已經(jīng)建立起完善的合規(guī)機(jī)制,并且已經(jīng)對(duì)人工智能系統(tǒng)可能引發(fā)的風(fēng)險(xiǎn)進(jìn)行評(píng)估并建立完善的防范措施。最后,建立責(zé)任豁免制度。試錯(cuò)容錯(cuò)的本質(zhì)在于守住風(fēng)險(xiǎn)底線的前提下鼓勵(lì)創(chuàng)新。因此,對(duì)于人工智能在觀察期內(nèi)產(chǎn)生的風(fēng)險(xiǎn),在未對(duì)市場(chǎng)、用戶(hù)等產(chǎn)生重大影響的情況下可以適當(dāng)減輕處罰或免于處罰,并對(duì)其進(jìn)行風(fēng)險(xiǎn)防范合規(guī)指導(dǎo)。

四是建立協(xié)同性監(jiān)管制度。善治的本質(zhì)在于能夠有更多渠道讓公民參與國(guó)家的管理。[43]P11隨著大數(shù)據(jù)、大模型、芯片等技術(shù)的發(fā)展,人工智能將更為智能,應(yīng)用場(chǎng)景也在加速擴(kuò)展,對(duì)其監(jiān)管也需要多方主體的共同努力,除政府監(jiān)管外,還需加強(qiáng)行業(yè)協(xié)會(huì)、科技企業(yè)的自律監(jiān)管。對(duì)此,可以充分發(fā)揮行業(yè)協(xié)會(huì)在制定人工智能倫理規(guī)范、技術(shù)標(biāo)準(zhǔn)、行業(yè)行為規(guī)范等方面的積極作用。同時(shí),加強(qiáng)企業(yè)合規(guī)管理,引導(dǎo)科技企業(yè)建立健全內(nèi)部合規(guī)體系。此外,人工智能風(fēng)險(xiǎn)評(píng)估是一種有效的事前風(fēng)險(xiǎn)防范措施,可以提前發(fā)現(xiàn)技術(shù)的風(fēng)險(xiǎn)隱患,避免“灰犀牛”“黑天鵝”等事件的發(fā)生。[35]P134因此建議建立第三方風(fēng)險(xiǎn)評(píng)估制度,發(fā)揮社會(huì)中介機(jī)構(gòu)的“看門(mén)人”作用。

3.人工智能研發(fā)者和提供者的義務(wù)體系制度

(1)人工智能研發(fā)者和提供者的一般義務(wù)

一是公開(kāi)透明性義務(wù)。算法作為一項(xiàng)專(zhuān)業(yè)性較強(qiáng)的新興技術(shù),對(duì)于普通人類(lèi)而言屬于“黑箱”。算法“黑箱”給算法自動(dòng)化決策結(jié)果與自動(dòng)化執(zhí)行的過(guò)程披上了一層面紗。將這種具有“黑箱”屬性的算法應(yīng)用于社會(huì)各個(gè)領(lǐng)域,則極易引發(fā)私人資本支配公權(quán)力、算法監(jiān)督的政治失靈、政府信任危機(jī)等風(fēng)險(xiǎn)。[44]P92并且,若算法不透明,人類(lèi)則將難以信任算法決策的結(jié)果。因此確保人類(lèi)對(duì)算法決策和執(zhí)行過(guò)程的知情權(quán),是人類(lèi)面對(duì)算法活動(dòng)做出理性選擇的基礎(chǔ)和前提。提升算法透明度,不僅可以促進(jìn)人與算法的互動(dòng),增強(qiáng)人類(lèi)對(duì)算法的信任,而且有利于人類(lèi)在算法社會(huì)中的自我完善,實(shí)現(xiàn)人類(lèi)自由和有尊嚴(yán)的發(fā)展。[45]P54因此,人工智能研發(fā)者和提供者應(yīng)當(dāng)在算法的設(shè)計(jì)、實(shí)驗(yàn)、應(yīng)用等環(huán)節(jié)提升算法的透明度,進(jìn)而提升人類(lèi)對(duì)算法的信任度。

二是解釋說(shuō)明義務(wù)。人工智能研發(fā)者和提供者的解釋說(shuō)明義務(wù)包括兩大方面。一方面是對(duì)算法決策過(guò)程的解釋說(shuō)明,即人工智能研發(fā)者和提供者以人類(lèi)能夠理解的方式對(duì)算法自動(dòng)決策的過(guò)程進(jìn)行詮釋說(shuō)明。賦予人工智能研發(fā)者和提供者對(duì)算法決策解釋說(shuō)明義務(wù)主要基于以下原因:首先,防范算法風(fēng)險(xiǎn)。算法通常具有歧視性風(fēng)險(xiǎn)、算法黑箱風(fēng)險(xiǎn)、算法權(quán)力風(fēng)險(xiǎn),而通過(guò)算法解釋可以有效的防范算法黑箱風(fēng)險(xiǎn),并通過(guò)公開(kāi)透明化間接有助于防范算法歧視和算法權(quán)力所引發(fā)的風(fēng)險(xiǎn)。[46]P193-194其次,提升人類(lèi)對(duì)算法的信任度,促進(jìn)人工智能在社會(huì)各領(lǐng)域的應(yīng)用落地。最后,明確法律責(zé)任,保護(hù)用戶(hù)的合法權(quán)益。無(wú)論是否賦予人工智能主體地位,在解決人工智能引發(fā)的法律責(zé)任時(shí),必須解釋其是如何行為的,若無(wú)法解釋算法決策的過(guò)程,則規(guī)則就難以成立。[47]P80-87另一方面,是對(duì)格式條款的解釋說(shuō)明。實(shí)踐中,用戶(hù)使用人工智能系統(tǒng)服務(wù)時(shí)通常需要注冊(cè),而人工智能系統(tǒng)提供者與用戶(hù)簽訂的合同通常屬于格式合同。對(duì)此,人工智能系統(tǒng)提供者應(yīng)當(dāng)有義務(wù)依照《民法典》的規(guī)定對(duì)合同條款進(jìn)行解釋說(shuō)明。

三是安全保障義務(wù)。安全保障義務(wù)是指人工智能研發(fā)者和提供者應(yīng)當(dāng)保證其研發(fā)或提供的人工智能系統(tǒng)符合保障人身、財(cái)產(chǎn)安全的要求。對(duì)可能危及人身、財(cái)產(chǎn)安全的人工智能系統(tǒng),應(yīng)當(dāng)向用戶(hù)做出真實(shí)的說(shuō)明和明確的警示,并建立完善的風(fēng)險(xiǎn)防范體系,防止風(fēng)險(xiǎn)和損害的發(fā)生。具體包括以下方面:首先,人工智能研發(fā)者和提供者應(yīng)當(dāng)保障研發(fā)和提供的人工智能系統(tǒng)符合法律法規(guī)、倫理規(guī)范、國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn),不存在不合理的危險(xiǎn)。其次,人工智能研發(fā)者和提供者在將人工智能系統(tǒng)投入市場(chǎng)前應(yīng)當(dāng)進(jìn)行安全測(cè)試,評(píng)估風(fēng)險(xiǎn),對(duì)存在潛在風(fēng)險(xiǎn)的,做好風(fēng)險(xiǎn)防范措施。再次,對(duì)可能存在風(fēng)險(xiǎn)的人工智能系統(tǒng),人工智能研發(fā)者與提供者應(yīng)當(dāng)向用戶(hù)做出真實(shí)的說(shuō)明并提示可能存在的風(fēng)險(xiǎn),并指導(dǎo)用戶(hù)正確地使用人工智能系統(tǒng),明確告知用戶(hù)防范風(fēng)險(xiǎn)發(fā)生的方法。最后,人工智能研發(fā)者和提供者應(yīng)當(dāng)定期對(duì)人工智能系統(tǒng)進(jìn)行安全性測(cè)評(píng),一旦發(fā)現(xiàn)人工智能系統(tǒng)存在安全風(fēng)險(xiǎn)隱患的,應(yīng)當(dāng)立即向監(jiān)管部門(mén)報(bào)告并及時(shí)通知用戶(hù),并及時(shí)采取防止風(fēng)險(xiǎn)發(fā)生的措施。

(2)人工智能研發(fā)者的特殊義務(wù)

一是提升數(shù)據(jù)質(zhì)量的義務(wù)。數(shù)據(jù)是人工智能智能化的養(yǎng)料,深度學(xué)習(xí)算法、大模型對(duì)數(shù)據(jù)的質(zhì)量提出了更高的要求,數(shù)據(jù)質(zhì)量對(duì)算法的運(yùn)行結(jié)果具有直接的影響。在數(shù)據(jù)收集過(guò)程中,收集方式、收集對(duì)象的選擇都將影響到數(shù)據(jù)集的構(gòu)成,一旦收集的數(shù)據(jù)具有某種結(jié)構(gòu)性的偏見(jiàn)則將導(dǎo)致算法運(yùn)行結(jié)果的偏見(jiàn),甚至“數(shù)據(jù)投毒”行為將會(huì)人為的改變算法的執(zhí)行結(jié)果。因此,人工智能研發(fā)者宜負(fù)有提升數(shù)據(jù)質(zhì)量的義務(wù),在數(shù)據(jù)收集、存儲(chǔ)、使用、加工等各個(gè)環(huán)節(jié)嚴(yán)格遵守?cái)?shù)據(jù)相關(guān)法律法規(guī)、標(biāo)準(zhǔn)和倫理規(guī)范,確保人工智能學(xué)習(xí)數(shù)據(jù)的完整性、及時(shí)性和準(zhǔn)確性。此外,人工智能研發(fā)者應(yīng)當(dāng)制定符合人工智能倫理規(guī)范和技術(shù)標(biāo)準(zhǔn)的數(shù)據(jù)標(biāo)注規(guī)則,定期對(duì)數(shù)據(jù)標(biāo)準(zhǔn)質(zhì)量進(jìn)行評(píng)估,確保數(shù)據(jù)標(biāo)準(zhǔn)的準(zhǔn)確性。

二是避免算法歧視的義務(wù)。算法是人工智能“智慧”的核心,是一系列精確的用于執(zhí)行某些具體任務(wù)的指令。[21]P48-49算法是人工智能“智慧”生成的核心驅(qū)動(dòng)力,算法之于人工智能,猶如意志自由之于自然人。[48]P5-7然而,人工智能不是不偏不倚的救世主,人工智能存在算法偏見(jiàn)。[4]P530造成人工智能算法偏見(jiàn)的原因除了數(shù)據(jù)質(zhì)量外主要是算法設(shè)計(jì)。所有的算法都遵循人類(lèi)的設(shè)定規(guī)則,人類(lèi)將自己的偏見(jiàn)和假設(shè)導(dǎo)入到算法中,將導(dǎo)致算法偏見(jiàn)。[49]P40資本具有逐利性,在缺乏法律約束的情況下,在利益的驅(qū)使下,算法設(shè)計(jì)者將難以客觀公正的進(jìn)行算法設(shè)計(jì),從而導(dǎo)致算法偏見(jiàn)。若將這種帶有偏見(jiàn)性的算法應(yīng)用于社會(huì)各領(lǐng)域,則將會(huì)造成社會(huì)歧視。例如,犯罪風(fēng)險(xiǎn)評(píng)估算法COMPAS得出沒(méi)有再次犯罪的黑人“被認(rèn)為風(fēng)險(xiǎn)較高的可能性幾乎是白人的兩倍”,而再次犯罪的白人“被認(rèn)為風(fēng)險(xiǎn)較低的可能性比黑人大得多”的種族歧視性結(jié)論。[50]P263因此,人工智能研發(fā)者應(yīng)當(dāng)負(fù)有避免算法歧視的義務(wù),在算法設(shè)計(jì)中加強(qiáng)倫理審查,充分考慮差異化的訴求,避免算法偏見(jiàn)所引發(fā)的社會(huì)歧視性風(fēng)險(xiǎn)。

(3)人工智能提供者的特殊義務(wù)

一是及時(shí)采取處置措施的義務(wù)。該義務(wù)是指人工智能系統(tǒng)提供者在提供服務(wù)過(guò)程中發(fā)現(xiàn)使用者利用人工智能系統(tǒng)從事違法活動(dòng)的,應(yīng)當(dāng)立刻采取警示、限制功能、暫?;蚪K止服務(wù)等處置措施,并保持留存相關(guān)記錄,及時(shí)向有關(guān)監(jiān)管部門(mén)報(bào)告。對(duì)于可能造成他人損害的,應(yīng)當(dāng)及時(shí)通知受害人。要求人工智能提供者承擔(dān)及時(shí)采取處置措施的義務(wù)主要原因在于:首先,人工智能提供者是人工智能系統(tǒng)的控制者,在發(fā)現(xiàn)違法活動(dòng)時(shí),其可以快速采取措施以及時(shí)防范風(fēng)險(xiǎn)的發(fā)生。其次,人工智能提供者同時(shí)也是人工智能系統(tǒng)服務(wù)的受益者,基于權(quán)利與義務(wù)相一致的原則,其有義務(wù)對(duì)違法行為加以制止。最后,人工智能提供者對(duì)其提供的人工智能系統(tǒng)負(fù)有安全保障義務(wù)。該安全保障義務(wù)不是一時(shí)性的義務(wù),而是一種持續(xù)性的義務(wù)。要求人工智能提供者承擔(dān)及時(shí)采取處置措施的義務(wù)是其安全保障義務(wù)的應(yīng)有之義。

二是及時(shí)受理投訴、舉報(bào)的義務(wù)。該義務(wù)是指人工智能系統(tǒng)提供者宜建立健全投訴、舉報(bào)機(jī)制,設(shè)置便捷的投訴、舉報(bào)入口,并向社會(huì)公眾公開(kāi)投訴、舉報(bào)的流程及反饋時(shí)限,將處理結(jié)果及時(shí)向社會(huì)公布。要求人工智能提供者承擔(dān)及時(shí)受理投訴、舉報(bào)的義務(wù)主要原因在于:首先,提高社會(huì)公眾監(jiān)督的積極性。社會(huì)公眾監(jiān)督是社會(huì)主義監(jiān)督體系的重要組成部分,積極發(fā)揮社會(huì)公眾監(jiān)督是實(shí)現(xiàn)公開(kāi)、公平、公正為價(jià)值目標(biāo)的和諧社會(huì)的重要保障。[51]P21要求人工智能提供者承擔(dān)及時(shí)受理投訴、舉報(bào)義務(wù)有利于提高社會(huì)公眾監(jiān)督積極性,構(gòu)建人工智能多元主體協(xié)同性監(jiān)管體系。其次,有助于及時(shí)發(fā)現(xiàn)風(fēng)險(xiǎn)。隨著人工智能應(yīng)用場(chǎng)景的不斷擴(kuò)展,人工智能的用戶(hù)數(shù)量將持續(xù)上漲,人工智能系統(tǒng)提供者難以對(duì)所有的用戶(hù)行為進(jìn)行時(shí)時(shí)監(jiān)督,難以及時(shí)發(fā)現(xiàn)違法行為。在用戶(hù)利用人工智能系統(tǒng)從事違法行為時(shí),允許社會(huì)公眾投訴、舉報(bào),可以使得人工智能系統(tǒng)提供者及時(shí)知曉違法行為并及時(shí)采取措施,避免風(fēng)險(xiǎn)的發(fā)生。

結(jié) 語(yǔ)

人工智能技術(shù)是引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),具有溢出帶動(dòng)性很強(qiáng)的“頭雁”效應(yīng)。當(dāng)前,人工智能正將成為世界未來(lái)發(fā)展的新的核心競(jìng)爭(zhēng)力,并將成為新的國(guó)際競(jìng)爭(zhēng)焦點(diǎn)。良好的制度也是一種生產(chǎn)力,推動(dòng)人工智能健康穩(wěn)定發(fā)展離不開(kāi)法治保障,人工智能法作為規(guī)范人工智能發(fā)展的基礎(chǔ)性、綜合性法律不可或缺。當(dāng)然,人工智能法的制定涉及眾多問(wèn)題,本文僅對(duì)人工智能法最為核心問(wèn)題進(jìn)行初步探討,尚有大量問(wèn)題有待后續(xù)研究。

猜你喜歡
原則人工智能法律
法律解釋與自然法
2019:人工智能
人工智能與就業(yè)
堅(jiān)守原則,逐浪前行
數(shù)讀人工智能
下一幕,人工智能!
無(wú)罪推定原則的理解與完善
“互助獻(xiàn)血”質(zhì)疑聲背后的法律困惑
惹人喜愛(ài)的原則(二)
惹人喜愛(ài)的原則