摘 要:人工智能法的基本原則是人工智能法的重要組成部分。既有關(guān)于人工智能法基本原則的方案有三原則說、四原則說、八原則說等,這些方案存在設(shè)計(jì)體系性不足、話語(yǔ)層次不統(tǒng)一等問題。人工智能法基本原則的設(shè)計(jì)應(yīng)以發(fā)展負(fù)責(zé)任的人工智能為主線,這一判斷既源于對(duì)立法目的的分析,也是有效加速和價(jià)值對(duì)齊理念的平衡?;谠撝骶€,人工智能法的基本原則又可以進(jìn)行多個(gè)層次的展開。其中,第一層次原則包括支持發(fā)展創(chuàng)新原則和計(jì)算正義原則,前者主要指向?qū)τ谌斯ぶ悄馨l(fā)展的支持以及對(duì)于知識(shí)產(chǎn)權(quán)的保護(hù),而后者又可以分為可信、安全和效益三項(xiàng)原則。
關(guān)鍵詞:人工智能 人工智能法 基本原則 治理
《全球人工智能治理倡議》指出:“當(dāng)前,全球人工智能技術(shù)快速發(fā)展,對(duì)經(jīng)濟(jì)社會(huì)發(fā)展和人類文明進(jìn)步產(chǎn)生深遠(yuǎn)影響,給世界帶來巨大機(jī)遇。與此同時(shí),人工智能技術(shù)也帶來難以預(yù)知的各種風(fēng)險(xiǎn)和復(fù)雜挑戰(zhàn)?!边@揭示了人工智能對(duì)于人類社會(huì)的影響。由此,如何有效地利用人工智能,使其在推動(dòng)社會(huì)進(jìn)步的同時(shí),最大限度地降低負(fù)面影響愈發(fā)成為各方的追求。這一方面需要提升對(duì)于技術(shù)的投入,不斷研發(fā)人工智能技術(shù)。另一方面則需要加強(qiáng)對(duì)于人工智能的治理,通過有效的策略規(guī)制人工智能可能引發(fā)的各種風(fēng)險(xiǎn)。法律作為調(diào)整社會(huì)關(guān)系的行為規(guī)范,理應(yīng)對(duì)人工智能的發(fā)展和治理作出一定回應(yīng)。對(duì)此問題,一些國(guó)家和地區(qū)已經(jīng)開始有所行動(dòng)。例如,歐盟理事會(huì)已正式批準(zhǔn)了歐盟《人工智能法案》。巴西參議院的一個(gè)委員會(huì)提交了一份報(bào)告,其中包含對(duì)人工智能監(jiān)管的研究以及一份人工智能法草案。在我國(guó),制定統(tǒng)一的人工智能法也開始被更多提出。不僅《國(guó)務(wù)院2023 年度立法工作計(jì)劃》將人工智能法納入了立法計(jì)劃,同時(shí),中國(guó)社會(huì)科學(xué)院也推出了《人工智能法示范法1.0(專家建議稿)》。
人工智能法的制定是一個(gè)系統(tǒng)性工作,從其他法律和《人工智能法示范法1.0(專家建議稿)》的內(nèi)容看,我國(guó)人工智能法的結(jié)構(gòu)很可能采取的是總分結(jié)397cdce02dca091827d6b203b1a132793857d652eb96a4beb81c048d75b43fdc構(gòu)。而在總則之中,一個(gè)重要的組成部分就是基本原則部分。其貫穿于整個(gè)人工智能立法,是對(duì)各項(xiàng)人工智能法制度與人工智能法規(guī)范起統(tǒng)帥和指導(dǎo)作用的立法方針,是一切人工智能活動(dòng)主體均應(yīng)遵循的行為準(zhǔn)則,是解釋人工智能法律法規(guī)的依據(jù),也是補(bǔ)充法律漏洞、發(fā)展學(xué)說判例的基礎(chǔ)。盡管十分重要,但人工智能法作為一門全新的領(lǐng)域法學(xué),其基本原則的完善度并不充足。無(wú)論是理論還是實(shí)踐,對(duì)該問題的分析都只是簡(jiǎn)單地進(jìn)行了探索,缺乏專門的系統(tǒng)性分析。有鑒于此,為給人工智能法的制定提供支持,本文將在反思當(dāng)前人工智能法基本原則理論和實(shí)踐的基礎(chǔ)上,結(jié)合人工智能法領(lǐng)域的各種探索,構(gòu)建人工智能法的基本原則體系,以更加科學(xué)地闡釋人工智能法的基本原則。
一、人工智能法基本原則的代表性觀點(diǎn)及其反思
當(dāng)前人工智能法的相關(guān)理論和實(shí)踐所提出的基本原則主要有四種方案。其中,方案一是三原則說,分別是可信、安全和公平。在該方案中,可信原則主要指向算法基于可理解性、可靠性和可控性而能夠獲得人們的信任,其所指可信包括了可解釋性以及對(duì)于相關(guān)風(fēng)險(xiǎn)的治理。安全主要指向主體之間的互動(dòng)安全、主體心理感知層面的信任安全和主體所處環(huán)境的穩(wěn)定。公平則主要是對(duì)歧視、不公平競(jìng)爭(zhēng)和算法濫用的反對(duì)。
方案二同樣是三原則說,但內(nèi)容有所不同,分別為以人為本、計(jì)算正義和有益。其中以人為本強(qiáng)調(diào)人對(duì)于機(jī)器的優(yōu)位性以及對(duì)于人權(quán)的保障。計(jì)算正義主要指向加強(qiáng)對(duì)于人工智能的監(jiān)管和更多將人工智能用于權(quán)利保障。有益原則要求人工智能的應(yīng)用應(yīng)有利于人類社會(huì)的發(fā)展。
方案三是四原則說,分別是公平,可靠、可控、可信,安全和發(fā)展并重以及合規(guī)性。其中,公平包含全社會(huì)主體地位平等、分配公平和正當(dāng)?shù)牟顒e對(duì)待三個(gè)方面??煽?、可控、可信強(qiáng)調(diào)人工智能系統(tǒng)應(yīng)安全穩(wěn)定運(yùn)行、保護(hù)人類自由意志和權(quán)利以及符合人類價(jià)值和道德理念。安全和發(fā)展并重強(qiáng)調(diào)人工智能法應(yīng)在保障人工智能安全的同時(shí)促進(jìn)技術(shù)創(chuàng)新。合規(guī)性則強(qiáng)調(diào)參與人工智能相關(guān)活動(dòng)的主體要遵守規(guī)則并為自己的行為負(fù)責(zé)。
方案四是八原則說,分別是治理、以人為本、安全、公開透明可解釋、可問責(zé)、公平平等、綠色和促進(jìn)發(fā)展創(chuàng)新。其中,治理原則主要強(qiáng)調(diào)的是包容審慎的監(jiān)管。以人為本原則要求人工智能具有可控性和有益性。安全原則關(guān)注的是人工智能及其相關(guān)網(wǎng)絡(luò)數(shù)據(jù)的安全保障。公開透明可解釋指向的是對(duì)于人工智能目的、原理和效果的說明??蓡栘?zé)要求從事人工智能活動(dòng)的主體對(duì)其行為負(fù)責(zé)。公平平等要求人工智能及其相關(guān)活動(dòng)不得對(duì)個(gè)人、組織實(shí)行不合理的差別待遇。綠色原則指向的是人工智能相關(guān)活動(dòng)在保護(hù)環(huán)境和節(jié)約資源方面的要求。促進(jìn)發(fā)展創(chuàng)新原則包括對(duì)于人工智能開發(fā)等活動(dòng)的支持以及對(duì)知識(shí)產(chǎn)權(quán)的保護(hù)。
總的來說,由于人工智能法是一個(gè)新的領(lǐng)域,因此各方在基本原則這個(gè)問題上并未達(dá)成共識(shí),也不存在爭(zhēng)鳴。從既有方案看,不同方案所提出的人工智能法基本原則主要存在以下幾方面問題。
首先,人工智能法基本原則的體系性不足?,F(xiàn)有的四套方案都采取了羅列的方式,分別列舉了人工智能法的基本原則。但這種方式忽視了人工智能法基本原則之間的關(guān)系。事實(shí)上,一部法律的基本原則之間也存在層次問題:“單純抽象原則的表述還不足以給法官在未來的司法實(shí)踐中提供足夠的價(jià)值指引,原則需要具體化。原則具體化的第一步就是對(duì)各類原則進(jìn)行層次劃分?!睂?duì)此比較有代表性的理論是民法基本原則的一元論,其主張民法一般原則只有私法自治原則,其他原則都是圍繞該原則展開。而在既有人工智能法的討論中,各個(gè)方案似乎并未對(duì)此予以重視。事實(shí)上,一些方案已經(jīng)對(duì)此有了樸素的判斷,例如方案一將可理解性、可靠性和可控性作為可信原則的下位要求,但是其并未對(duì)不同原則之間的體系進(jìn)行深挖。除上述問題外,各個(gè)方案也并未點(diǎn)明人工智能法基本原則的核心主線。無(wú)論是三原則說、四原則說還是八原則說,各個(gè)原則之間的關(guān)系都沒有被明確。事實(shí)上,法基本原則之間應(yīng)滿足融貫性的要求,即不同原則應(yīng)圍繞一定主線和脈絡(luò)展開。而這一脈絡(luò)應(yīng)是人工智能法的核心價(jià)值。例如,環(huán)境法的邏輯主線在于將保護(hù)和發(fā)展相結(jié)合的可持續(xù)發(fā)展;證據(jù)法的邏輯主線以相關(guān)性為核心,所有原則都圍繞著相關(guān)性展開。同樣地,人工智能法的基本原則之間也不應(yīng)該是簡(jiǎn)單的并列關(guān)系,而是應(yīng)圍繞著一定主線展開,這樣才能提升不同基本原則之間的協(xié)作性以及整體基本原則的系統(tǒng)性。
其次,人工智能法基本原則的表述統(tǒng)一性不足。從當(dāng)前的幾種方案看,其提出的不少原則都具有一定相似性。這些原則有些表述可能差異不大,采取哪種表述都具有合理性,也不會(huì)引發(fā)太大歧義。但有些表述則需要甄選出最合適的說法。例如,以人為本原則、治理原則和計(jì)算正義原則都涉及對(duì)于人工智能的治理和權(quán)利的保護(hù),但是不同的表述能否體現(xiàn)出人工智能法基本原則的特色則存在差異。而既有理論并未對(duì)這種表述差異予以分析。
最后,人工智能法基本原則話語(yǔ)層次存在差異。雖然對(duì)于人工智能法基本原則的討論不多,但是不同方案之間的話語(yǔ)表述已經(jīng)在一定程度上展現(xiàn)出了層次的差異,這并不利于就人工智能法基本原則達(dá)成共識(shí)。具體而言,這種差異更多是存在于對(duì)一些前提性問題層面的認(rèn)知上。部分方案更加看重人工智能法在監(jiān)管和治理層面的價(jià)值,因此其所設(shè)計(jì)的原則也多偏重于監(jiān)管或治理。而部分方案則希望人工智能法起到促進(jìn)人工智能發(fā)展的作用,因此也提出了促進(jìn)發(fā)展創(chuàng)新等原則。而這種差異甚至造成了不同方案之間基本原則存在一定程度的沖突,例如八原則說的促進(jìn)發(fā)展創(chuàng)新原則和四原則說的安全和發(fā)展并重原則就展現(xiàn)出了不太相同的觀念。從其他部門法的經(jīng)驗(yàn)看,不同的話語(yǔ)體系可能會(huì)為立法工作添加障礙。例如,當(dāng)前證據(jù)法的概念使用就存在英美法系話語(yǔ)、大陸法系話語(yǔ)、前蘇聯(lián)話語(yǔ)、中國(guó)實(shí)踐話語(yǔ)等體系,可采性、證據(jù)能力等概念關(guān)系錯(cuò)綜復(fù)雜,這在一定程度上加深了證據(jù)立法的難度。考慮到人工智能法基本原則對(duì)于整個(gè)人工智能立法的重要意義,其話語(yǔ)體系的不統(tǒng)一將對(duì)人工智能立法造成更大傷害。
二、人工智能法基本原則的主線
基于前文分析不難發(fā)現(xiàn),人工智能法基本原則不清晰的原因很大程度上在于前置問題討論得不清晰。這種爭(zhēng)議的本質(zhì)實(shí)際上是發(fā)展與治理之間的矛盾。對(duì)于該矛盾的分析,既要訴諸于法律層面,也要訴諸于技術(shù)層面?;诖?,為了更好地回應(yīng)爭(zhēng)議,理清人工智能法的基本原則,本文將首先明晰人工智能法基本原則的主線問題。
(一)法律層面分析:人工智能法的立法目的
立法目的是指立法者希望通過所立的法來獲得的結(jié)果。對(duì)于一部法律而言,立法目的是統(tǒng)攝整個(gè)立法的指導(dǎo)思想和立法宗旨。基于“目的—原則—規(guī)則”的衍生邏輯,一部法律的立法目的應(yīng)衍生出基本原則,而法律原則與法律規(guī)則的相對(duì)關(guān)系決定了法律原則應(yīng)當(dāng)具有對(duì)于法律規(guī)則而言的周延性,即“原則性規(guī)則”。由此,人工智能法基本原則的確定前提是立法目的的明確,換言之,人工智能法基本原則需要根據(jù)人工智能法的立法目的而展開。由前文分析不難發(fā)現(xiàn),當(dāng)前人工智能法立法目的的主要爭(zhēng)議可以歸結(jié)為“單一論”和“復(fù)合論”之爭(zhēng),即以治理為主還是治理與發(fā)展并重。對(duì)于該問題的回答,可以分為內(nèi)外兩個(gè)方面。其中前者主要關(guān)注人工智能相關(guān)的各種規(guī)則和制度,而后者則指向其他規(guī)則和政策??偟膩砜矗伞皬?fù)合論”更加具有合理性。
一方面,從內(nèi)部因素看,我國(guó)既有人工智能的相關(guān)規(guī)則在總體態(tài)勢(shì)上表現(xiàn)出了治理和發(fā)展并重的立場(chǎng)。無(wú)論是在人工智能發(fā)展還是治理方面,我國(guó)都頒布了一定數(shù)量的規(guī)則。就前者而言,《新一代人工智能發(fā)展規(guī)劃》《國(guó)家新一代人工智能創(chuàng)新發(fā)展試驗(yàn)區(qū)建設(shè)工作指引(修訂版)》等規(guī)則均是更偏向于促進(jìn)人工智能的發(fā)展。而《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等規(guī)則更偏向于就人工智能進(jìn)行治理和監(jiān)管。除此之外,在一些重要的場(chǎng)景之中,不少規(guī)則在立法目的上都表現(xiàn)出了復(fù)合論的特征。其中較為典型的代表是《生成式人工智能服務(wù)管理暫行辦法》,該規(guī)則第1 條明確指出:“為了促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護(hù)國(guó)家安全和社會(huì)公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益?!逼渲屑忍N(yùn)含著推動(dòng)生成式人工智能發(fā)展的目標(biāo),也體現(xiàn)著對(duì)于生成式人工智能進(jìn)行限制的想法。
另一方面,從外部因素看,無(wú)論是《憲法》的規(guī)定還是國(guó)家對(duì)于人工智能的發(fā)展政策,也都體現(xiàn)了復(fù)合論的要求。一來,《憲法》中蘊(yùn)含著發(fā)展和治理人工智能的雙重要求。其中,推動(dòng)人工智能技術(shù)發(fā)展的依據(jù)主要來源于第14 條:“國(guó)家通過提高勞動(dòng)者的積極性和技術(shù)水平,推廣先進(jìn)的科學(xué)技術(shù),完善經(jīng)濟(jì)管理體制和企業(yè)經(jīng)營(yíng)管理制度,實(shí)行各種形式的社會(huì)主義責(zé)任制,改進(jìn)勞動(dòng)組織,以不斷提高勞動(dòng)生產(chǎn)率和經(jīng)濟(jì)效益,發(fā)展社會(huì)生產(chǎn)力。”而治理人工智能,規(guī)制其可能引發(fā)的各種風(fēng)險(xiǎn)的依據(jù)主要來源于第33 條的“國(guó)家尊重和保障人權(quán)”。二來,當(dāng)前國(guó)家整體人工智能的發(fā)展策略也在趨向于復(fù)合論。在人工智能發(fā)展的問題上,我國(guó)已經(jīng)表現(xiàn)出“不發(fā)展就是最大的不安全”的態(tài)度。2016 年全國(guó)人大批準(zhǔn)的《國(guó)民經(jīng)濟(jì)和社會(huì)發(fā)展第十三個(gè)五年規(guī)劃綱要》提出,要“重點(diǎn)突破大數(shù)據(jù)和云計(jì)算關(guān)鍵技術(shù)、自主可控操作系統(tǒng)、高端工業(yè)和大型管理軟件、新興領(lǐng)域人工智能技術(shù)”。而2021 年的《國(guó)民經(jīng)濟(jì)和社會(huì)發(fā)展第十四個(gè)五年規(guī)劃和2035年遠(yuǎn)景目標(biāo)綱要》同樣指出“培育壯大人工智能、大數(shù)據(jù)、區(qū)塊鏈、云計(jì)算、網(wǎng)絡(luò)安全等新興數(shù)字產(chǎn)業(yè),提升通信設(shè)備、核心電子元器件、關(guān)鍵軟件等產(chǎn)業(yè)水平”。這無(wú)疑體現(xiàn)了國(guó)家對(duì)于發(fā)展人工智能的決心。從實(shí)踐看,國(guó)家對(duì)于人工智能發(fā)展的投入也在日益增加。據(jù)預(yù)測(cè),到2030 年,我國(guó)人工智能核心產(chǎn)業(yè)規(guī)?;虺^1 萬(wàn)億元,帶動(dòng)相關(guān)產(chǎn)業(yè)規(guī)模超過10 萬(wàn)億元。在發(fā)展的同時(shí),我國(guó)也在積極投入到人工智能的治理工作之中。除了頒布各項(xiàng)治理規(guī)則外,也發(fā)表和參與了數(shù)項(xiàng)全球范圍內(nèi)的人工智能治理倡議。其中,2023 年發(fā)布的《全球人工智能治理倡議》指出:“各國(guó)應(yīng)在人工智能治理中加強(qiáng)信息交流和技術(shù)合作,共同做好風(fēng)險(xiǎn)防范,形成具有廣泛共識(shí)的人工智能治理框架和標(biāo)準(zhǔn)規(guī)范,不斷提升人工智能技術(shù)的安全性、可靠性、可控性、公平性。”同時(shí)期簽署的《布萊切利宣言》也作出了相似的判斷:“人工智能還帶來了重大風(fēng)險(xiǎn),包括在日常生活領(lǐng)域。為此,我們歡迎相關(guān)的國(guó)際努力,在現(xiàn)有論壇和其他相關(guān)舉措中審查和解決人工智能系統(tǒng)的潛在影響,并認(rèn)識(shí)到需要解決對(duì)人權(quán)的保護(hù)、透明度和可解釋性、公平性、問責(zé)制、監(jiān)管、安全、適當(dāng)?shù)娜藶楸O(jiān)督、道德、減輕偏見,隱私和數(shù)據(jù)保護(hù)等問題?!?/p>
(二)技術(shù)層面分析:有效加速與價(jià)值對(duì)齊的平衡
對(duì)于技術(shù)層面而言,同樣存在著發(fā)展與治理的爭(zhēng)議。其中,主張應(yīng)大力發(fā)展人工智能而減少限制的一方被稱為有效加速者,其觀點(diǎn)可以稱為加速主義的延續(xù),主要認(rèn)為人工智能發(fā)展是大勢(shì)所趨,貿(mào)然通過各種方式進(jìn)行阻攔并不明智。但這種較為極端的觀點(diǎn)也受到了不小的反對(duì),超級(jí)對(duì)齊、價(jià)值對(duì)齊、有效利他主義等觀點(diǎn)的支持者主張對(duì)人工智能要保持謹(jǐn)慎,應(yīng)將人工智能的價(jià)值與人類的價(jià)值進(jìn)行對(duì)齊。所謂人工智能的價(jià)值對(duì)齊(AI Alignment),就是讓人工智能系統(tǒng)的行為符合人類的目標(biāo)、偏好或倫理原則。價(jià)值對(duì)齊是人工智能安全研究的一個(gè)核心議題。在理論上,如果一個(gè)強(qiáng)大的人工智能系統(tǒng)所追求的目標(biāo)和人類的真實(shí)目的意圖和價(jià)值不一致,就有可能給人類帶來災(zāi)難性后果。因此,“如何防止這種災(zāi)難性的背離——如何確保這些模型捕捉到我們的規(guī)范和價(jià)值觀,理解我們的意思或意圖,最重要的是,以我們想要的方式行事——已成為計(jì)算機(jī)科學(xué)領(lǐng)域最核心、最緊迫的問題之一。”
從當(dāng)前發(fā)展態(tài)勢(shì)看,有效加速和價(jià)值對(duì)齊之間的較量仍在繼續(xù)。2023 年末OpenAI 的CEO 更迭風(fēng)波便揭示了不同立場(chǎng)之間的較量,盡管該風(fēng)波很快被平息,但是不同觀念之間的較量卻仍在繼續(xù)——雖然持有效加速主義觀點(diǎn)的奧特曼再次回到CEO 的位置上,但OpenAI 也未放棄對(duì)于人工智能價(jià)值對(duì)齊工作的努力,其計(jì)劃投入20% 的計(jì)算資源,花費(fèi)4 年的時(shí)間全力打造一個(gè)超級(jí)對(duì)齊系統(tǒng),意在解決超級(jí)智能的對(duì)齊問題。這種理念的爭(zhēng)議也并非僅發(fā)生于OpenAI 內(nèi)部。不少計(jì)算機(jī)專家認(rèn)為,定義一套倫理教條并將其作為機(jī)器倫理的核心路線,對(duì)于靈活而有心智的人工智能而言,恐怕是毫無(wú)希望的。但人工智能倫理問題的研究者卻從未放棄對(duì)于人工智能價(jià)值問題的探索,盡管目前看來,無(wú)論是自上而下還是自下而上的價(jià)值框架對(duì)于人工智能價(jià)值對(duì)齊的實(shí)踐都存在困難,不過這仍然不妨礙不同研究的嘗試。
基于上述分析不難發(fā)現(xiàn),從技術(shù)視角看,人工智能的發(fā)展與治理之間仍然存在著爭(zhēng)論。事實(shí)上,從技術(shù)哲學(xué)的發(fā)展歷程看,這種有效加速與價(jià)值對(duì)齊的爭(zhēng)論并非新鮮事,在新技術(shù)產(chǎn)生與發(fā)展的過程中,很多時(shí)候都會(huì)存在這樣的爭(zhēng)論。既有如培根等技術(shù)樂觀主義者主張由科學(xué)家、技術(shù)專家來管理和運(yùn)轉(zhuǎn)國(guó)家,亦有埃呂爾等技術(shù)悲觀主義者所主張的:“技術(shù)必須使人淪為技術(shù)動(dòng)物……面對(duì)技術(shù)自主,不可能有人類的自主性?!倍鴱淖罱K態(tài)勢(shì)上看,發(fā)展與治理正在逐漸走向平衡,最終逐漸實(shí)現(xiàn)約納斯所言的“通過自愿的自我限制茁壯成長(zhǎng)”。從這個(gè)意義看,有效加速與價(jià)值對(duì)齊之間亦有可能走向一種平衡或是中和。
(三)基本原則的主線:發(fā)展負(fù)責(zé)任的人工智能
法律和技術(shù)的雙重視角在人工智能治理與發(fā)展的問題上實(shí)現(xiàn)了不謀而合,即二者之間應(yīng)該保持平衡。單純地強(qiáng)調(diào)發(fā)展可能會(huì)對(duì)人類社會(huì)造成難以評(píng)估的風(fēng)險(xiǎn),甚至反而制約人工智能的發(fā)展。而單純地強(qiáng)調(diào)治理則有可能限制人工智能的發(fā)展。考慮到當(dāng)前人工智能技術(shù)已經(jīng)成為推動(dòng)人類進(jìn)步、影響國(guó)際格局的重要力量,過于限制人工智能的發(fā)展也不利于推動(dòng)社會(huì)發(fā)展以及搶占國(guó)際社會(huì)話語(yǔ)權(quán)。而各個(gè)國(guó)家和地區(qū)人工智能的規(guī)則設(shè)計(jì)也證明了這一點(diǎn),當(dāng)前比較有代表性的整合性規(guī)則,都在一定程度上關(guān)注了治理和發(fā)展兩個(gè)層面。例如,歐盟《人工智能法案》第1 條指出要“改善內(nèi)部市場(chǎng)的運(yùn)作,促進(jìn)以人為本、值得信賴的人工智能的應(yīng)用,同時(shí)確保對(duì)健康、安全和《憲章》規(guī)定的基本權(quán)利,包括民主、法治和環(huán)境保護(hù)的高度保護(hù),使其免受聯(lián)盟內(nèi)的人工智能系統(tǒng)的有害影響,并且支持創(chuàng)新?!泵绹?guó)《關(guān)于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》在強(qiáng)調(diào)人工智能要安全可靠的同時(shí),也要求促進(jìn)負(fù)責(zé)任的創(chuàng)新、競(jìng)爭(zhēng)和合作,釋放技術(shù)潛力。因此,人工智能法的基本原則不應(yīng)僅僅局限于人工智能的治理或是人工智能的發(fā)展,而應(yīng)該同時(shí)強(qiáng)調(diào)二者的重要性。在前述四個(gè)方案所提出的原則中,與本文所分析的主線較為相近的是四原則說中的安全和發(fā)展并重原則:一方面,人工智能法應(yīng)當(dāng)保障人工智能安全。另一方面,人工智能法亦能夠促進(jìn)人工智能技術(shù)的創(chuàng)新發(fā)展。如果把其中的安全理解為一種廣義的安全,既包括宏觀的國(guó)家安全、社會(huì)安全,也包括社會(huì)個(gè)體權(quán)利的安全,要求人工智能全生命周期都應(yīng)該保持安全,避免各種風(fēng)險(xiǎn),那么這與本文所指的治理含義較為近似,從這個(gè)意義上說,這一原則已經(jīng)可以作為人工智能法基本原則的展開基點(diǎn)。不過考慮到在人工智能的相關(guān)問題上,安全很多時(shí)候并不被做最廣義的理解,例如,美國(guó)《關(guān)于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》將安全和可靠作為并列的價(jià)值概念;歐盟《可信人工智能倫理指南》僅僅將安全作為數(shù)項(xiàng)要求之一,與隱私、公平等并列,發(fā)展與安全并重的說法可能會(huì)引發(fā)一定歧義。因此,本文認(rèn)為可以將這一概念表述為發(fā)展負(fù)責(zé)任的人工智能。負(fù)責(zé)任的說法相較于安全要更加清晰,其在人工智能領(lǐng)域往往作為更高一層的整合性表述。例如,我國(guó)《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》、美國(guó)《2024—2025 財(cái)年人工智能戰(zhàn)略:通過負(fù)責(zé)任的人工智能賦能外交》、加拿大《人工智能負(fù)責(zé)任發(fā)展蒙特利爾宣言》等。而我國(guó)在發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》之時(shí),也確有將負(fù)責(zé)任作為人工智能治理的重要主線之意,強(qiáng)調(diào)無(wú)論是人工智能提供的產(chǎn)品還是服務(wù),都應(yīng)該是負(fù)責(zé)任的、全面的,應(yīng)以增進(jìn)人類共同福祉為目標(biāo),應(yīng)該符合人類的價(jià)值觀和倫理道德,避免誤用,禁止濫用、惡用。
三、人工智能法基本原則的體系化展開
在明晰人工智能法基本原則的主線之后,需要進(jìn)一步圍繞該主線展開其他人工智能法的基本原則。如前文所述,人工智能法的基本原則存在一定層級(jí),需要按照邏輯進(jìn)行排布??偨Y(jié)當(dāng)前各方案提出的基本原則以及對(duì)于相關(guān)原則的詮釋和分析,并結(jié)合既有的人工智能相關(guān)規(guī)范,可以進(jìn)一步在主線之下分為幾個(gè)層級(jí)(參見圖1)。
(一)第一層次原則:發(fā)展與治理的核心原則
發(fā)展負(fù)責(zé)任的人工智能作為人工智能法基本原則的主線,實(shí)際上存在兩個(gè)面向,一是發(fā)展面向,二是治理面向。這兩個(gè)面向也應(yīng)分別存在一個(gè)整合性的原則加以統(tǒng)攝。
對(duì)于發(fā)展這一面向而言,當(dāng)前各個(gè)方案所提出的原則中,實(shí)際上只有支持發(fā)展創(chuàng)新原則與此相關(guān)。而該原則較為直接地表述了對(duì)于人工智能發(fā)展和創(chuàng)新的支持,也比較符合發(fā)展面向的要求。從其他國(guó)家的規(guī)則看,發(fā)展面向上的基本原則也都以類似名稱展開。例如,美國(guó)《關(guān)于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》使用的是“促進(jìn)負(fù)責(zé)任的創(chuàng)新、競(jìng)爭(zhēng)和合作”。在內(nèi)容上,支持發(fā)展創(chuàng)新原則要求在支持經(jīng)濟(jì)、科技和社會(huì)發(fā)展的過程中,積極鼓勵(lì)和促進(jìn)人工智能的創(chuàng)新和發(fā)展。這意味著政府、企業(yè)和社會(huì)應(yīng)該為創(chuàng)新提供良好的環(huán)境和條件,包括法律支撐、政策支持、資金投入、人才培養(yǎng)等方面。
相較于發(fā)展面向,治理面向的第一層次原則表述則相對(duì)較多,比較契合的包括治理原則、以人為本原則和計(jì)算正義原則。其中,治理原則直接明了地指出了對(duì)于人工智能的治理,但該原則的問題在于代表性不足。人工智能法的基本原則不僅要滿足普遍性與規(guī)范性的形式要素,還要承載法規(guī)范體系的內(nèi)在價(jià)值,起到重要的“安全閥”功能。由此,治理原則就顯得過于寬泛。對(duì)于很多領(lǐng)域法或是回應(yīng)型法,可能都要涉及到治理問題。例如環(huán)境法涉及環(huán)境治理問題,網(wǎng)絡(luò)法涉及網(wǎng)絡(luò)治理問題。那么以治理原則作為人工智能法的基本原則便存在標(biāo)識(shí)性不足的問題。與治理原則相比,以人為本原則和計(jì)算正義原則的“安全閥”功能和標(biāo)識(shí)性要更強(qiáng),前者體現(xiàn)了人類在與機(jī)器比較中的優(yōu)位性,而后者則強(qiáng)調(diào)了人工智能發(fā)展過程中的正義價(jià)值關(guān)懷。二者比較而言,計(jì)算正義更加能體現(xiàn)人工智能法關(guān)于人與機(jī)器關(guān)系問題的關(guān)注,而以人為本原則顯得更寬泛,環(huán)境法等其他規(guī)則中也經(jīng)常涉及這一概念。因此,本文主張將計(jì)算正義原則作為治理面向上的基本原則。計(jì)算正義是正義原則在人的社會(huì)合作和創(chuàng)造活動(dòng)被計(jì)算化過程中所應(yīng)遵循的價(jià)值準(zhǔn)則。計(jì)算正義原則的出現(xiàn)在一定程度上源于技術(shù)對(duì)社會(huì)的影響。以選舉為例,“普選”概念本身更多要求的是形式平等,在一定歷史階段內(nèi),完全的實(shí)質(zhì)平等在任何國(guó)家和地區(qū)都是難以實(shí)現(xiàn)的。而人工智能的出現(xiàn)則可能會(huì)在一定程度上改變這一局面,這主要是由于人工智能個(gè)性化的信息收集成本低,因此,更容易收集到不同群體的信息并幫助其進(jìn)行選舉。但這并不意味著人工智能輔助的選舉一定公平正義,因?yàn)槿斯ぶ悄芤灿锌赡艹霈F(xiàn)錯(cuò)誤甚至被操縱。這時(shí)便需要引入計(jì)算正義原則,保證人工智能參與社會(huì)活動(dòng)應(yīng)有利于實(shí)現(xiàn)社會(huì)正義。
(二)其他原則:圍繞第一層次原則的發(fā)散
在確定了發(fā)展和治理兩個(gè)層面的基本原則后,其他原則也應(yīng)圍繞這兩個(gè)原則進(jìn)一步展開。其中,圍繞支持發(fā)展創(chuàng)新原則進(jìn)一步展開的原則并不多,總的來說可以分為兩個(gè)方面。一是對(duì)于人工智能發(fā)展的支持。國(guó)家等各個(gè)主體應(yīng)對(duì)于人工智能發(fā)展的各項(xiàng)條件予以支持,為人工智能的發(fā)展提供有利的氛圍。對(duì)于該問題,我國(guó)《新一代人工智能發(fā)展規(guī)劃》指出要“根據(jù)基礎(chǔ)研究、技術(shù)研發(fā)、產(chǎn)業(yè)發(fā)展和行業(yè)應(yīng)用的不同特點(diǎn),制定有針對(duì)性的系統(tǒng)發(fā)展策略。充分發(fā)揮社會(huì)主義制度集中力量辦大事的優(yōu)勢(shì),推進(jìn)項(xiàng)目、基地、人才統(tǒng)籌布局,已部署的重大項(xiàng)目與新任務(wù)有機(jī)銜接,當(dāng)前急需與長(zhǎng)遠(yuǎn)發(fā)展梯次接續(xù),創(chuàng)新能力建設(shè)、體制機(jī)制改革和政策環(huán)境營(yíng)造協(xié)同發(fā)力”。而美國(guó)《關(guān)于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》也指出:“聯(lián)邦政府將為人工智能及相關(guān)技術(shù)促進(jìn)一個(gè)公平、開放和競(jìng)爭(zhēng)的生態(tài)系統(tǒng)和市場(chǎng),以便小型開發(fā)商和企業(yè)家能夠繼續(xù)推動(dòng)創(chuàng)新。”二是知識(shí)產(chǎn)權(quán)保護(hù)。對(duì)于人工智能發(fā)展而言,最急迫、最為有效的便是知識(shí)產(chǎn)權(quán)保護(hù),因?yàn)楸Wo(hù)知識(shí)產(chǎn)權(quán)就意味著保護(hù)創(chuàng)新。也正是從這個(gè)角度出發(fā),《人工智能法示范法1.0(專家建議稿)》在詮釋支持發(fā)展創(chuàng)新原則時(shí)特別指出:“國(guó)家鼓勵(lì)人工智能研發(fā)和應(yīng)用,依法保護(hù)人工智能領(lǐng)域知識(shí)產(chǎn)權(quán),創(chuàng)新探索適應(yīng)人工智能發(fā)展的知識(shí)產(chǎn)權(quán)制度?!贝送?,《國(guó)務(wù)院辦公廳關(guān)于進(jìn)一步優(yōu)化營(yíng)商環(huán)境降低市場(chǎng)主體制度性交易成本的意見》《“十四五”國(guó)家知識(shí)產(chǎn)權(quán)保護(hù)和運(yùn)用規(guī)劃》《新一代人工智能發(fā)展規(guī)劃》等文件也都強(qiáng)調(diào)了人工智能知識(shí)產(chǎn)權(quán)保護(hù)的重要性。
相較于支持發(fā)展創(chuàng)新原則,計(jì)算正義原則的內(nèi)涵要更加豐富??偨Y(jié)當(dāng)前各個(gè)方案,其提出的原則大體可以分為三個(gè)價(jià)值導(dǎo)向。一是與準(zhǔn)確價(jià)值相關(guān)的原則,可靠、可信等相關(guān)原則更多是對(duì)于人工智能準(zhǔn)確性的要求。當(dāng)然,在人工智能倫理的相關(guān)問題上,一般使用可信的概念相對(duì)較多,因此本文延續(xù)這一表述。二是與安全價(jià)值相關(guān)的原則,主要是關(guān)于人工智能各種侵害人類風(fēng)險(xiǎn)的防范,與之相關(guān)的表述還包括公平、平等、可問責(zé)等。三是與效益有關(guān)的價(jià)值,其旨在強(qiáng)調(diào)人工智能發(fā)展的有益性,與之相關(guān)的原則包括綠色等。由此,可以把可信、安全和效益作為第二層次原則。
1. 可信
可信的人工智能的構(gòu)建發(fā)端于人對(duì)技術(shù)倫理旨趣的審度,可信的存在邏輯在于人工智能創(chuàng)建了基于任務(wù)和目標(biāo)信任得以產(chǎn)生的可能條件,并在與人類的交互之中呈現(xiàn)出某種關(guān)聯(lián)性的信任。結(jié)合既有理論和實(shí)踐看,可信的人工智能的要求除了既有方案中提出的穩(wěn)健、透明度或可解釋外,還應(yīng)包括可追蹤。
第一,可信的人工智能要求技術(shù)具有穩(wěn)健性,能夠正確地處理分析問題,并對(duì)可能出現(xiàn)的錯(cuò)誤作出預(yù)警。盡管人工智能的準(zhǔn)確性總體令人滿意,但部分技術(shù)的穩(wěn)健性仍然不足以令人放心,機(jī)器錯(cuò)誤的案例也并不罕見。例如,2018 年3 月,Uber 的自動(dòng)駕駛汽車在亞利桑那州坦佩市進(jìn)行測(cè)試時(shí)發(fā)生了一起車禍,一位婦女被撞倒并最終喪生。造成這起事故發(fā)生的主要原因并非是該車輛的人工智能系統(tǒng)未發(fā)現(xiàn)行人,而是該車輛將行人識(shí)別成了汽車。而這起事故并不僅是簡(jiǎn)單的意外,據(jù)統(tǒng)計(jì),在2016 年9 月至2018 年3 月之間,Uber 的自動(dòng)駕駛汽車共發(fā)生了37 起碰撞事故,有兩起事故是車輛撞到了路邊的物體,其他的事故則都是追尾和車輛刮蹭。顯然,這樣的事故發(fā)生率難以贏得人類的信任。事實(shí)上,從人工智能的技術(shù)特性上看,其出現(xiàn)錯(cuò)誤的情況在所難免。以源代碼錯(cuò)誤為例,人工智能錯(cuò)誤一般始于源代碼錯(cuò)誤,而且很多時(shí)候并非有意為之。廣義地說,“源代碼”是在編程語(yǔ)言中具有特定含義的單詞和數(shù)學(xué)符號(hào)的組合。源代碼規(guī)定了計(jì)算機(jī)程序執(zhí)行哪些任務(wù),程序如何執(zhí)行這些任務(wù),以及程序執(zhí)行任務(wù)的順序。對(duì)于人工智能算法而言,其數(shù)百萬(wàn)行代碼常常是由無(wú)數(shù)的源代碼拼湊而成,它們會(huì)存在簡(jiǎn)單的轉(zhuǎn)錄錯(cuò)誤、條件編程錯(cuò)誤、軟件損壞或?qū)z留代碼的錯(cuò)誤更新。當(dāng)然,對(duì)于不同人工智能而言,其錯(cuò)誤率勢(shì)必存在差異,而只有那些穩(wěn)健性較高的人工智能才可能受到人類的信任。
第二,除了穩(wěn)健性外,可信的人工智能還應(yīng)該具有透明度。透明度是指智能化產(chǎn)品所依賴的技術(shù)、數(shù)據(jù)應(yīng)該可以隨時(shí)被查詢,其結(jié)論應(yīng)該可以被解釋。一般來說,人工智能的透明度分別指向透明性與可理解性兩個(gè)維度。透明性是指人工智能本身是可以被人類理解的,而可理解性意味著人類對(duì)基于人工智能作出的決策能夠達(dá)到一定的理解程度。例如,智能人臉識(shí)別系統(tǒng)對(duì)某張圖片進(jìn)行識(shí)別并作出結(jié)論后,透明度要求人類可以理解該人臉識(shí)別系統(tǒng)是基于何種原因得出的結(jié)論。然而,當(dāng)前不少人工智能的透明度不足已經(jīng)成為其有效應(yīng)用的重要障礙,甚至這種透明度不足也成為了一些不正當(dāng)行為的“工具”或是引發(fā)社會(huì)不公的源頭。例如,目前人工智能介入刑事司法的過程主要依靠系統(tǒng)的算法作出決策,而算法運(yùn)行的過程存在透明度不足的弊端,極易導(dǎo)致強(qiáng)勢(shì)一方的“數(shù)字權(quán)威”,使得算法決策演變?yōu)閿?shù)字時(shí)代的精英統(tǒng)治。再如,“淘寶”對(duì)于用戶行為是否構(gòu)成違約的判定是依據(jù)特定的用戶數(shù)據(jù)與海量用戶數(shù)據(jù)的關(guān)系,而如果用戶要對(duì)“淘寶”判定的違約行為進(jìn)行質(zhì)疑,則必須承擔(dān)充分舉證和合理解釋的義務(wù),但是由于相關(guān)算法的透明度不足,指望用戶對(duì)數(shù)據(jù)異常進(jìn)行舉證并作出解釋在有些情況下并不實(shí)際,這可能會(huì)給用戶帶來不小的損失。產(chǎn)生上述透明度問題的原因在于人工智能往往能夠開發(fā)出全新的觀察方式,甚至是思維方式,而這些方式具有較高的復(fù)雜性。以人工智能審查簽證為例,算法可能將簽證申請(qǐng)人的收入狀況、工作狀況、婚姻家庭狀況、犯罪記錄等內(nèi)容進(jìn)行審查判斷,最后給出是否通過簽證的決策。而這一決策的科學(xué)性來源于人工智能技術(shù)基于大量案例的不斷調(diào)整,例如一些時(shí)候增加收入狀況的判斷比重或減少工作狀況的判斷比重等——直到其可以處理一系列新情況,并預(yù)測(cè)簽證通過的可能風(fēng)險(xiǎn)。然而,這種不斷學(xué)習(xí)和改變的過程很可能無(wú)法被人類通過既有的知識(shí)所解釋。造成這種理解困境的關(guān)鍵是,機(jī)器相關(guān)性的思維方式與人類因果性的思維方式存在一定程度的沖突,這種沖突引發(fā)了人類對(duì)機(jī)器思維的理解困境。當(dāng)人類無(wú)法理解人工智能所提供的決策時(shí),便無(wú)法預(yù)知人工智能是否會(huì)對(duì)人類造成損害。而為了避免上述危害事件的發(fā)生,人工智能的應(yīng)用應(yīng)具有透明度。
第三,可信的人工智能還意味著技術(shù)應(yīng)該具有可追蹤性??勺粉櫺允侵笍募夹g(shù)的開發(fā)、部署、使用再到結(jié)論生成的任何環(huán)節(jié)都應(yīng)該清晰記錄。人工智能的可追蹤性具有三方面意義,首先,可追蹤性可以幫助人類識(shí)別人工智能的錯(cuò)誤原因,進(jìn)而做出改進(jìn)。人工智能具有高度復(fù)雜性和精密性,任何一個(gè)環(huán)節(jié)出現(xiàn)錯(cuò)誤都可能引發(fā)最終的結(jié)果失真,例如,某個(gè)代碼輸入錯(cuò)誤、某個(gè)數(shù)據(jù)標(biāo)注存在問題等。此時(shí)就需要查詢相關(guān)記錄,以尋找錯(cuò)誤的來源。否則,尋找錯(cuò)誤來源將需要大量成本。其次,可追蹤性也是檢驗(yàn)人工智能錯(cuò)誤的重要方式。在一些關(guān)鍵領(lǐng)域,人工智能的應(yīng)用往往需要慎之又慎,例如司法裁判、醫(yī)療等。而為了保障人工智能在應(yīng)用的過程中不出現(xiàn)錯(cuò)誤,就需要對(duì)技術(shù)進(jìn)行實(shí)時(shí)檢驗(yàn),這時(shí)相關(guān)的記錄就可以發(fā)揮作用。例如,有關(guān)人員在審查時(shí),可以查看某個(gè)人工智能系統(tǒng)的歷史錯(cuò)誤及錯(cuò)誤原因,并以此為基礎(chǔ)仔細(xì)檢查曾經(jīng)出現(xiàn)錯(cuò)誤的地方是否已經(jīng)被調(diào)整。最后,可追蹤性也可以提升人工智能的可解釋性。在解釋人工智能運(yùn)行的相關(guān)問題時(shí),部分問題例如機(jī)器建立規(guī)則的方式,可能需要回溯到機(jī)器建立規(guī)則前去查看機(jī)器建立規(guī)則的全部流程。例如,一些算法工程師可能會(huì)設(shè)置不同的方法推動(dòng)機(jī)器進(jìn)行學(xué)習(xí),此時(shí),關(guān)于不同方案的記錄就對(duì)于分析機(jī)器建立規(guī)則的方法具有重要意義。以上三項(xiàng)內(nèi)容表明可追蹤性對(duì)于人工智能的風(fēng)險(xiǎn)控制與監(jiān)管均具有較為重要的意義,這也讓其成為可信人工智能的重要要求。
2. 安全
安全的人工智能要求相關(guān)技術(shù)應(yīng)確保可以受到人類的控制,并以保障公民權(quán)利和人類安全為前提。結(jié)合既有理論和實(shí)踐看,安全的人工智能應(yīng)可以抵御攻擊、公平公正、合規(guī)和可問責(zé)。
首先,安全的人工智能應(yīng)可以抵御攻擊。人工智能同其他計(jì)算機(jī)技術(shù)一樣,需要轉(zhuǎn)化為數(shù)據(jù)和代碼并在計(jì)算機(jī)中運(yùn)行。因此,其同樣可能遭到相似的攻擊,例如篡改源代碼、數(shù)據(jù)庫(kù),甚至直接攻擊相關(guān)的硬件設(shè)施。這些攻擊可能導(dǎo)致機(jī)器癱瘓,進(jìn)而阻礙社會(huì)的有效運(yùn)轉(zhuǎn)。例如,對(duì)于計(jì)算機(jī)硬件的攻擊將導(dǎo)致人工智能無(wú)法有效運(yùn)行。而智慧城市的建設(shè)很多時(shí)候高度依賴人工智能:“在以人工智能技術(shù)為核心的智能化時(shí)代,為推動(dòng)復(fù)雜環(huán)境下的人機(jī)協(xié)同,城市空間基礎(chǔ)設(shè)施也必將融入更多的智能算法和知識(shí)庫(kù)?!币坏┫嚓P(guān)的硬件癱瘓,整個(gè)城市的運(yùn)行都可能受到影響。而交通、教育、醫(yī)療等行業(yè)也可能面臨同樣的問題。除了機(jī)器癱瘓外,對(duì)于相關(guān)源代碼和數(shù)據(jù)的篡改可能導(dǎo)致機(jī)器作出錯(cuò)誤決策,這甚至可能直接引發(fā)人工智能體“犯罪”。如前文所述,人工智能的決策質(zhì)量與其所依賴的源代碼和數(shù)據(jù)密切相關(guān)。一旦這些數(shù)據(jù)被惡意篡改,人工智能便可能因此產(chǎn)生錯(cuò)誤或極端的行為。例如,攻擊者通過篡改模型,讓機(jī)器對(duì)人類產(chǎn)生敵意,從而對(duì)他人實(shí)施暴力行為;再如通過篡改自動(dòng)駕駛汽車的數(shù)據(jù),使其在行駛過程中故意駛向懸崖,造成嚴(yán)重后果。換言之,這種篡改可能直接對(duì)公民的人身財(cái)產(chǎn)權(quán)利造成不利影響。因此,人工智能的應(yīng)用應(yīng)保證其可以抵御攻擊。
其次,安全的人工智能應(yīng)盡可能避免侵犯公民權(quán)利即具有合規(guī)性。人工智能應(yīng)用不得當(dāng)很可能對(duì)公民權(quán)利產(chǎn)生負(fù)面影響。以隱私權(quán)為例,當(dāng)前算法系統(tǒng)的關(guān)聯(lián)技術(shù)甚至“知道你想做什么”,“數(shù)據(jù)主宰世界”的隱患正在侵蝕用戶信息生態(tài)環(huán)境。在大數(shù)據(jù)技術(shù)海量數(shù)據(jù)的要求下,“全數(shù)據(jù)”的追求使得數(shù)據(jù)收集者在獲取數(shù)據(jù)時(shí)為了保證準(zhǔn)確性,大多會(huì)優(yōu)先考慮如何盡可能地獲取更多數(shù)據(jù),而不去考慮該數(shù)據(jù)的獲取是否合法或是否侵犯公民的隱私權(quán)。這勢(shì)必帶來一個(gè)十分嚴(yán)峻的問題——大數(shù)據(jù)信息是否“干凈”。對(duì)此,在開發(fā)和運(yùn)用人工智能時(shí),應(yīng)最大限度地避免使用侵犯權(quán)利的算法與數(shù)據(jù):一是在開發(fā)和運(yùn)用人工智能前,應(yīng)嚴(yán)格評(píng)估技術(shù)所依賴的算法和數(shù)據(jù)是否存在侵權(quán)的情況。二是在開發(fā)和運(yùn)用技術(shù)時(shí),應(yīng)對(duì)敏感內(nèi)容進(jìn)行適當(dāng)處理。例如,“數(shù)據(jù)脫敏”技術(shù)便對(duì)隱私權(quán)的保護(hù)具有重要意義。該技術(shù)可以在保留原始數(shù)據(jù)的業(yè)務(wù)價(jià)值、技術(shù)價(jià)值的前提下,對(duì)敏感信息進(jìn)行脫敏、隱蔽處理。常見的脫敏手段包括替換、截取、加密、掩碼等。三是對(duì)于技術(shù)的開發(fā)和運(yùn)用應(yīng)盡可能保持克制,如果有可替代的信息和方法,則不應(yīng)使用侵犯公民權(quán)利的信息和方法。此外,對(duì)于數(shù)據(jù)的獲取和使用要遵循比例原則。比例原則是指手段不得與所追求的目的不成比例,或手段必須與所追求的目的保持適當(dāng)、正當(dāng)、合理或均衡的匹配關(guān)系。有關(guān)人員在獲取和使用數(shù)據(jù)時(shí),也應(yīng)注意保持與目的相匹配。除隱私權(quán)之外,人工智能的開發(fā)和應(yīng)用還有可能侵犯公民其他權(quán)利。深度偽造便是一個(gè)典型的案例。深度偽造是人工智能的經(jīng)典應(yīng)用場(chǎng)景,其表現(xiàn)出了極強(qiáng)的“親民性”,公眾不需要任何技術(shù)基礎(chǔ)甚至不需要投入任何費(fèi)用便可以輕而易舉地實(shí)現(xiàn)圖像、視頻和音頻的偽造。但該技術(shù)的濫用可能會(huì)侵犯到公民的名譽(yù)權(quán)、財(cái)產(chǎn)權(quán)和個(gè)人數(shù)據(jù)權(quán)等權(quán)利。視頻的“深度偽造”技術(shù)可被用于惡搞、色情、詆毀或污名化,如基于“深度偽造”技術(shù)的應(yīng)用程序Deep Nude,可以實(shí)現(xiàn)“一鍵式”智能脫衣,被廣泛用于制作明星色情視頻,從而侵犯到明星的名譽(yù)權(quán)和隱私權(quán)。同時(shí),音頻的“深度偽造”可被用于語(yǔ)音詐騙,從而侵犯到公民的財(cái)產(chǎn)權(quán)?;谏鲜龇治?,為了避免人工智能可能引發(fā)的各種法律風(fēng)險(xiǎn),應(yīng)不斷強(qiáng)調(diào)人工智能在權(quán)利保障方面的要求。
復(fù)次,安全的人工智能應(yīng)公平公正?,F(xiàn)階段,人工智能的公平公正主要指向兩個(gè)方面。一是反對(duì)算法歧視。算法歧視是指依據(jù)算法所作自動(dòng)決策實(shí)施的直接或間接歧視性行為。算法產(chǎn)生歧視的原因包括算法設(shè)計(jì)者的偏見、訓(xùn)練數(shù)據(jù)的偏見和后天學(xué)習(xí)產(chǎn)生的偏見等。相較于傳統(tǒng)歧視,算法歧視依托于大數(shù)據(jù)、云計(jì)算等新興技術(shù),具有更強(qiáng)的隱蔽性和廣泛性,其可能引發(fā)性別、民族、年齡、職業(yè)等各種歧視,進(jìn)而對(duì)平等權(quán)造成更加嚴(yán)重的侵犯。當(dāng)前,算法歧視的案例并不罕見。以我國(guó)為例,某公司在運(yùn)用算法篩選簡(jiǎn)歷時(shí),因閆某某為“河南人”而拒絕其應(yīng)聘。歧視是一個(gè)雜糅了文化、社會(huì)和道德觀念、歷史和時(shí)間的因素,對(duì)于何種行為構(gòu)成歧視并不存在統(tǒng)一的標(biāo)準(zhǔn)。但如果算法僅僅根據(jù)地域拒絕應(yīng)聘者,那么便構(gòu)成歧視。為了避免這一問題,很多人工智能治理策略都制定了相關(guān)規(guī)則,例如《巴西人工智能法(草案)》規(guī)定受人工智能系統(tǒng)影響者,享有免受歧視和糾正歧視性偏見的權(quán)利:“有權(quán)反對(duì)歧視并糾正歧視性偏見,特別是在使用個(gè)人敏感數(shù)據(jù)導(dǎo)致:(a)對(duì)受保護(hù)的個(gè)人特征造成不成比例的影響,或(b)特定群體的人處于劣勢(shì)/ 脆弱,即使使用了明顯中立的標(biāo)準(zhǔn)?!泵绹?guó)《停止算法歧視法案》禁止算法決策的用戶以歧視性方式利用算法資格確定。由此,安全的人工智能也應(yīng)該采取各種方式避免算法歧視的發(fā)生,這包括優(yōu)化數(shù)據(jù)來源、運(yùn)用檢測(cè)工具等。二是對(duì)于弱勢(shì)群體的保護(hù)。人工智能的應(yīng)用可能會(huì)引發(fā)熟練使用技術(shù)者與無(wú)法熟練使用技術(shù)者之間的差距,從而造成不平等。例如,人工智能輔助立法對(duì)于提升立法民主性具有重要意義。在傳統(tǒng)立法模式下,能夠參加相關(guān)立法論證會(huì)、座談會(huì)和研討會(huì)的專家學(xué)者以及利益相關(guān)者數(shù)量畢竟相對(duì)有限,多數(shù)普通民眾參與地方立法的通道并不十分順暢。同時(shí),在地方立法草案意見征集過程中,由于不少地方仍然借助傳統(tǒng)意見征集模式,多數(shù)普通民眾難以擁有較為便利的渠道和方式來發(fā)聲。而人工智能輔助立法則可以通過對(duì)網(wǎng)絡(luò)信息的大數(shù)據(jù)分析,更好地展現(xiàn)民意。但是受人口老齡化和教育程度的影響,部分弱勢(shì)群體的網(wǎng)絡(luò)數(shù)據(jù)可能會(huì)相對(duì)缺乏,人工智能在輔助立法時(shí),可能會(huì)因?yàn)槿笔н@些數(shù)據(jù)而導(dǎo)致在立法中無(wú)法反映該部分民眾的合理訴求,從而引發(fā)隱性歧視問題。因此,在人工智能應(yīng)用的過程中,也應(yīng)該注意通過各種方式保護(hù)弱勢(shì)群體的利益。
最后,安全的人工智能應(yīng)在人類控制與監(jiān)督之下,這要求人類在與人工智能交互時(shí)應(yīng)保持能動(dòng)性。人類可以控制人工智能意味著“人們可以有效規(guī)制人工智能或者自主決定人工智能是否繼續(xù)執(zhí)行。有效的監(jiān)管是控制人工智能的一種形式,按照相應(yīng)的治理框架和制度規(guī)則對(duì)算法進(jìn)行約束和規(guī)訓(xùn),能夠確保人工智能與人類之間的主從關(guān)系并有效控制算法風(fēng)險(xiǎn),使得人工智能不至于在與人的合作和對(duì)抗中失去控制。”人工智能三定律是對(duì)人工智能可控性的較好詮釋——“第一定律:人工智能機(jī)器人不得傷害人,也不得見人受到傷害而袖手旁觀;第二定律:人工智能機(jī)器人應(yīng)服從人的一切命令,但不得違反第一定律;第三定律:人工智能機(jī)器人應(yīng)保護(hù)自身的安全,但不得違反第一、第二定律。”這種可控性的實(shí)現(xiàn)應(yīng)包括以下幾方面的要求。第一,即使在借助人工智能輔助決策的場(chǎng)合,也應(yīng)該保證人類具有最終決策權(quán)。目前人工智能的廣泛應(yīng)用使人類愈發(fā)依賴算法進(jìn)行分析、預(yù)測(cè)、決策,甚至沉迷于算法推薦的信息之中,久之便將處于信息繭房中而不自知,最終被困于“算法牢獄”難以自拔?!靶畔⒗O房”效應(yīng)一旦形成,便可能帶來無(wú)形風(fēng)險(xiǎn)。在此效應(yīng)中,自動(dòng)化算法精準(zhǔn)推送定制化信息,看似滿足用戶需求,實(shí)則導(dǎo)致用戶陷入“井蛙”困境。用戶被鎖定在固定信息中,難以關(guān)注其他領(lǐng)域,導(dǎo)致思維固化、認(rèn)知結(jié)構(gòu)單一,模糊對(duì)現(xiàn)實(shí)社會(huì)的感知。此外,“信息繭房”還會(huì)引發(fā)回聲室效應(yīng)和同質(zhì)化效應(yīng)。封閉的信息空間導(dǎo)致同類型信息循環(huán)顯現(xiàn),影響用戶對(duì)真實(shí)信息的獲取和判斷。以司法裁判為例,在司法裁判的過程中,快捷的人工智能一旦植入,很容易使法官產(chǎn)生潛在的依賴性。在判斷的過程中,如果過于依賴算法推薦結(jié)果,法官自身的分析能力將可能受到影響,甚至出現(xiàn)“機(jī)器裁判”的問題。為了避免這一問題,應(yīng)不斷強(qiáng)調(diào)人在人機(jī)關(guān)系中的主導(dǎo)地位。第二,人工智能的應(yīng)用應(yīng)時(shí)刻處于人類的監(jiān)管之下。由于人工智能具有自主建立規(guī)則的能力,甚至在強(qiáng)人工智能以及超人工智能階段,機(jī)器可能具有一定自我意識(shí),因此,人類應(yīng)時(shí)刻堅(jiān)持對(duì)于人工智能的監(jiān)管,否則可能會(huì)導(dǎo)致機(jī)器脫離人的控制。正如有論者指出:“長(zhǎng)期來看,若人工智能具有深度學(xué)習(xí)能力之后,也會(huì)進(jìn)行歸納和推理,有可能產(chǎn)生思維,從而脫離人的控制而獨(dú)立實(shí)施犯罪行為?!睘楸苊馍鲜鰡栴},人類需要就人工智能建立較為嚴(yán)格的監(jiān)督機(jī)制。最后,人工智能的各項(xiàng)活動(dòng)應(yīng)堅(jiān)持問責(zé)制的原則,即從事人工智能研發(fā)、提供和使用活動(dòng)的主體,應(yīng)當(dāng)分別對(duì)其研發(fā)、提供和使用活動(dòng)負(fù)責(zé)。若人工智能可以在人類的監(jiān)督和控制之下,那么在責(zé)任分配時(shí),就應(yīng)該要求從事人工智能活動(dòng)的人對(duì)此加以負(fù)責(zé),以提升對(duì)于人工智能的監(jiān)管和相關(guān)權(quán)利的保障。
3. 效益
效益是指通過對(duì)資源的最優(yōu)配置,除去各種成本耗費(fèi)后,實(shí)現(xiàn)資源使用價(jià)值在質(zhì)上的極優(yōu)化程度和量上的極大化程度及其所得到的綜合效果。對(duì)人工智能技術(shù)而言,效益是指技術(shù)的使用總體上應(yīng)起到正面作用。正如我國(guó)《新一代人工智能倫理規(guī)范》指出的那樣,人工智能的發(fā)展應(yīng)增進(jìn)人類福祉,促進(jìn)社會(huì)發(fā)展。技術(shù)具有社會(huì)性,而技術(shù)的應(yīng)用也應(yīng)該在與人類社會(huì)基本的公序良俗相一致的基礎(chǔ)上推動(dòng)社會(huì)進(jìn)步。人工智能同樣如此,其應(yīng)用和發(fā)展也應(yīng)該遵循人類社會(huì)的要求,并推動(dòng)人類社會(huì)的進(jìn)步。綠色原則就是效益原則的組成部分。當(dāng)今世界各國(guó)都在追求可持續(xù)發(fā)展:“在生態(tài)危機(jī)日益加劇的21 世紀(jì),以生態(tài)系統(tǒng)為基礎(chǔ)的環(huán)境資源綜合管理、一體保護(hù)是相關(guān)法制建設(shè)的核心特征和發(fā)展方向,為各國(guó)環(huán)境法典所確認(rèn)和保障?!蹦敲慈斯ぶ悄艿膽?yīng)用就不應(yīng)該損害環(huán)境和浪費(fèi)資源。再如,基因編輯技術(shù)在疾病的預(yù)防、診斷和治療等方面具有一些價(jià)值,但同時(shí)也存在較高的技術(shù)風(fēng)險(xiǎn)。當(dāng)前世界各國(guó)均對(duì)于該項(xiàng)工作進(jìn)行了嚴(yán)格的限制。而人工智能同樣可能在基因編輯的相關(guān)工作中加以應(yīng)用,此時(shí)人工智能的使用就不得與人類社會(huì)倫理相背離。
除此之外,人工智能的應(yīng)用也應(yīng)帶動(dòng)良好的社會(huì)氛圍,提升人類生活質(zhì)量。例如,自動(dòng)駕駛汽車可以提升人類出行的便利性與安全性,未來,甚至不會(huì)駕駛汽車的人,也有可能隨意出行,該技術(shù)便有利于人類生活水平的提升。但也需要注意的是,隨著人工智能應(yīng)用深度的不斷提升,顯性和隱性的風(fēng)險(xiǎn)也在不斷提升。一個(gè)典型的案例是,自動(dòng)駕駛汽車可能引發(fā)交通事故,造成人員傷亡。對(duì)此,應(yīng)該正確認(rèn)識(shí)和使用人工智能,避免過度夸大此類技術(shù)的作用和價(jià)值,正確評(píng)估人工智能的效益,保證其確實(shí)可以增進(jìn)人類福祉。而若其帶來的風(fēng)險(xiǎn)已經(jīng)大于收益,那么就與效益原則相悖,便不應(yīng)該再使用此類人工智能。
四、結(jié)語(yǔ)
為了更好地推動(dòng)人工智能發(fā)展,限制其可能引發(fā)的各種風(fēng)險(xiǎn),我國(guó)已經(jīng)將人工智能法的制定提上了議事日程。但系統(tǒng)性的人工智能法的制定并非易事,只有高質(zhì)量的內(nèi)容才能真正起到統(tǒng)一立法的價(jià)值。而深入分析人工智能法的基本原則將有助于為人工智能法的制定提供指引。遺憾的是,人工智能法的相關(guān)問題尚屬于新鮮事物,加之于生成式人工智能的橫空出世,學(xué)界對(duì)于人工智能法基本原則的討論較為有限。有鑒于此,本文檢討了當(dāng)前已經(jīng)出現(xiàn)的有限的各種人工智能法基本原則的版本,并在提出人工智能基本原則主線的基礎(chǔ)上,對(duì)不同的基本原則進(jìn)行了層次性地劃分,以為更加科學(xué)地制定人工智能法提供支持。當(dāng)然也需要指出的是,本文所探討的基本原則大多是在當(dāng)前已經(jīng)提出的各項(xiàng)原則的基礎(chǔ)上進(jìn)行分析,伴隨著人工智能的不斷發(fā)展,人工智能倫理和價(jià)值的研究也將日益豐富,人工智能法的基本原則也勢(shì)必需要進(jìn)行動(dòng)態(tài)化調(diào)整。對(duì)此,仍需要理論和實(shí)踐共同努力,不斷在人工智能法基本原則的問題上進(jìn)行深入探索。值得欣喜的是,當(dāng)前各方已經(jīng)開始將關(guān)注重點(diǎn)轉(zhuǎn)移到人工智能法的相關(guān)問題之上,該主題下的相關(guān)研討也在逐步增多,可以預(yù)見的是,對(duì)于人工智能法基本原則以及各類相關(guān)問題的研究將日益精進(jìn)。