李思啟
新疆警察學院,新疆 克拉瑪依 830000
基于深度學習算法所搭建的人工智能之應(yīng)用已成為現(xiàn)實,有別于以往,這一次的發(fā)展速度非???,大型語言模型使開放式理解與生成連貫文本成為可能,理論算法開始走向?qū)嶋H應(yīng)用,推動了聊天機器人系統(tǒng)的迭代升級,2023 年ChatGPT(Chat Generative Pre-trained Transformer,是美國OpenAI 公司研發(fā)的聊天機器人程序)的誕生,標志著人工智能算法科技進入了新的階段。[1]算法發(fā)展的驚人速度,使得人們亟需重新審視人工智能的倫理及其所帶來的法律風險。
人工智能問世60 多年,其應(yīng)用范圍早已拓展至多個領(lǐng)域,影響著人類的思維方式和行為模式?;仡櫲斯ぶ悄馨l(fā)展的歷史,人工智能經(jīng)歷了幾次大起大落。在其發(fā)展的過程中遇到過巨大瓶頸,又在新的理論和新的技術(shù)推動下,奮而前行。
目前,我們正在進入人工智能的“inside”時代,即人工智能并非簡單的賦能,而是在創(chuàng)造著新的經(jīng)濟結(jié)構(gòu)和社會形態(tài)。[2]人工智能技術(shù),除了在搜索引擎、推薦系統(tǒng)、計算廣告、人臉識別、圖像識別、語音識別、機器翻譯、游戲博弈等領(lǐng)域已大規(guī)模熟練運用外,還在蛋白質(zhì)結(jié)構(gòu)預(yù)測、新藥發(fā)現(xiàn)、國防軍工等領(lǐng)域有了突破性的進展。
人工智能的發(fā)展速度已然超越預(yù)期,進入了一個新的歷史發(fā)展階段——第三次認知革命,探索人類通過自我認知而形成的主觀世界機制,把這樣的智能賦予機器并改造客觀世界,推動人類智能的外化延伸。
根據(jù)研究,人工智能在新生命科學、類腦神經(jīng)系統(tǒng)、智能醫(yī)療等多個前沿領(lǐng)域取得突破性進展,可預(yù)見其對人類社會勞動力市場分工、經(jīng)濟產(chǎn)業(yè)結(jié)構(gòu)等產(chǎn)生重大的影響和連鎖反應(yīng)。[3]同時,隨著人類能力被機械化和程式化的機器取代以及技術(shù)異化等問題的產(chǎn)生,人工智能的運用必然會帶來一系列技術(shù)風險與倫理問題。本文將人工智能的風險分為:技術(shù)風險、倫理風險及法律風險三類。
復(fù)雜網(wǎng)絡(luò)是涵蓋多領(lǐng)域的交叉性學科,隨著人工智能的發(fā)展,其運用愈發(fā)廣泛,但復(fù)雜網(wǎng)絡(luò)仍然面臨多變的環(huán)境、人為破壞以及自然災(zāi)害等誘發(fā)故障的因素。如果復(fù)雜網(wǎng)絡(luò)系統(tǒng)出現(xiàn)故障,則可能會造成嚴重損害。
人類很難甚至不可能跟蹤人工智能系統(tǒng)的工作原理并“預(yù)測”它們將如何發(fā)生故障。對于許多較老類型的自動化系統(tǒng),工程師使用詳盡的測試或數(shù)學分析來“驗證”系統(tǒng)是否在合理的范圍內(nèi)運行。但現(xiàn)代人工智能系統(tǒng)比老一代自動化系統(tǒng)復(fù)雜得多,它們不能像舊系統(tǒng)那樣進行詳盡的測試,因為要測試的可能性路徑實在太多。
換言之,人類可以通過設(shè)計一套高效、性能優(yōu)越的優(yōu)化方案及一套穩(wěn)定的系統(tǒng)來保證其面臨異常情況時的正常運作,但本身并無法規(guī)避風險所發(fā)生的可能。
人工智能在倫理方面逐漸浮現(xiàn)出了諸多負面問題。首先,人工智能算法存在性別、種族等歧視;其次,人工智能存在著弱化人類主體性的特征,開始具備人類語言能力、共情意識和自覺意識,同時沖擊人類就業(yè)市場,由此或?qū)⒁l(fā)群體性的恐慌和社會動蕩;最后,算法濫用會挑戰(zhàn)學術(shù)規(guī)范,加劇學術(shù)不端現(xiàn)象,造成教育困境,引發(fā)深層次的教育不公。
從不同視角看,人工智能帶來的問題不盡相同。這時要先從道德與倫理角度去思考其涉及的問題,例如人工智能的設(shè)計不能擺脫“人是目的”。[4]人工智能發(fā)展如此迅速,極有可能產(chǎn)生一批游離于法律之外的“不道德的人”和“不道德的機器”。謹防出現(xiàn)基于“技術(shù)野蠻”的“寡頭恐怖主義”,應(yīng)當盡快出臺人工智能相關(guān)預(yù)防性的、有效的、縝密的倫理應(yīng)對機制和路徑。[4]
就以本文所站的法律角度為例,人工智能的發(fā)展還會對法律職業(yè)、法律思維造成巨大的挑戰(zhàn)。從法律職業(yè)方面來說,人工智能的出現(xiàn)可以提高法律行業(yè)的辦公效率,使律師可以更高效地處理專業(yè)的法律問題。但同時,律師作為一門需要具備正確價值觀的職業(yè),是人工智能無法取代的。人工智能只能作為輔助,法律工作者需要有意識地篩選和審核。
人類特有的無法用機器生成的法律思維和語言有:倫理、文義和技術(shù)。人工智能可以替代通過語言的法律方法,但是仍然無法替代負責任的判斷或具體情境下的判斷?;诖耍祟惾匀豢梢约訌妼τ谌斯ぶ悄艿谋O(jiān)管,控制其內(nèi)在風險,完善相關(guān)法律,掌握法律解釋權(quán),防范人工智能時代出現(xiàn)的法律風險。
人工智能侵權(quán)現(xiàn)象的發(fā)生不可避免,但人工智能侵權(quán)行為的侵權(quán)程度不同,是否達到“犯罪”的程度,顯然公權(quán)力對此進行的救濟之必要性與急迫性截然不同。
本文立意要點為,需要明確當基于人工智能算法搭建的軟件對個體造成嚴重侵權(quán)時,應(yīng)當允許將商用主體直接作為被告,且舉證責任倒置。
根據(jù)《中華人民共和國民事訴訟法》第一百二十二條:“起訴必須符合下列條件:……(二)有明確的被告;(三)有具體的訴訟請求和事實、理由;(四)屬于人民法院受理民事訴訟的范圍和受訴人民法院管轄?!逼鹪V必須有明確的被告,以及確定準確的利害關(guān)系。又依據(jù)《最高人民法院關(guān)于人民法院登記立案若干問題的規(guī)定》第四條:“民事起訴狀應(yīng)當記明以下事項:……(二)被告的姓名、性別、工作單位、住所等信息,法人或者其他組織的名稱、住所等信息;(三)訴訟請求和所根據(jù)的事實與理由;(四)證據(jù)和證據(jù)來源……”
實踐中,無論是舉證證明程序與損害之間存在因果關(guān)系,還是尋找適格被告主體信息,對于普通個體,皆會存在困難,使得法律關(guān)系長期處于不穩(wěn)定的狀態(tài)。故而根據(jù)法益衡量原理,有必要通過立法手段對這種“缺失”予以彌補。[5]例如可以模仿諸如《中華人民共和國消費者權(quán)益保護法》中關(guān)于經(jīng)營者與生產(chǎn)者的相關(guān)追責理論,允許受侵害的主體直接向商用主體(媒介機構(gòu))起訴,且規(guī)定舉證責任倒置。由商用主體對造成的損害進行賠付,同時賦予商用主體對算法提供者追責的權(quán)利,這將最大程度上維護社會的整體穩(wěn)定性。
從倫理角度思考同樣支持應(yīng)由商用主體進行賠付。計算機代碼本身只是將邏輯通過算法進行轉(zhuǎn)化后所編寫成的文字,其本身并不具有善惡之分,按照法秩序統(tǒng)一性,即不具有可罰性。[6]正如自動手槍可以殺人,但殺人的卻不是槍,而是扣動扳機者。使用計算機代碼進行惡意操作,其可罰性來源并不是“編程”這一行為本身,而是使用代碼時的動機,以及程序編寫好后運行時的目的與造成的結(jié)果。對于人工智能算法所造成的違法行為,對其代碼編寫的本身進行審查顯然過于困難且不切實際,將負責主體從編寫者轉(zhuǎn)移為商業(yè)使用者,顯然讓法律對行為進行評價的過程更為方便可行。
基于大陸法系的特點,法需要保持穩(wěn)定性。故而選擇將保護法益的天平向普通用戶傾斜,允許受侵害個體直接向算法的商用主體主張權(quán)利。又或者說,如希望在傳統(tǒng)大陸法學框架下對人工智能所引發(fā)的法律問題予以規(guī)制,應(yīng)當通過賦予受侵害主體直接向人工智能算法的商用主體告訴的權(quán)利。
從效率角度思考,選擇人工智能商用主體作為被告的優(yōu)點主要有兩個方面:
一方面,根據(jù)《中華人民共和國民法典》關(guān)于商事主體登記的相關(guān)規(guī)定,受侵害者尋求救濟時,尋找商用主體的信息顯然更為簡單。這使得面對人工智能侵權(quán)行為的維權(quán)成本不至于過高,有利于社會穩(wěn)定。另一方面,隨著對人工智能的使用越來越頻繁、范圍越來越廣,顯然相同算法所形成的人工智能程序侵權(quán)案件會越來越多。且由于電腦編程本身的可復(fù)制性,人工智能相關(guān)的違法犯罪行為會日漸猖獗。由法院法官逐一確認并追責,即便理論上可行,實際中也會因工作量過大而不切實際。
從效率角度來講,將犯罪主體確定在不當使用人工智能算法的商用主體,顯然更符合效率最大化的原則。同時,站在司法者的角度,也方便法院的審理與追責,以及審判后的執(zhí)行,有助于節(jié)省司法資源。
人工智能技術(shù)的改進和來自消費者的自下而上的市場壓力有助于使人工智能更安全、更不容易發(fā)生事故,但僅靠這種調(diào)控力度并不足夠。健全立法應(yīng)發(fā)揮至關(guān)重要的作用。有前瞻性的立法有助于減少有侵權(quán)可能的人工智能算法研究,本文結(jié)合相關(guān)的研究,提出以下幾點立法建議:
為了使人工智能更安全,需要知道它何時以及如何失敗。在許多近似技術(shù)領(lǐng)域,共享事件報告有助于建立共同的知識基礎(chǔ),幫助行業(yè)和政府跟蹤風險并了解其原因。政策制定者應(yīng)該探索不同的方法來鼓勵經(jīng)營者或生產(chǎn)商積極披露人工智能事故的細節(jié)。如政府可以制定事件報告的共同標準,甚至強制要求經(jīng)營者或生產(chǎn)商披露某些類型的事故。
對人工智能安全進行審查與測試至關(guān)重要,旨在解決上述提到的問題,以及將人工智能工程塑造為一類更嚴格的學科領(lǐng)域。如美國2021 年制定的《國防授權(quán)法案》(NDAA),要求美國國家科學基金會和能源部投資于“值得信賴的AI”研究。
我國亦應(yīng)當注重人工智能標準,制定出人工智能系統(tǒng)事故風險的標準。并委托更專業(yè)的監(jiān)管機構(gòu),創(chuàng)建一個國家背書的人工智能測試體系。進而構(gòu)建一個包含標準化數(shù)據(jù)集、代碼和測試環(huán)境的數(shù)字平臺,公共和私人人工智能系統(tǒng)可以在其上對安全性和可靠性進行測試。
作為一種科學趨勢及事物的發(fā)展規(guī)律,我國的人工智能研究與應(yīng)用不可能等到立法健全時再開始。正如前述,法的滯后性也決定了問題的出現(xiàn)一定早于立法。正基于這種特性,有學者提出了我國應(yīng)當構(gòu)建強制責任保險制度與侵權(quán)救濟基金制度。[7]該制度廣泛應(yīng)用于歐洲國家,即通過強制要求人工智能應(yīng)用主體繳交責任保險,或者設(shè)立侵權(quán)救濟基金,來為未來可能發(fā)生的侵權(quán)行為提前提供賠償保證。同時,資金的要求無形之中也為人工智能公司的設(shè)立提供了門檻,有利于將風險限縮在一定的程度以內(nèi)。
筆者認為,距離真正意義上的人工智能時代到來還有一定的年頭,且基于法律本身的滯后性,仍有許多未知的問題現(xiàn)在無法預(yù)測。同時大陸法系的邏輯所決定,法學研究始終無法脫離于滯后因素,但學者必須盡可能在問題發(fā)生之前去思考,這樣才能在問題出現(xiàn)之時第一時間提供理論依據(jù),且將風險造成的破壞限縮在一定程度,進而提供現(xiàn)實意義上的作用。確保即使侵害發(fā)生,也能找到最適格的被告主體進而進行司法救濟,維護社會穩(wěn)定。