吳清卿
科幻文學(xué)作品經(jīng)常會描繪一幅人類和機器人共同生活的場景。其中,有機器人服務(wù)、保護人類的情節(jié),也有人類與機器人相互對立、彼此仇視的情節(jié)。這些作品的故事背景,通常是人類社會的數(shù)字科技已經(jīng)達到強人工智能(ArtificialGeneralIntelligence,AGI)甚至超人工智能(ArtificialSuperIntelligence,ASI)的水平,然而在現(xiàn)實中,這仍是現(xiàn)今科學(xué)家和科幻作家們夢想中的“新大陸”。
但是,科學(xué)幻想與科學(xué)現(xiàn)實之間的距離正在拉近。在人工智能技術(shù)日新月異、不斷進化的當(dāng)下,以ChatGPT為代表的生成式人工智能已經(jīng)能夠與人類對話,并代替人類進行設(shè)計、繪畫。站在這樣一個技術(shù)升級的轉(zhuǎn)折點上,人類與智能機器之間的這種從前經(jīng)由科幻故事所闡發(fā)的復(fù)雜而又微妙的關(guān)系,連同許多糾纏于人類和智能機器之間的疑難問題,又一次被帶入公眾視野。其中最受關(guān)注的問題仍舊是智能時代的人機關(guān)系:人工智能是否可能具備自由意志?人工智能在何種意義上可以被視為具有主體人格?
所有問題的關(guān)鍵或許在于,人類可否用看待同類的方式去理解自己的“造物”并賦予它們一定的權(quán)利。面對來自技術(shù)的挑戰(zhàn),法律或許可以借鑒歷史的經(jīng)驗賦予人工智能某種“人格”,從權(quán)利/義務(wù)的角度去探討它們在人類社會中的參與;也可以插上想象的翅膀,思考法律將如何持存于一個強人工智能的未來時代。
人工智能技術(shù)的發(fā)展分為三個階段:弱人工智能(ArtificialNarrowIntelligence,ANI)、強人工智能和超人工智能。①《什么是強AI?》,IBM網(wǎng)站,https://www.ibm.com/cn-zh/topics/strong-ai。弱人工智能指的是需要遵守固定程序從而進行交互的人工智能,例如語音助手、掃地機器人等單一任務(wù)、單一場景的AI。強人工智能是指能夠達到人類思維水平的AI。在強人工智能領(lǐng)域,機器學(xué)習(xí)和深度學(xué)習(xí)是近年來發(fā)展最迅速的子領(lǐng)域,其中深度學(xué)習(xí)就是模擬人類的神經(jīng)網(wǎng)絡(luò)建造多層次模型,讓機器通過學(xué)習(xí)已有的數(shù)據(jù)集從而自動形成算法并觸類旁通地解決問題。近來風(fēng)靡全球的ChatGPT所依賴的大語言模型(LargeLanguageModel)本質(zhì)上就屬于深度學(xué)習(xí)的框架。而最后一種超人工智能則為人們想象中的、可以超過人類的AI。與AI相關(guān)的電影和文學(xué)作品中的“人機大戰(zhàn)”大約指的都是超人工智能時代才可能發(fā)生的事。有人工智能科學(xué)家指出,目前人工智能的發(fā)展處于弱人工智能與強人工智能的中間點。
自2022年12月以來,以ChatGPT為代表的大語言模型產(chǎn)品帶來了文字、圖片和設(shè)計創(chuàng)作的革新,比如可以根據(jù)用戶輸入的關(guān)鍵詞生成包含關(guān)鍵詞中各種元素的圖片。ChatGPT在經(jīng)歷迭代以后,最新的GPT-4產(chǎn)品可以在美國的法學(xué)院入校考試(LSAT)中獲得排名前10%的成績,也可以高分通過美國司法考試。①ChatGPTV4AcestheBar,SATsandCanIdentifyExploitsinETHContracts,2023-03-15,https://cointelegraph.com/news/chatgpt-v4-aces-the-bar-sats-and-can-identify-exploits-in-eth-contracts.
“人工智能之父”圖靈(Turing)提出了著名的“圖靈測試”,以檢測AI技術(shù)是否達到“強智能”。該測試認(rèn)為如果讓檢測者和機器對話,當(dāng)超過50%的檢測者無法辨別對方是人類還是機器時,則認(rèn)為該技術(shù)具有“智能”。目前,盡管沒有任何官方機構(gòu)宣布ChatGPT及其迭代產(chǎn)品已經(jīng)通過圖靈測試,但是已有許多相關(guān)領(lǐng)域的教授和計算機科學(xué)家們完成了對GPT-3和GPT-4的相關(guān)測試。②Andrew,ChatGPTPassesTuringTest:ANewBenchmarkinAI,2023-04-01,https://www.westarter.org/chatgpt-turing-test/.AllisaJames,ChatGPTHasPassedtheTuringTestandIfYou’reFreakedOut,You’reNotAlone,2023-03-29,https://www.techradar.com/opinion/chatgpt-has-passed-the-turing-test-and-if-youre-freaked-out-youre-not-alone.DamirYalalov,ChatGPTPassestheTuringTest,2022-12-08,https://mpost.io/chatgpt-passes-the-turing-test/.此外,谷歌(Google)的大語言模型LaMDA也已在2022年6月通過該測試,比LaMDA更先進的GPT-4能通過圖靈測試也就不奇怪了。③WillOremus,Google’sAIPassedaFamousTestandShowedHowtheTestisBroken,2022-06-17,https://www.washingtonpost.com/technology/2022/06/17/google-ai-lamda-turing-test/.GPT-4能夠根據(jù)提出的問題調(diào)整說話方式,可以用輕松的、正式的、幽默的甚至諷刺的語氣進行溝通。當(dāng)然,即使GPT-4通過了圖靈測試,也并不一定意味著它可以像人類一樣思考或理解問題。有科學(xué)家認(rèn)為圖靈測試并不能全面地測試AI的智能水平,④A.P.Saygin,PragmaticsinHuman-ComputerConversation,Journal of Pragmatics,2002(34),pp.227-258.因為該測試并不直接測試計算機的行為是否智能,它僅測試計算機的行為是否像人類一樣,而人類行為和智能行為并不相同,因為人類的某些行為是不明智的。
美國斯坦福大學(xué)教授米哈爾·科辛斯基(MichalKosinski)于2023年2月發(fā)表論文稱GPT-3.5的心智水平已達到7歲兒童的水平。這個結(jié)論是通過心理學(xué)的心智理論(TheoryofMind)測試得到的,該試驗主要檢測各種語言模型能否意識到其他人有與現(xiàn)實不同的“錯誤信念”。該研究表明,2020年之前發(fā)布的語言模型幾乎沒有表現(xiàn)出解決“錯誤信念”任務(wù)的能力,而2020年5月發(fā)布的第一個版本的GPT-3解決了約40%的任務(wù),表現(xiàn)與3.5歲兒童相當(dāng);2022年1月發(fā)布的第二個版本解決了70%的任務(wù),相當(dāng)于6歲兒童;2022年11月發(fā)布的GPT-3.5解決了90%的任務(wù),達到了7歲兒童的水平;2023年3月發(fā)布的GPT-4更是解決了95%的任務(wù)。這些研究表明,從前被認(rèn)為是人類所獨有的心智能力,可能作為語言模型提高語言技能的“副產(chǎn)品”而出現(xiàn)了。⑤MichalKosinski,TheoryofMindMayHaveSpontaneouslyEmergedinLargeLanguageModels,websiteofCornellUniversity,2023-02-04,https://arxiv.org/abs/2302.02083.
當(dāng)技術(shù)更迭日益朝著智能化發(fā)展時,許多在機器人技術(shù)開端就被埋下伏筆的疑問會再度進入我們的視野:人工智能是否會超越人類?是否可以用思考人類主體的方式去理解人工智能?關(guān)于人工智能是否具有人格,以及未來它在人類社會中的地位是什么,法律似乎自有一套話語加以應(yīng)對。然而,當(dāng)我們?yōu)闄C器人或人工智能模型賦予某種類似“人格”的地位時,似乎注定會帶來更多理論和實踐中的問題。無論如何,當(dāng)機器和人工智能日益被“縫”進人類生活,法律的登場只是時間問題。問題在于,我們是否為這樣的未來做好了充足準(zhǔn)備。
2017年,沙特阿拉伯授予機器人索菲亞以公民身份。①AndrewGriffin,SaudiArabiaGrantsCitizenshiptoaRobotfortheFirstTimeEver,Independent,https://www.independent.co.uk/tech/saudi-arabia-robot-sophia-citizenship-android-riyadh-citizen-passport-future-a8021601.html.索菲亞由注冊于中國香港的機器人公司制作,有皺紋、有表情,能夠在回答問題時微笑或露出疑惑、難受的表情。然而著名AI科學(xué)家楊立昆(YannLeCun)在當(dāng)時便指出這是一場“騙局”,因為索菲亞的許多回答是通過程序設(shè)定好的。索菲亞在回答記者提前提交給會務(wù)組的3個問題時表現(xiàn)優(yōu)秀,但當(dāng)遇到記者現(xiàn)場隨機提出的問題時,其對話水平明顯下降。②《“曖昧騙局”機器人索菲亞》,知乎網(wǎng),2018年1月7日,https://zhuanlan.zhihu.com/p/32702643。6年后的今天,應(yīng)用于索菲亞和ChatGPT的自然語言處理模型蓬勃發(fā)展,索菲亞是否會更像一個“人”?作為第一個被賦予“人權(quán)”的機器人,索菲亞的權(quán)利問題引發(fā)了廣泛討論。假設(shè)未來到達了AGI或ASI時代,人工智能機器人是否可以具有法律人格?其權(quán)利又是什么?
根據(jù)《中華人民共和國民法典》第九百九十條,人格權(quán)是民事主體享有的生命權(quán)、身體權(quán)、健康權(quán)、姓名權(quán)、名稱權(quán)、肖像權(quán)、名譽權(quán)、榮譽權(quán)、隱私權(quán)等權(quán)利。自然人也享有基于人身自由、人格尊嚴(yán)的其他人格權(quán)。當(dāng)人格權(quán)受到侵害時,受害人可以依法請求行為人承擔(dān)民事責(zé)任;同樣,侵害他人權(quán)利時,也應(yīng)當(dāng)承擔(dān)相應(yīng)的民事責(zé)任。如果給予人工智能“人格權(quán)”,那么當(dāng)它侵害他人權(quán)利時應(yīng)當(dāng)以什么形式、什么能力來承擔(dān)責(zé)任?這需要結(jié)合我國的法律制度進行深刻思考。以ChatGPT為例,目前ChatGPT生成的信息并非都是真實的信息,有些虛假信息極有可能損害他人的名譽權(quán)。再比如,如果用戶在與ChatGPT交互的過程中不小心透露了隱私信息,由于ChatGPT會收集并學(xué)習(xí)用戶輸入的信息,因此它很有可能在日后回答其他用戶的問題時泄露該隱私,侵犯用戶的隱私權(quán)。在當(dāng)前的技術(shù)和法律框架下,ChatGPT之類的產(chǎn)品并不能承擔(dān)責(zé)任,所以當(dāng)它侵犯他人權(quán)利時,其生產(chǎn)經(jīng)營公司就需要承擔(dān)民事責(zé)任。如果承認(rèn)了類似的技術(shù)的獨立人格,那么就要讓技術(shù)本身承擔(dān)責(zé)任,而在無法確定人工智能的其他相關(guān)權(quán)利義務(wù)的時候,讓它獨立承擔(dān)責(zé)任好似天方夜譚。
其實歐洲的立法者很早就開始思考人工智能是否具備獨立人格。2016年,歐盟三大常設(shè)機構(gòu)之一歐洲議會呼吁建立“人工智能倫理準(zhǔn)則”,提出要考慮賦予某些自主機器人“電子人”(ElectronicPersons)的法律地位。盡管該提案最后并沒有被通過,但歐洲議會對于人工智能技術(shù)的載體可能擁有的法律地位的相關(guān)思考在世界上仍是超前的。關(guān)于智能自主機器人,歐盟的法律事務(wù)委員會提出了四大特征:(1)通過傳感器和/或借助于其環(huán)境交換數(shù)據(jù)(互聯(lián)性)獲得自主性的能力,以及分析那些數(shù)據(jù);(2)從經(jīng)歷和交互中學(xué)習(xí)的能力;(3)機器人的物質(zhì)支撐形式;(4)因環(huán)境而調(diào)整其行為和行動的能力。①《十項建議解讀歐盟人工智能立法新趨勢》,騰訊研究院,2017年2月16日,https://www.tisi.org/4811。目前,生成式人工智能可以做到根據(jù)用戶的問題而形成交互的答案。也有科學(xué)家將ChatGPT技術(shù)接入機器人,機器人可以流暢地交互,適應(yīng)不同環(huán)境并調(diào)整其行為。這些特征都非常符合歐盟提出的“電子人”概念。
這么看來“電子人”的概念似乎很合理,像是模仿“法人”而產(chǎn)生的。法人是依法成立的社會組織,擁有獨立的財產(chǎn)和經(jīng)費,獨立承擔(dān)民事責(zé)任,并且能夠以法人的名義從事民事活動。法人具有獨立的人格權(quán),主要包含名稱權(quán)、名譽權(quán)和榮譽權(quán)。法人的概念源于羅馬法。隨著當(dāng)時羅馬領(lǐng)土的擴張、商品貿(mào)易的頻繁,私人團體被承認(rèn)具有主體資格,能夠以團體的名義共同擁有財產(chǎn)、進行商品買賣。②萬錫林:《談法人成為法律主體的演變》,中國法院網(wǎng),2019年11月4日,https://www.chinacourt.org/artic le/detail/2009/11/id/380640.shtm l。法律主體是隨著經(jīng)濟和時代的發(fā)展不斷變化而來的,所以探討未來是否有“電子人”的可能性也未嘗不可。無論是從自然人還是法人的角度來看,民事權(quán)利和責(zé)任都是相對應(yīng)的。如果給予人工智能一定的法律主體地位,那么它必定享有相應(yīng)的權(quán)利,也必須承擔(dān)一定的義務(wù)。
然而要厘清“電子人”的權(quán)利與義務(wù),絕非易事。根據(jù)當(dāng)前大語言模型的發(fā)展現(xiàn)狀,主要的權(quán)利問題集中在著作權(quán)和勞動權(quán)上。
首先是著作權(quán)。其實在ChatGPT之前就有過關(guān)于人工智能生成物的討論,在我國更是有過一次關(guān)于生成式人工智能著作權(quán)的訴訟?!膀v訊寫作機器人”(Dreamwriter)是騰訊公司開發(fā)的智能寫作輔助系統(tǒng),自2015年開發(fā)完成以來,每年可以完成大約30萬篇作品。其完成的一篇關(guān)于股市的文章發(fā)表以后,被上海某科技公司直接原文復(fù)制,騰訊公司將該公司訴至法院,稱其侵犯了騰訊公司享有的著作權(quán)。案件最終裁定涉案文章由原告主創(chuàng)團隊人員運用Dreamwriter軟件生成,其外在表現(xiàn)符合文字作品的形式要求,其表現(xiàn)的內(nèi)容體現(xiàn)出對當(dāng)日上午相關(guān)股市信息、數(shù)據(jù)的選擇、分析、判斷,文章結(jié)構(gòu)合理、表達邏輯清晰,具有一定的獨創(chuàng)性,應(yīng)予以保護。③萬勇:《人工智能“作品”,著作權(quán)誰屬》,《光明日報》2019年5月13日。當(dāng)然,ChatGPT在與用戶交互的過程中的回答不一定全都具有獨創(chuàng)性,不是ChatGPT的所有產(chǎn)出都可以獲得著作權(quán)的保護,甚至一些以圖像為主的生成式AI還存在侵權(quán)的可能性。我國著作權(quán)法規(guī)定,我國公民、法人或者非法人組織可以享有著作權(quán)。那么,如果承認(rèn)了人工智能的法律人格,它是否也應(yīng)當(dāng)享有相應(yīng)的著作權(quán)呢?這是著作權(quán)領(lǐng)域非常有意思且值得探討的問題。
其次是勞動權(quán)。無論是網(wǎng)頁、軟件還是機器人,這些人工智能的載體都是“硅基”的,也有人稱人工智能具有“硅基生命”。與人類這種“碳基生命”相比,“硅基生命”可以長久生存,也不需要氧氣等資源。這么看的話,人工智能如果接通機器等載體,一定會比人類“活”得長久,且不怎么需要生存資料,幾乎可以滿足“無限勞動”的想象。機器可以替人類做一些難以完成的工作,比如海底救援、宇宙探索,而初期的機器人也以減輕人類的勞動負(fù)擔(dān)為目的,比如掃地機器人、投遞機器人。然而機器或人工智能對勞動的參與方式也有不同。美國的經(jīng)濟學(xué)家就證明,相較于增加生產(chǎn)力的“賦能技術(shù)”,“替代技術(shù)”一旦接管工人的工作后,就會減少就業(yè)和人工薪酬,這對經(jīng)濟產(chǎn)生了顯著的負(fù)面影響。①DaronAcemoglu,Machinevs.Man:TheLaborMarketintheAgeofRobots,2017-02-06,https://inequality.hks.harvard.edu/event/daron-acemoglu-machine-vs-man-labor-market-age-robots.那么,如果人工智能始終是一種“賦能技術(shù)”,它便可以讓現(xiàn)有的自動化、智能化的產(chǎn)品更加“智慧”,哪怕技術(shù)可以自行迭代成長,人工智能的勞動也不一定會給經(jīng)濟造成負(fù)面影響。不過,以比爾·蓋茨為代表,也有一種聲音認(rèn)為政府應(yīng)當(dāng)對人工智能征稅,用來補貼和培訓(xùn)因機器人的大規(guī)模應(yīng)用而失業(yè)的人。②BillGates,Job-StealingRobotsShouldPayIncomeTaxes,2017-02-17,https://www.cnbc.com/2017/02/17/bill-gates-jobstealing-robots-should-pay-income-taxes.html.這種設(shè)想的一個連帶后果卻是,征稅使得人工智能在法律上更接近于人格主體的特征,因為納稅是一種既有權(quán)利又有義務(wù)的主體行為。
回到所謂“電子人”的概念。事實上“電子人”一直沒有被歐洲議會所接受,這一提議備受爭議,在2017年之后發(fā)布的多個報告中都沒有授予人工智能法律人格,但是歐洲議會法律事務(wù)委員會在2020年7月的報告里堅持了最初的提議并對各種批判意見進行辯駁。該報告并未否定賦予人工智能以法律人格的可能性,也承認(rèn)授予法律人格并非解決問題的唯一方法。③劉云:《論人工智能的法律人格制度需求與多層應(yīng)對》,《東方法學(xué)》2021年第1期。不知是不是因為人工智能法案(ArtificialIntelligenceAct)草案的提出,給了歐洲議會以更多底氣再次談?wù)撛撛掝},但可以看出,能否以及如何授予法律人格,本身需要滿足一定的時代和社會條件,法學(xué)的討論只能在時代所需要的議程框架中展開。這也決定了賦予人工智能以法律人格,至少在目前是超前于時代的需求的。
如果說關(guān)于人工智能的主體人格的討論,是現(xiàn)實世界對不久之后的未來所作的思想準(zhǔn)備,那么關(guān)于人工智能具備自由意志的狀況,則仍舊是科幻作品面向更遠未來的幻想。比如2001年上映的電影《人工智能》改編自英國科幻作家奧爾迪斯(BrianAldiss)于1969年發(fā)表的短篇小說;2004年上映的《我,機器人》受到阿西莫夫(IsaacAsimov)同名科幻短篇小說集的啟發(fā)。這些電影里描繪了人工智能具有自由意志的時代,也討論了人類和人工智能機器人的關(guān)系,尤其是討論當(dāng)機器人的能力有可能“超越”人類的時候,機器人將會消滅人類還是依然服從人類這一問題。
當(dāng)然,這些文學(xué)和電影作品中的人工智能已經(jīng)到達了AGI甚至是ASI的階段??稍缭?942年,阿西莫夫在其科幻小說《環(huán)舞》中就首次提出了“機器人三定律”。然而,這三條定律不無悖論性,其微妙之處在于,它們看似在保護人類,實則卻將具有高度智能的機器和人類放置在對抗的位置上??梢韵胍姡绻搅藱C器人被允許擁有自由意志的那一天,它們將可能不受任何“定律”的束縛,因而所謂的“機器人三定律”更多是面向人類的自我慰藉,或是人類為科技發(fā)展劃定的一條基準(zhǔn)線。但也正因人們很早就注意到了人機關(guān)系在未來可能發(fā)生的顛覆,現(xiàn)在的科學(xué)家更傾向于開發(fā)一類在價值觀上與人類相一致的人工智能,也即所謂“人工智能對齊”(AIAlignment),從而克服或減少強人工智能時代可能出現(xiàn)的倫理風(fēng)險。
或許這樣的“未來”已經(jīng)不再遙遠。2022年2月9日,OpenAI聯(lián)合創(chuàng)始人、人工智能科學(xué)家伊利亞·莎士科爾(IlyaSutskever)表示:現(xiàn)在的大型神經(jīng)網(wǎng)絡(luò)可能已經(jīng)有微弱的自主意識了。①AlbertoRomero,OpenAI’sChiefScientistClaimedAIMayBeConscious,2022-03-17,https://towardsdatascience.com/openaischief-scientist-claimed-ai-may-be-conscious-and-kicked-off-a-furious-debate-7338b95194e.同年6月,谷歌的工程師布雷克·雷蒙恩(BlakeLemoine)宣稱,LaMDA已存在感知能力和自我意識,并在網(wǎng)上公布了他和LaMDA的對話。他認(rèn)為,LaMDA擁有七八歲孩童的智力,并相信LaMDA正在爭取自己作為一個人的權(quán)利,而且“不想被關(guān)掉”。②《谷歌AI具有意識?LaMDA像個聰明孩子?專家:胡扯》,澎湃新聞,2022年6月16日,https://www.thepaper.cn/newsDetail_forward_18579232。該言論引發(fā)了巨大的風(fēng)波和討論,尤其是在谷歌否認(rèn)其言論的真實性并以泄露商業(yè)秘密為由解雇了雷蒙恩之后,該言論受到了更多人的質(zhì)疑。莎士科爾很巧妙地用了“可能”一詞,雖然他被很多人工智能科學(xué)家抨擊,但OpenAI的合伙人山姆·奧特曼(SamAltman)卻支持他的觀點,認(rèn)為OpenAI正是因為各種“可能”才得以發(fā)展,進而才有了橫空出世的ChatGPT和迅速迭代的GPT-3、GPT-4以及未來的GPT-5。
史蒂芬·霍金早在2017年就警告過:“強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。對于好壞我們?nèi)詿o法確定,現(xiàn)在人類只能竭盡所能,確保其未來發(fā)展對人類和環(huán)境有利,人類別無選擇?!雹跘rjunKharpal,StephenHawkingSaysAICouldBeWorstEventintheHistoryofOurCivilization,2017-11-06,https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.htm l.他所說的糟糕的情況指的是超人工智能時代,一旦AI超越人類,就意味著人類將面臨前所未有的挑戰(zhàn)——尤其是AI可能會被用于制造武器,這其中的威力將不可估量。因此,霍金很早就呼吁,要確保對AI有一套完備、有效的管理體系,減少不可預(yù)知的風(fēng)險。
可以肯定的是,一旦人工智能擁有自由意志,那么迎接人類的將是一個完全未知的未來——不僅人工智能是否會保護、尊重人類是未知的,而且人類是否會信任人工智能也同樣未知。我們?nèi)砸粲?,要理性地看待人工智能技術(shù)的成長,盡可能地善用技術(shù)進步以造福人類。但法學(xué)家們或許仍免不了操心,尤其是在法學(xué)尚未完全為人工智能時代設(shè)定好議題的今天。提前設(shè)定關(guān)于人工智能的倫理及規(guī)范,構(gòu)建一種更為良性的未來人機關(guān)系,或許是人類更好地發(fā)掘和利用人工智能的前提之一。