劉憲權(quán)
以智能機(jī)器人是否具有辨認(rèn)能力和控制能力,可以將智能機(jī)器人劃分為弱智能機(jī)器人與強(qiáng)智能機(jī)器人。目前,弱智能機(jī)器人的使用,為我們的生活帶來了極大便利,我們已經(jīng)進(jìn)入了弱人工智能時(shí)代。隨著科技的爆炸式發(fā)展,具有辨認(rèn)能力和控制能力的強(qiáng)智能機(jī)器人的出現(xiàn)也并非天方夜譚,相信在5至10年內(nèi)我們將會進(jìn)入強(qiáng)人工智能時(shí)代。
弱智能機(jī)器人不具有辨認(rèn)能力和控制能力,其實(shí)現(xiàn)的只是設(shè)計(jì)者或使用者的意志。因此可以將弱智能機(jī)器人看作人類改造世界的新型工具。相較于普通工具,弱智能機(jī)器人的優(yōu)勢在于其可以在某一方面完全替代人類自身的行為,達(dá)到人類預(yù)期的目的。如果這一優(yōu)勢被犯罪分子所利用,其就會在付出更小代價(jià)的同時(shí),帶來更大的社會危害。一方面,借助弱智能機(jī)器人會在一定程度上為犯罪分子實(shí)施犯罪行為帶來便利,并使其犯罪行為取得事半“功”倍的效果。例如,恐怖分子可以借助攜帶爆炸物的弱智能機(jī)器人在人員密集的公共場所實(shí)施爆炸襲擊,制造恐慌,危害公共安全。與傳統(tǒng)的“人肉炸彈”相比,利用弱智能機(jī)器人實(shí)施爆炸襲擊,不會危及恐怖分子的自身生命安全,同時(shí)也更有利于恐怖分子的隱蔽,大大增加了對其實(shí)施抓捕的難度。另一方面,犯罪分子將弱智能機(jī)器人作為犯罪工具,可能會衍生新類型的犯罪。對數(shù)據(jù)的濫用在當(dāng)今的信息社會乃至智能社會,將會成為占據(jù)很大比重的犯罪形式。同時(shí),法律具有一定的滯后性,我國刑法及司法實(shí)踐側(cè)重于保護(hù)用于維護(hù)信息系統(tǒng)自身功能的、以訪問控制為主要考慮的數(shù)據(jù),沒有關(guān)注數(shù)據(jù)自身內(nèi)容屬性上的價(jià)值與保護(hù)必要。這就意味著,在不存在強(qiáng)有力監(jiān)管的情況下,今后相當(dāng)長的一段時(shí)間內(nèi)利用弱智能機(jī)器人進(jìn)行的濫用數(shù)據(jù)的犯罪將會愈演愈烈。例如,犯罪分子獲取海量數(shù)據(jù)信息,通過弱智能機(jī)器人的分析和推算,從中獲取關(guān)鍵敏感信息(其中包含威脅國家安全、公共安全或公民個(gè)人人身、財(cái)產(chǎn)安全的信息),再利用這些信息進(jìn)行犯罪行為,獲取巨額利益。
應(yīng)當(dāng)看到,在弱智能機(jī)器人被設(shè)計(jì)者或使用者利用來實(shí)施犯罪行為的情況下,設(shè)計(jì)者或使用者通過程序給弱智能機(jī)器人設(shè)定行為目的和行為邊界。此時(shí)的弱智能機(jī)器人雖然有可能基于深度學(xué)習(xí)和算法作出相應(yīng)判斷并進(jìn)而實(shí)施行為,但這些判斷和行為仍是在程序控制范圍之內(nèi),實(shí)現(xiàn)的是設(shè)計(jì)者或使用者的意志,其行為完全符合設(shè)計(jì)者設(shè)計(jì)和編制程序的目的。即使弱智能機(jī)器人實(shí)施了嚴(yán)重危害社會的行為,也只能將其視為設(shè)計(jì)者或使用者實(shí)施犯罪行為的“工具”,弱智能機(jī)器人本身不應(yīng)當(dāng)承擔(dān)刑事責(zé)任,而應(yīng)當(dāng)由弱智能機(jī)器人的設(shè)計(jì)者或使用者承擔(dān)刑事責(zé)任。此時(shí),對設(shè)計(jì)者或使用者按照其利用弱智能機(jī)器人所實(shí)施的犯罪(諸如故意殺人罪、爆炸罪等)進(jìn)行定罪量刑即可。
強(qiáng)智能機(jī)器人具有辨認(rèn)能力和控制能力,可以超出設(shè)計(jì)和編制的程序范圍,進(jìn)行自主決策并實(shí)施相應(yīng)行為,實(shí)現(xiàn)其自身的意志。正如1968年上映的美國經(jīng)典科幻電影《2001:A Space Odyssey》所呈現(xiàn)的那樣,機(jī)器人HAL讀懂飛行員想要關(guān)閉它的唇語,于是決定先發(fā)制人,故意讓電腦失靈,導(dǎo)致4人喪生。電影里的HAL就是我們這里所講的強(qiáng)智能機(jī)器人,它可以超出設(shè)計(jì)和編制的程序范圍自主作出讓電腦失靈的決策,從而達(dá)到不讓飛行員將自己關(guān)閉的目的。當(dāng)然,這種情景只是人類的幻想,但是人類的科技發(fā)展史正是不斷將幻想變成現(xiàn)實(shí)的歷史。1783年法國J·F·P·羅齊埃和M·達(dá)爾朗德乘氣球升空、1903年萊特兄弟飛機(jī)試飛成功,實(shí)現(xiàn)了莊子在《逍遙游》中所描述的“列子御風(fēng)”的幻想;1969年“阿波羅”號飛船首次成功登上月球,實(shí)現(xiàn)了“嫦娥奔月”的幻想。隨著類腦智能技術(shù)、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、蒙特卡洛樹搜索、云計(jì)算等技術(shù)的不斷發(fā)展和完善,當(dāng)技術(shù)突破下一個(gè)瓶頸時(shí),出現(xiàn)具有辨認(rèn)能力和控制能力、能夠在設(shè)計(jì)和編制的程序范圍外作出自主決策并實(shí)施相應(yīng)行為、實(shí)現(xiàn)自身意志的強(qiáng)智能機(jī)器人,其實(shí)并非無稽之談。
在設(shè)計(jì)和編制的程序范圍外實(shí)施嚴(yán)重危害社會行為的強(qiáng)智能機(jī)器人,與自然人和單位一樣具有獨(dú)紫光閣 第5期 89立的辨認(rèn)能力和控制能力。強(qiáng)智能機(jī)器人可以通過其“電子眼” “電子耳”認(rèn)識到事實(shí)。相較于辨認(rèn)能力,控制能力是強(qiáng)智能機(jī)器人的必備能力。強(qiáng)智能機(jī)器人具有在設(shè)計(jì)和編制的程序范圍外極其快速的處理能力、反應(yīng)速度和極為精準(zhǔn)的控制能力,能夠憑借大數(shù)據(jù)與高速運(yùn)算能力對行為做出精準(zhǔn)的控制。同時(shí),隨著類腦智能技術(shù)的發(fā)展,強(qiáng)智能機(jī)器人可以憑借類似于人類大腦的系統(tǒng)判斷自己行為的性質(zhì),并在自主意志和意識的支配下自主決定實(shí)施或不實(shí)施相應(yīng)的行為。因此,強(qiáng)智能機(jī)器人與自然人一樣,具有辨認(rèn)能力和控制能力。強(qiáng)智能機(jī)器人在自主意志和意識的支配下所實(shí)施的嚴(yán)重危害社會的行為已經(jīng)超出了設(shè)計(jì)和編制的程序范圍,不再符合甚至從根本上違反了設(shè)計(jì)者或使用者的目的或意志,也不再是設(shè)計(jì)者或使用者實(shí)施犯罪行為的“工具”,而可以被看作一個(gè)獨(dú)立的刑事責(zé)任主體。此時(shí),我們當(dāng)然應(yīng)將危害結(jié)果歸責(zé)于強(qiáng)智能機(jī)器人。但同時(shí)應(yīng)當(dāng)看到,與自然人責(zé)任主體基于自然規(guī)律而具有的獨(dú)立意志不同,強(qiáng)智能機(jī)器人不具有生命體,其獨(dú)立意志可以追根溯源到設(shè)計(jì)者為其編制的程序,同時(shí)使用者在使用過程中的行為也有可能觸發(fā)強(qiáng)智能機(jī)器人的敏感點(diǎn),使其產(chǎn)生實(shí)施危害社會行為的沖動(dòng)并進(jìn)而付諸實(shí)踐。強(qiáng)智能機(jī)器人的設(shè)計(jì)者或使用者作為創(chuàng)造主體和控制主體,理應(yīng)對強(qiáng)智能機(jī)器人的行為負(fù)有監(jiān)督義務(wù),并對其可能實(shí)施的嚴(yán)重危害社會的行為負(fù)有預(yù)見義務(wù)并盡其所能避免此類行為的發(fā)生。所以當(dāng)強(qiáng)智能機(jī)器人實(shí)施了嚴(yán)重危害社會的行為時(shí),除了追究強(qiáng)智能機(jī)器人的刑事責(zé)任外,負(fù)有預(yù)見義務(wù)和監(jiān)督義務(wù)的設(shè)計(jì)者或使用者也有被追究刑事責(zé)任的可能。
針對人工智能技術(shù)帶來的安全風(fēng)險(xiǎn)與挑戰(zhàn),需要盡快建立關(guān)于人工智能的法律法規(guī)、倫理規(guī)范和政策體系,全方位形成對人工智能技術(shù)的安全管控能力,作為“社會最后一道防線”的刑法更應(yīng)承擔(dān)起保障社會穩(wěn)定和健康發(fā)展的任務(wù)。為了防止將來面對人工智能技術(shù)發(fā)展所帶來的負(fù)面影響束手無策,我們應(yīng)未雨綢繆,從以下幾個(gè)方面完善我國刑法,以適應(yīng)人工智能時(shí)代的發(fā)展需求。
第一,增設(shè)濫用人工智能罪,從源頭防控風(fēng)險(xiǎn)。濫用人工智能技術(shù)所產(chǎn)生的社會危害性是難以控制的,會涉及到人類社會生活的許多方面,未來還將出現(xiàn)其他立法者囿于人工智能技術(shù)發(fā)展?fàn)顩r而無法全面考慮到的情況。因此,就目前智能機(jī)器人的研發(fā)和使用情況而言,直接將“濫用”的行為作為規(guī)制的對象并規(guī)定相應(yīng)的兜底條款是較為妥當(dāng)?shù)淖龇?,未來可以通過司法解釋等活動(dòng)進(jìn)行更加具體的規(guī)定,從而實(shí)現(xiàn)刑法規(guī)范穩(wěn)定性與前瞻性的平衡。
第二,增設(shè)人工智能事故罪,確立嚴(yán)格責(zé)任。明確設(shè)計(jì)者和使用者在設(shè)計(jì)和使用過程中的權(quán)利和義務(wù),在一定程度可以避免產(chǎn)生巨大的安全隱患。智能機(jī)器人的設(shè)計(jì)者和使用者的義務(wù)需要包含以下幾方面的內(nèi)容:首先,在研發(fā)智能機(jī)器人的過程中必須將人類社會中的法律以及道德等規(guī)范和價(jià)值嵌入相應(yīng)的系統(tǒng)之中。其次,設(shè)計(jì)者和使用者需要在研發(fā)和使用智能機(jī)器人的過程中履行數(shù)據(jù)保護(hù)義務(wù)。如果智能機(jī)器人的設(shè)計(jì)者和使用者沒有履行前述義務(wù),那么智能機(jī)器人的設(shè)計(jì)者和使用者需要承擔(dān)相應(yīng)的嚴(yán)格責(zé)任。當(dāng)然,嚴(yán)格責(zé)任確認(rèn)的前提是前置法律法規(guī)應(yīng)當(dāng)將這部分義務(wù)規(guī)定在條文之中,而刑法則可以規(guī)定不履行相應(yīng)法律法規(guī)中關(guān)于智能機(jī)器人設(shè)計(jì)和使用過程中的規(guī)定,造成嚴(yán)重危害結(jié)果的,有關(guān)設(shè)計(jì)者和使用者需要承擔(dān)刑事責(zé)任。
第三,在必要的時(shí)候,刑法可以考慮賦予強(qiáng)智能機(jī)器人刑事責(zé)任主體的地位,并增設(shè)能夠適用于智能機(jī)器人犯罪的刑罰處罰方式。首先,強(qiáng)智能機(jī)器人在設(shè)計(jì)和編制的程序范圍外實(shí)施行為實(shí)現(xiàn)的是自己的意志,而意志存在與否對于刑事責(zé)任能力的認(rèn)定有著重要意義。強(qiáng)智能機(jī)器人完全可能脫離人類產(chǎn)生獨(dú)立的意志。對于人類來說,強(qiáng)智能機(jī)器人是人類模擬自身神經(jīng)網(wǎng)絡(luò)創(chuàng)造出來的事物,可以說它比世界上任何事物都要更類似于人,刑法應(yīng)當(dāng)尊重其自由意志,適時(shí)考慮賦予其法律上的主體資格。其次,強(qiáng)智能機(jī)器人的行為完全可能成為法律意義上的行為。強(qiáng)智能機(jī)器人和自然人的區(qū)別僅僅在于自然人具有生命體,而強(qiáng)智能機(jī)器人是非生命體,這一區(qū)別似乎并不會改變行為的性質(zhì)。再次,對于智能機(jī)器人的刑罰處罰可以增設(shè)刪除數(shù)據(jù)、修改程序、永久銷毀等三種方式。