□伊凌嵩 杜 宇
根據(jù)人工智能是否具有獨立意識[1],可以將人工智能劃分為弱人工智能時代和強人工智能時代。弱人工智能時代的人工智能因為其不具有獨立意識,只擅長某一特定領域的操作和技巧,在使用時體現(xiàn)的是使用者或設計者的意識,現(xiàn)階段人工智能就處于弱人工智能時代,其本質(zhì)仍然是“工具”。但隨著科技的發(fā)展,在不遠的未來會產(chǎn)生出具有自己獨立的思維的人工智能,并且可以在不受人類控制的情況下,根據(jù)自己的意識,獨立實施行為,進入強人工智能時代,但進入強人工智能時代后,其“工具性”的屬性發(fā)生根本改變,人工智能在具有獨立意識后是否具有一定的人格,是否可以成為法律關系中的主體,特別是人工智能實施犯罪行為后,是否應該適用刑法對其進行規(guī)制,具有很大爭議。
(一)刑法規(guī)制主體之人工智能視角。人工智能是否具有刑法意義上的主體地位是其是否能夠適用刑法規(guī)制的前提和基礎。在2017年10月26日,沙特阿拉伯授予香港漢森機器人公司生產(chǎn)的機器人索菲亞公民身份,成為史上首個獲得公民身份的機器人,這是否意味著人工智能可以通過被授予的方式獲得與人類一樣的法律地位和主體資格了呢?
在刑法中關于主體的規(guī)定并非一成不變,而是隨著時代的發(fā)展,在一定的基礎上做了適當?shù)耐庋?,在我國刑法中?guī)定了單位犯罪,單位可以成為刑法的主體[2]。但在我國刑法認定單位犯罪時所體現(xiàn)的為單位內(nèi)部所有人的共同意志,是自然人的集合體,所以刑法中規(guī)定的單位犯罪其本質(zhì)仍然是人類的意志。但是強人工智能時代的人工智能完全可以脫離人類的控制產(chǎn)生獨立的意識,人工智能不具備人之心性和靈性,與具有‘人類智慧’的自然人和自然人集合體是完全不同的。
人類在法律中的主體資格被認為是出生時便具有的,“天賦人權”一直深入現(xiàn)今社會中每一個人的內(nèi)心當中,無論哪個國家公民的主體資格都是出生時自然獲得的,誰也無權授予也無法授予?!胺擅媲埃巳似降取彼鶑娬{(diào)的也是人類與人類的平等,并非人工智能與人類的平等,如果可以授予某些人工智能與人類相同的主體地位和資格,與刑法的基本精神是完全相悖的。
有學者認為,應以人工智能具有辨別能力和控制能力為由,就認定其具有成為刑法主體的資格,但是需要明確,辨別能力和控制能力只是成為刑法主體的前提,許多動物也具有這些能力,但并不是刑法的主體。
(二)刑法規(guī)定的罪名和刑罰手段是否適用于人工智能。在討論人工智能是否適用刑法規(guī)制時,不應該機械地判斷人工智能是否可以適用刑法,更應該聯(lián)系實際。
一旦人類進入強人工智能時代,就會出現(xiàn)大量的新型犯罪形式的產(chǎn)生,如果將強人工智能放入刑法中規(guī)制,則需要根據(jù)人工智能的特點,在刑法中創(chuàng)設大量的新型罪名,去改變刑法現(xiàn)有的體系。如果將人工智能列入到刑法中進行規(guī)制,那么就需要打破現(xiàn)有的刑法體系,在刑法中重新制定出一套只適用于人工智能的刑法原則,并在這些原則的基礎上設立新的罪名和刑罰種類,對刑法進行大面積顛覆性的修改。
刑法主要通過刑罰的方式來達到刑法的目的,刑罰主要是通過兩個方面使自然人感受到痛苦的:第一,直接或間接地造成自然人身體的痛苦;第二,通過剝奪自然人的從事某種社會活動的資格,從而造成情感上的痛苦。但是刑罰是否會給人工智能造成痛苦?未來人工智能系統(tǒng)的自主進化過程極可能不同于人類,既不像人類一樣自然生產(chǎn),未必會按照人類進化歷程發(fā)展出類似于生物疼痛感的神經(jīng)網(wǎng)絡,也不一定會建立像人類一樣的社會[3]。此時的人工智能即無法感到疼痛也不具備社會性,刑法無法對其進行規(guī)制。而且“無論是從刑法的目的分析還是從刑罰種類分析,通過我國現(xiàn)行刑法對智能機器人直接加以懲罰是難以想象的?!毙塘P的本質(zhì)是痛苦,刑罰只與犯罪相聯(lián)系,是施加給犯罪人的痛苦。
我國現(xiàn)行刑罰的手段主要是通過剝奪犯罪分子的自由甚至生命來起到懲罰犯罪的作用,但是在未來世界中,人工智能更多會處于網(wǎng)絡或虛擬空間,無法對其適用自由刑,而且對于具有實體的人工智能,其產(chǎn)生的意識并不一定完全與人類相同,適用自由刑也不一定能使其產(chǎn)生痛苦,起到對人工智能懲罰的作用。
人類無論是在社會自然界還是法律界的地位都應該是獨一無二、不可替代的,人工智能技術無論如何發(fā)展和進步,人工智能的意識、情感以及創(chuàng)造力如何地接近甚至超越人類,都不能將兩者等同,人工智能被發(fā)明的意義在于更好地服務人類社會,幫助人類社會,而不是替代人類社會,因此,人工智能永遠不應該也不會成為刑法的主體。
隨著人工智能迅速發(fā)展,其已經(jīng)迅速地滲入到人類生活的各個領域,雖然刑法不能規(guī)制人工智能,但刑法可以規(guī)制設計、生產(chǎn)和適用人工智能的人類。
人類制造專門用于犯罪的人工智能,將自己的犯罪意圖以編程的方式植入進人工智能的前期程序中,以人工智能來達到自己犯罪的目的,惡意篡改人工智能的程序,利用人工智能實施犯罪行為,此時的人工智能只是一種“智能工具”,刑事責任仍由人工智能的設計者和生產(chǎn)者承擔。
在設計、生產(chǎn)人工智能或提供人工智能服務的人類,明知有缺陷并且可能對人類造成危險的,但繼續(xù)生產(chǎn)和制造,繼而導致危害結果的發(fā)生,對這類的行為可以用刑法規(guī)制,追究生產(chǎn)者或設計者的刑事責任,對于在生產(chǎn)或使用時因過失導致人工智能實行危害行為的,也可根據(jù)不同的情況在刑法中設置新的罪名以及不同的量刑標準。
隨著科學技術的發(fā)展,人工智能的研究和探索不應該是完全自由、沒有底線的,當某些人工智能的研究越過了人類的倫理道德底線并切實危害到人類生存,這種行為應該用刑法進行嚴格的限制,防范人工智能的濫用。同時也需注意應保護人工智能的無害開發(fā),保證人工智能在可控、安全、有益性的軌道上合理發(fā)展,明確人工智能開發(fā)者的義務和責任,對于嚴重違反相關義務并產(chǎn)生嚴重后果的人類追究其刑事責任。
雖然人工智能不應該被列入到刑法規(guī)制的范圍,但隨著人工智能的深度發(fā)展,人工智能與人工智能、人工智能與人類之間的權利會發(fā)生沖突,人工智能必須加以規(guī)制,同時權利也必須得到保護。
設計一套人工智能的倫理道德標準,這套倫理道德最重要的本質(zhì)在于預防應用人工智能時可能存在的風險,而且只有當人工智能具有“道德”時,人工智能的“非道德”行為才具備可譴責性。在這套倫理道德經(jīng)過充分討論和實踐的基礎上,創(chuàng)制一門新的法律用于解決和規(guī)制當人工智能與人工智能之間、人類與人工智能之間的權益發(fā)生沖突時的具體問題。
通過專門的立法對人工智能的權益進行保護,在保護人工智能的權益時,應根據(jù)人工智能不同的類型和不同的智能水平進行區(qū)分,并進行分級,根據(jù)不同的等級進行保護,規(guī)定不同等級的人工智能具有不同程度的“權利”。
(一)預防。人工智能和人類的倫理道德的形成過程并不相同,人類的倫理道德是通過學習和環(huán)境影響所形成的,是后天形成的,但是因為人工智能的特殊性,人類可以在設計或生產(chǎn)時,可以直接將一套完整的人工智能倫理道德植入他們的意識中,這套倫理道德是人工智能在做任何事時都不能違反的第一原則,使其達到能夠和人類的倫理道德對人類行為指導作用類似的作用。但是這樣的原則真的能保證人工智能不傷害人類嗎?雖然在生產(chǎn)和設計人工智能時,已經(jīng)將人工智能的倫理道德以類似算法的方式植入人工智能的意識中,但由于人工智能具有非常強的學習能力和進化能力,其倫理道德標準也是在不斷修正和變化的,一部分人工智能可能在深度學習后嚴重違背原有“道德”,這時,人類應該創(chuàng)制一門專門的法律用于規(guī)制此類情形。
(二)懲罰。人工智能在經(jīng)過學習和進化后,違背原有的人工智能“道德”,并造成損害結果,應該通過專門立法的形式對人工智能的這類行為加以規(guī)制。因為人類意識與人工智能意識根本不同,懲罰對人工智能不一定能起到類似于刑法中“一般預防”的作用,所以,有關人工智能的專門立法應該注重“特殊預防”,既防止人工智能的行為再次產(chǎn)生嚴重的損害結果。例如,可以對人工智能設置相關的“資格刑”,剝奪人工智能從事某種職業(yè)或者行為的權力,從而杜絕人工智能再次造成損害后果的可能。并且可以對造成嚴重損害后果的人工智能可以對其進行刪除信息、修改程序和永久銷毀等“懲罰”措施。
(三)保護。賦予具有獨立意識的人工智能一定的權利是必然的趨勢,人工智能也應該受到基本的尊重,在通過立法確定人工智能責任的同時,人工智能的權利也應該通過立法的形式加以保護,對人工智能只是一味地限制而不進行保護,不利于人工智能的健康發(fā)展,例如,人類不能隨意虐待、處置、拋棄人工智能。隨著人工智能的發(fā)展,承認人工智能的權利具有必然性與合理性。
人工智能永遠不會成為刑法犯罪的主體,但是隨著科學技術的發(fā)展,人工智能終有一天會成為人們生活中不可或缺的一部分,人工智能在方便人們生活的同時也會帶來一些問題,應該正確地認識人工智能,對它可能出現(xiàn)的問題,根據(jù)實際情況,積極應對,推動整個人類社會的發(fā)展。