王馨慧 郝悅彤
(遼寧大學(xué) 遼寧 沈陽 110000)
人工智能指的是在機器中模擬人類智能,這些機器被編程后可以像人類一樣思考、做出同人類相似的舉動。20世紀50年代,人工智能的概念就已經(jīng)被提出,因為先進的算法和計算能力及存儲能力的改進,近年來,人工智能的發(fā)展速度與日俱增。由于其發(fā)展速度過于迅猛,目前,世界各國都十分關(guān)注人工智能的發(fā)展并出臺相關(guān)政策以積極應(yīng)對隨之而來的問題。國務(wù)院于2017年頒布的《新一代人工智能發(fā)展規(guī)劃》,將發(fā)展人工智能技術(shù)提升到戰(zhàn)略高度,明確了人工智能在我國發(fā)展道路上的重要地位。鑒于目前我國刑法尚未考慮到人工智能的發(fā)展對刑法帶來的影響,筆者將論述人工智能所帶來的刑事風(fēng)險,對人工智能法律人格進行研究,明確人工智能的刑事責(zé)任承擔,并通過研究國際法的方式探討國內(nèi)立法。
從總體上來說,人工智能的發(fā)展可以分為三個階段,分別是普通智能時代,即人工智能的萌芽時代;弱人工智能時代,即人工智能的發(fā)展時代;強人工智能時代。
普通機器人的學(xué)習(xí)能力并未達到其他兩者的高度,而弱人工智能相較于強人工智能不具有辨認能力和控制能力,因而其有為人所利用實施犯罪行為的風(fēng)險;強人工智能具有辨認能力和控制能力,因而具有獨立人格與刑事責(zé)任能力,其嚴重危害社會的行為可以被界定為犯罪并予以刑事處罰。由于我國立法已對普通機器人作為犯罪工具的刑事責(zé)任承擔問題進行了相應(yīng)的規(guī)制,因此本文中不再展開論述。
從總體上來說,弱人工智能時代的刑事風(fēng)險可分為兩大類:第一類是可能增大部分傳統(tǒng)犯罪的社會危害性;第二類是可能導(dǎo)致新的犯罪類型生成。
1.弱人工智能可能增大部分傳統(tǒng)犯罪的社會危害性
互聯(lián)網(wǎng)的快速發(fā)展雖然不能直接導(dǎo)致所有犯罪都異化,但是不可避免會使得部分傳統(tǒng)犯罪產(chǎn)生質(zhì)變或是量變。弱人工智能技術(shù)可通過與軍事相結(jié)合的方式給國家和公共安全領(lǐng)域帶來刑事風(fēng)險,人工智能武器便是弱人工智能與軍事相結(jié)合的成果。如果人工智能被恐怖分子等勢力利用,將會給人類健康和世界和平帶來巨大的威脅。韓國科學(xué)技術(shù)院于2018年建立了人工智能研發(fā)中心,目的是研發(fā)適用于作戰(zhàn)指揮的人工智能技術(shù),消息一經(jīng)傳出,便遭到世界30多個國家的一致反對??梢?,盡管人工智能武器會給人類社會帶來福祉,人們更關(guān)注其造成的社會危害性。
2.弱人工智能可能導(dǎo)致新的犯罪類型生成
弱人工智能可與大數(shù)據(jù)結(jié)合產(chǎn)生新的犯罪形式。從我國最高人民法院、最高人民檢察院出臺的司法解釋及指導(dǎo)性案例中可以看出①,犯罪分子利用人工智能技術(shù)實施犯罪主要體現(xiàn)在其對大數(shù)據(jù)的濫用,產(chǎn)生新的濫用數(shù)據(jù)的犯罪形式。從最高人民法院、最高人民檢察院出臺的司法解釋可以看出,我國刑法及司法實踐側(cè)重于保護用于維護信息系統(tǒng)自身功能的、以訪問控制為主要考慮的數(shù)據(jù),沒有關(guān)注數(shù)據(jù)自身內(nèi)容屬性上的價值與保護的必要性。[1]但是犯罪分子利用人工智能技術(shù)實施犯罪主要體現(xiàn)在其對大數(shù)據(jù)的濫用,產(chǎn)生新的濫用數(shù)據(jù)的犯罪形式。人工智能技術(shù)往往可以得到超出人類預(yù)期的結(jié)果,一些數(shù)據(jù)從表面上看可能不包含關(guān)鍵的敏感信息,但是通過人工智能技術(shù)分析海量數(shù)據(jù),及對多個數(shù)據(jù)庫進行綜合分析,最終完全有可能通過推演得到關(guān)鍵的敏感信息,甚至包括一些威脅國家安全的重要信息。
強人工智能時代的標志就是強智能機器人的出現(xiàn),它可以在自主意識的支配下獨立決策。隨著技術(shù)的迭代更新,具備辨認能力和控制能力的強人工智能機器人的出現(xiàn)并非無稽之談。如果未來科學(xué)技術(shù)發(fā)展到更高的階段,智能機器人具備了獨立思考的能力,對人類來說將會是一場滅頂之災(zāi),一場人類與機器人之間的較量在所難免。因而,強人工智能時代的刑事風(fēng)險主要是由人工智能產(chǎn)品因脫離人類的控制而實施嚴重危害社會的犯罪行為造成的。
從法學(xué)研究角度來看,在判斷主體的法律人格時,三個因素是主要的判斷依據(jù):行為能力層面、權(quán)利義務(wù)層面、法律意識層面,義務(wù)的履行需要以具備意識和選擇能力為前提。在最新的研究中,國際上的學(xué)者主要持有兩種觀點:
1.法律人格主體說
這一學(xué)說主要是從傳統(tǒng)道德及倫理角度進行分析,認為法律人格主體不僅包含傳統(tǒng)意義上的法律主體,還應(yīng)該包括機器人等新興事物。
2.法律人格客體說
這一學(xué)說認為自然人是不能被替代的,不可比擬的,機器人等不能成為法律主體,而只能成為法律關(guān)系客體,權(quán)利義務(wù)指向的對象。
會議要求,要進一步細化落實國務(wù)院辦公廳關(guān)于做好非洲豬瘟等動物疫病防控工作通知的任務(wù)分工,完善聯(lián)防聯(lián)控工作機制。近期,要組成督查組,赴各地特別是重點省份開展非洲豬瘟防控工作督查,聚焦責(zé)任落實、應(yīng)急處置、生豬調(diào)運和餐廚剩余物監(jiān)管等重點工作。要壓實地方的屬地管理責(zé)任,督促地方各級人民政府對本地區(qū)防控工作負總責(zé),切實落實有關(guān)防控措施,統(tǒng)籌做好養(yǎng)殖業(yè)生產(chǎn)安全和肉品供給保障。
在中國現(xiàn)今的司法實踐中,智能機器人屬于限制刑事責(zé)任能力主體,類似于法人的刑事責(zé)任能力。當刑事犯罪是由于其自身的不作為時,例如,人性機器人不履行法律義務(wù),看護機器人不善待被看護人等,人工智能主體就要承擔相應(yīng)的刑事責(zé)任。這類似于父母對子女的撫養(yǎng)義務(wù),兒女對父母的贍養(yǎng)義務(wù),如果未盡義務(wù),則有構(gòu)成遺棄罪、虐待罪等的可能。當刑事犯罪是由于人工智能主體作為,例如智能機器人實施指令行為時,其經(jīng)授意的行為引致的刑事責(zé)任將必須由“實際控制人”承擔。例如在美國近幾年出現(xiàn)的新型恐怖襲擊事件中,恐怖活動組織利用人造機器人攜帶武器、彈藥、爆炸物等危險物品在人員密集的場所或公共區(qū)域?qū)嵤┍ㄒu擊等恐怖活動。在這類事件中,雖然嚴重危害公共安全的犯罪行為的直接實施主體是人造機器人,但是,刑事責(zé)任是由教唆指示人造機器人實施該行為的恐怖分子承擔的。
人造程序,作為人類使用頻率最高的人工智能產(chǎn)品,屬于無刑事責(zé)任能力。因為人工智能產(chǎn)品的刑事責(zé)任應(yīng)當與其自主性相匹配。人造程序本身沒有辨別和控制能力,它在法律規(guī)制中尤其是責(zé)任承擔條款中不具有可責(zé)性。當且僅當人類,包括自然人、法人和其他組織,將其作為犯罪工具使用來實現(xiàn)人的犯罪目的的情況下,才有可能被納入刑法規(guī)制的范疇。
司法實踐中常見的利用人造程序可以實施的犯罪行為涵蓋刑法分則已有的大部分犯罪,如危害國家安全罪、危害公共安全罪、危害人身安全罪等。在這些種情況下,人造程序僅僅是犯罪工具,其本身不具備刑事責(zé)任能力,應(yīng)受刑罰處罰的是使用該工具的人。從這個角度看,人造程序和上述智能機器人在被教唆實施犯罪行為時,二者具有相似的法律地位。
綜上所述,我國在面對人工智能主體的刑法規(guī)制的一系列問題時,需要以積極立法觀和風(fēng)險立法觀相結(jié)合的角度進行思考與探究。
隨著信息技術(shù)的飛速發(fā)展,人工智能領(lǐng)域得到了極大拓展,實現(xiàn)了廣泛應(yīng)用。人工智能武器是人工智能在軍事領(lǐng)域中的重大變革,對現(xiàn)有軍事管理與指揮體制造成了巨大沖擊。它能夠改變傳統(tǒng)的軍事斗爭形式,是贏得國家安全戰(zhàn)略的重要切入點。相較于自然人主題,人工智能武器信息化、專業(yè)化的程度高,在可控范圍內(nèi)能夠?qū)崿F(xiàn)精確打擊,降低軍事人員傷亡率并且能夠最大限度地避免和減少執(zhí)行任務(wù)過程中受客觀條件的影響。盡管如此,其弊端也是顯而易見的。
首先,人工智能的研發(fā)者、操縱者無法保證智能武器自身的絕對安全,因為人工智能發(fā)展過程中的弊端和負面因素會不可避免地傳輸?shù)饺斯ぶ悄芪淦魃?。其次,缺失人的倫理屬性的心理屬性的人工智能無法理解戰(zhàn)爭中自然人的心理變化。[2]缺少心理因素的智能武器,即使其思維方式、行為模式與人類完全相同,也不是一個完整的“人”。正是因為存在這樣的屬性,再加上人工智能武器在戰(zhàn)爭和武裝沖突中有取代戰(zhàn)斗員,甚至凌駕于戰(zhàn)斗員之上的趨勢,智能武器無法判斷敵人下一步將會采取什么樣的行動,很有可能因人工智能武器的誤判,導(dǎo)致局勢向不利方向扭轉(zhuǎn),這給國際法尤其是國際人道主義法帶來了深遠的影響。為應(yīng)對這些影響,國際人道法也應(yīng)進行相應(yīng)的完善,并進行法律規(guī)制。結(jié)合我國的立法現(xiàn)狀來看,我國未對人工智能武器所帶來的安全隱患進行規(guī)制,因而可通過完善國際法的方式來促進我國刑法在此方面的研究與規(guī)制。
人工智能武器的研發(fā)適用,不僅會產(chǎn)生多方面的輿論風(fēng)險,還將面臨巨大的輿論壓力。隨著人工智能技術(shù)的飛速發(fā)展,各國必須采取切實可行的舉措來強化人類在武裝沖突進程中武力使用問題上的自主控制程度,盡可能防范人工智能武器研發(fā)使用所帶來的法律風(fēng)險和道德壓力。
本文認為,國際人道主義法針對刑事責(zé)任追究機制的完善應(yīng)充分考慮主觀的過錯,當指揮官未按照人工智能武器的既定用途使用武器時,當程序設(shè)計者未承擔充分的注意義務(wù)導(dǎo)致程序設(shè)計錯誤時,當生產(chǎn)商或產(chǎn)業(yè)工人沒有按照操作規(guī)范生產(chǎn)人工智能武器時,上述四種主體應(yīng)當承擔國際刑事責(zé)任。當上述四類主體不存在主觀過錯時,由國家承擔責(zé)任。
馬爾頓斯條款僅僅是關(guān)于適用國際法沒有規(guī)定的武器的準則,它意味著國際人道主義法關(guān)于武器的規(guī)則應(yīng)當以符合公眾良心的要求和人道主義原則的方式來解釋,然而,該條款不能禁止自治系統(tǒng),因為它取決于習(xí)慣國際法的一項禁止性規(guī)則的存在。第一,人道主義原則只包括人工智能武器所遵循的國際人道主義法規(guī)則;第二,公眾良知可以從大會決議和立法條約等權(quán)威來源中推導(dǎo)出來。目前,還沒有這樣的權(quán)威來源禁止致命的自主系統(tǒng),相反,各國正在初步探索這種系統(tǒng)的能力。
現(xiàn)行法律體系下對于人工智能的法律人格規(guī)制缺位,學(xué)界亦對其是否具有法律人格持不同的態(tài)度。隨著人工智能的不斷發(fā)展,新一代的人工智能武器逐漸興起,此類新式武器的出現(xiàn)勢必會引起不法之人利用該武器實施犯罪,給社會帶來巨大的危險性。面對人工智能時代已經(jīng)或可能出現(xiàn)的刑事風(fēng)險,對刑法進行一定的修正和完善是我國現(xiàn)階段的當務(wù)之急,然而我國目前在這一領(lǐng)域仍存在制度空白的缺陷。結(jié)合我國的國情,既可以在原有犯罪的基礎(chǔ)上對人工智能犯罪進行定位,也可以增設(shè)濫用人工智能罪,同時考慮到我國對此類新式犯罪的立法經(jīng)驗不足,可通過借鑒國際法的方式完善國內(nèi)立法,形成國內(nèi)法與國際法相統(tǒng)一的局面。
注釋:
①2011 年最高人民法院、最高人民檢察院《關(guān)于辦理危害計算機信息系統(tǒng)安全刑事案件應(yīng)用法律若干問題的解釋》第一條規(guī)定,獲取支付結(jié)算、證券交易、期貨交易等網(wǎng)絡(luò)金融服務(wù)的身份認證信息10組以上的,或除此以外的身份認證信息500組以上的,屬于“情節(jié)嚴重”的情形。