社區(qū)矯正是指將符合社區(qū)矯正條件的罪犯置于社區(qū)內(nèi),由專門的國家機關,在相關社會團體和民間組織以及社會志愿者的協(xié)助下,在判決、裁定或決定確定的期限內(nèi),矯正其犯罪心理和行為惡習,并促進其順利回歸社會的非監(jiān)禁刑罰執(zhí)行活動。社區(qū)矯正是我國司法體系中的重要組成部分,對維護司法公正,促進社會公平有著關鍵的作用。它包含調(diào)查評估、交付執(zhí)行、監(jiān)督管理、教育矯正等環(huán)節(jié),涉及法學、心理學和社會學等多個學科交叉內(nèi)容,需要大量的人力物力參與其中。社區(qū)矯正由司法機關管理,社區(qū)矯正局和司法所具體承擔。近年來,大數(shù)據(jù)、人工智能、互聯(lián)網(wǎng)等科技手段進入司法系統(tǒng),使得傳統(tǒng)司法方式發(fā)生變動。例如取證階段的電子取證與數(shù)據(jù)恢復,審判階段的文書自動化,管理階段的監(jiān)控定位,都因大數(shù)據(jù)、人工智能的引入促進了司法工作的質(zhì)變和突變,并進一步提高了司法的辦案效率和透明度。
人工智能時代要求我們冷靜面對變化,順應時代的要求,主動結(jié)合社區(qū)矯正的特點引入人工智能。社區(qū)矯正人工智能化的先行先試效果如何?人工智能主體的責任何在?人工智能是機器還是人?應該怎么規(guī)制?現(xiàn)行法律在社區(qū)矯正中準確定位人工智能責任方面顯然具有一定滯后性。本文擬對人工智能在社區(qū)矯正適用中的相關問題展開分析,借以明確人工智能應用于社區(qū)矯正時區(qū)別于其他智慧司法的主體互動性、完整流程的獨特性、責任的關聯(lián)性。
人工智能(Artificial Intelligence),英文縮寫為AI,是一種通過研究和開發(fā)科學技術(shù),模仿與擴展人的智能的一種創(chuàng)新性科學理論和技術(shù)。[注]許曄 :《下一代人工智能:引領世界發(fā)展的新興驅(qū)動力》,《人民論壇·學術(shù)前沿》 2017年第10期下,第18頁。數(shù)字科技的迅疾生長,使人工智能技術(shù)在法學領域也受到廣泛重視。傳統(tǒng)非技術(shù)法學研究途徑與新興的人工智能技術(shù)碰撞與融合也給社區(qū)矯正的完善帶來新的思路。
近幾年來,針對我國社區(qū)矯正普遍存在的人員不足、參與不足、規(guī)范化水平差等問題,已有部分省市開始將人工智能應用于社區(qū)矯正司法實踐。截止2017年4月,已經(jīng)有北京、上海、廣東、四川等23個省市或地區(qū)開始在社區(qū)矯正中試點信息化平臺和人工智能。[注]司法部政府網(wǎng):《社區(qū)矯正信息化建設情況及下一步工作安排》,http:∥www.moj.gov.cn/organization/content/2017-04/21/sqjzjsjxw_4209.html。廣東省司法廳搭建“智慧社區(qū)矯正”平臺,以大數(shù)據(jù)、互聯(lián)網(wǎng)和物聯(lián)網(wǎng)等為支撐,覆蓋社區(qū)矯正全過程。[注]法制網(wǎng):《廣東省司法廳——“智慧社區(qū)矯正”信息化體系》,http:∥www.legaldaily.com.cn/zt/content/2018-06/19/content_7572793.htm?node=92483。浙江省溫州市研發(fā)了社區(qū)矯正執(zhí)法監(jiān)管系統(tǒng),將社區(qū)矯正工作規(guī)范于依法有序的軌道內(nèi)。社區(qū)矯正執(zhí)法監(jiān)管系統(tǒng)以大數(shù)據(jù)服務為支撐,依托于司法部門的信息平臺,以實時動態(tài)監(jiān)管與視頻核對的方式,確保執(zhí)法監(jiān)管信息的透明與真實。[注]浙江檢察網(wǎng):《運用大數(shù)據(jù)平臺對社區(qū)矯正工作實時監(jiān)督》,http:∥www.zjjcy.gov.cn/art/2018/4/23/art_28_56106.html。四川省成都市司法局創(chuàng)新性研發(fā)并試點“社區(qū)矯正監(jiān)管機器人”,在“互聯(lián)網(wǎng)+社區(qū)矯正”的模式下,開啟“AI人工智能+社區(qū)矯正”新模式?!吧鐓^(qū)矯正監(jiān)管機器人”被賦予“生命力”,由機器人代替社區(qū)矯正工作人員的工作。具體而言,“社區(qū)矯正監(jiān)管機器人”發(fā)揮著如下不同于社區(qū)矯正工作人員的優(yōu)勢:一是日常管理便捷化。通過在人工智能系統(tǒng)中“錄入指紋”“聲音采集”“人臉采集”,即時掌控社區(qū)服刑人員的區(qū)域定位、學習階段及社區(qū)服務實施進程情況。二是定位監(jiān)控無縫化。利用人工智能系統(tǒng),社區(qū)服刑人員定位數(shù)據(jù)得以實時更新,定位設備狀況得以實時監(jiān)管,使得24小時電子“人眼”監(jiān)控具有可實踐和可操作性,并能在服刑人員違反活動區(qū)域限制或游離在限制邊界時啟動自動報警或預警機制,以確保人工智能定位監(jiān)管的多方位覆蓋。三是學習教育靈活化。社區(qū)矯正服刑人員可以按照不同管理類別由系統(tǒng)分別推送相匹配的學習教育內(nèi)容,并提供學習課程配套測試,以保證服刑人員對矯正教育學習的落實。系統(tǒng)對測試數(shù)據(jù)進行分析并導出結(jié)果即時傳送給社區(qū)矯正工作人員及測試參與者,以達到信息的實時更新和互通。四是心理評估全程化。人工智能系統(tǒng)在監(jiān)管過程中,可以對社區(qū)服刑人員的心理狀況進行掌握,并及時讓社區(qū)服刑人員完成心理評估測試,提供有效建議。[注]中華人民共和國司法部:《成都試點運行“社區(qū)矯正監(jiān)管機器人” 開啟“AI人工智能+社區(qū)矯正”新模式》,http:∥www.moj.gov.cn/organization/content/2018-09/18/sqjzjsjxw_39962.html。
人工智能技術(shù)與司法大數(shù)據(jù)互為表里,相互融合。我國現(xiàn)已建立了較為完善的司法大數(shù)據(jù)平臺,涵蓋了司法裁判文書、庭審、刑罰執(zhí)行等多個環(huán)節(jié)。然而,司法大數(shù)據(jù)的獲取并非最終解,數(shù)據(jù)的堆積也不能單獨生效,將司法大數(shù)據(jù)“智慧化”運用才是最終目的,而這一轉(zhuǎn)換的工具與載體便是人工智能技術(shù)的應用。[注]潘庸魯:《人工智能介入司法領域的價值與定位》,《探索與爭鳴》2017年第10期,第103頁。當前,已有部分社區(qū)矯正機構(gòu)嘗試打造信息化監(jiān)管平臺,逐步構(gòu)建以大數(shù)據(jù)為牽引,以人工智能為驅(qū)動的新型社區(qū)矯正模式。司法機關結(jié)合自身的工作特點,從廣度與深度的層面融合現(xiàn)代信息技術(shù),構(gòu)建司法運行的新模式。2016年12月30日,司法部印發(fā)《關于進一步加強司法行政信息化建設的意見》,其中第8條“大力推進執(zhí)行和矯正管理平臺建設”中提及人工智能等相關概念。2017年4月21日,司法部印發(fā)的《社區(qū)矯正信息化建設情況及下一步工作安排》也提到要發(fā)揮科技產(chǎn)品的信息化平臺優(yōu)勢。從定位上看,社區(qū)矯正人工智能是信息化的一項工作;從產(chǎn)品特性上看,社區(qū)矯正人工智能是為了數(shù)據(jù)的流轉(zhuǎn),也是一種信息化的表現(xiàn)。將人工智能定位為信息化工具后,可與社區(qū)矯正工作形成如下結(jié)合:一是基礎硬件的搭建及大數(shù)據(jù)平臺構(gòu)建;二是軟件系統(tǒng),例如監(jiān)督管理、教育評估等分析軟件的開發(fā)與使用;三是軟硬件結(jié)合比如機器人、智慧系統(tǒng)整合載體的試用;四是運行規(guī)范體系、完整工作模式的形成。
(三)理論考察:一般機器人的行為特征
霍布斯在《公民論》中曾明確把人和人類社會假定為機器,認為二者通過部件、系統(tǒng)、材料的劃分和運動組合在一起。國家權(quán)利和公民義務,根據(jù)不同的成分,合理構(gòu)建在一起并形成整體的結(jié)合。[注]霍布斯:《論公民》,應星、馮克利譯,貴陽:貴州人民出版社,2002年,第9頁。1611年出現(xiàn)了“機器人”(Automaton)一詞,用以指代最早期的機器模型人偶,機器開始逐步模仿人的大腦與思想。1886年出現(xiàn)Android(人型機器)一詞,其詞根是古希臘的andro(人)和eides(形狀),標志著類人形的機器或模型進入人們的生活中。[注]呂超:《西方科幻小說中的機器人倫理》,《外國文學研究》2015年第1期,第34頁。
在工業(yè)化時代,機器的主要作用是幫助人完成一部分體力活動。而到了人工智能階段,機器便是智能的自然延伸,其目的在于分擔人類的部分腦力勞動?,F(xiàn)代社會以大數(shù)據(jù)、互聯(lián)網(wǎng)、物聯(lián)網(wǎng)等為支撐的人工智能,已經(jīng)可以將體力活動和腦力活動初步集合在一起,通過機器本身的記憶力與運算能力,處理數(shù)據(jù)并作出決定,更類似于完整的“人”。人工智能作為新型工具,在社區(qū)矯正中可起到系統(tǒng)化數(shù)據(jù)分析、縮短社區(qū)矯正工作周期、科學合理配置任務、提高監(jiān)督管理效率并降低監(jiān)管誤差、形成科學的聯(lián)動機制等作用。
在社區(qū)矯正中利用人工智能,可以在原有的社區(qū)矯正信息平臺基礎上,鏈接調(diào)查評估系統(tǒng)、實時定位視頻核查系統(tǒng)及大數(shù)據(jù)日常管理系統(tǒng)等,集合全部數(shù)據(jù)。社區(qū)矯正需要匯總公安、檢察院、法院、監(jiān)獄等多方的相關數(shù)據(jù),結(jié)合矯正過程中的實際情況,形成一套詳細的監(jiān)管信息,使對社區(qū)服刑人員及特殊人群的監(jiān)管做到可查、可控、可幫、可管。雖然人工智能具有優(yōu)勢,但在應用于社區(qū)矯正的司法實踐時仍存在問題。首先,人工智能是否能夠在社區(qū)矯正中代替社區(qū)矯正工作人員;其次,人工智能在社區(qū)矯正中是否可以獨立作為主體承擔相應責任?以上問題關涉人工智能應用于社區(qū)矯正的合理性、合法性,因此有必要對其主體責任進行相關考察辨析。
責任能力是判斷能否對行為人進行法的非難的前提,人工智能是否像自然人或法人一樣具備主體資格是其能否作為獨立的責任主體的前提。具有獨立意識的智能機器人,其行為具有自主性,且能根據(jù)客觀的情形作出相應判斷從而實施一定行為。一旦智能機器人的行為侵犯他人人身、財產(chǎn)或精神利益,應如何予以追責,決定其能否在社區(qū)矯正中無礙適用。
在分析社區(qū)矯正人工智能的法律責任時應首先明確把握社區(qū)矯正人工智能的法律地位,然后根據(jù)實施行為的主體及具體行為特征確定法律責任。就社區(qū)矯正人工智能主體法律地位而言,相關研究甚少。特定功能的實現(xiàn)是法律賦予某類社會存在民事主體地位的重要依據(jù)之一。[注]張文顯:《法律責任論綱》,《吉林大學社會科學學報》1991年第1期,第25頁。如以網(wǎng)約車平臺法律地位的探討類比,二者的相似點都是并非公司直接運作,而是借助平臺運作實現(xiàn)功能。社區(qū)矯正人工智能作為在司法機關和監(jiān)管對象之間的一種媒介,其主體的法律地位似可借鑒網(wǎng)約車平臺法律地位中占主流觀點的中介和居間人說,以中介和居間法律關系來看待責任問題。同一主體實施的行為,行為相同,則責任相同,行為不同,則責任不同。一般而言,法律責任當涉及民事、刑事、行政三方面,但因社區(qū)矯正屬于非監(jiān)禁刑刑罰,行政責任不在其中。余此,便需要在民事部分中分析代理人的相關權(quán)責,厘清侵權(quán)責任問題,并在刑事部分分析刑事責任主體的確立,以保護和遵循兩者,實現(xiàn)社區(qū)矯正人工智能的應用價值。
將人工智能認定為主體的理論,現(xiàn)階段也得到部分專家認可。2016年歐洲議會就向歐盟提出:制定民事規(guī)范來限制機器人的生產(chǎn)和市場流通。建議明確指出,未來機器人發(fā)展會非常迅速,需要在合適的時候,明確機器人的特殊法律地位。當自動化機器人被確認享有電子人(electric persons)的法律地位的同時,需要明確規(guī)定它有責任彌補自己造成的傷害。對未來可能出現(xiàn)的電子人格(electronic personality),也需要未雨綢繆作好法律應對。2017 年2月的《歐盟機器人民事責任法律規(guī)則》中出現(xiàn)了“非人類的代理人”概念。[注]The European Parliament,“With Recommendations to the Commission on Civil Law Rules on Robotics (2015/2103 (INL))”,http:∥www.europa.europa.eu/doceo/document/A-8-2017-0005_EN.html?redirect.和以往說法相區(qū)別的是,該概念明確了人工智能體是一個有目的性的系統(tǒng),從側(cè)面肯定了人工智能體具有一定的法律人格。
社區(qū)矯正人工智能的工作流程涉及監(jiān)管對象常居地的調(diào)查、家庭主要成員家庭情況的收集、受害人的諒解書或民事調(diào)解書的匯總等。以上內(nèi)容皆屬民事問題,涉及民事主體責任。社區(qū)矯正人工智能不是法律規(guī)定的一類主體,客觀上也不能成為民事法律意義上的獨立主體。因為在社區(qū)矯正中,如果將人工智能解釋為責任主體,將在法律系統(tǒng)中產(chǎn)生一種開放構(gòu)造的風險(open texture risk),[注]陳吉棟:《論機器人的法律人格——基于法釋義學的討論》,《上海大學學報》2018年第5期,第84頁。即更多的法律詞語都將沒有固定的意思,因為對其的解釋會隨著特定領域、觀察視角、時間階段發(fā)生變化,這將導致法律解釋出現(xiàn)極大的不確定性,無法實現(xiàn)法律效用。但是,筆者注意到,社區(qū)矯正人工智能和操作機器人的工作人員之間的關系對應過來符合代理關系中本人與代理人的關系特征。根據(jù)相關法律法規(guī),具有代理人資格的人,必然是具有法律的主體地位且具有一定行為能力的人。代理人的行為需要負有法律責任,并且該行為的結(jié)果也需要歸根于本人。[注]根據(jù)《民法總則》的相關規(guī)定,是指代理人以被代理人(又稱本人)的名義,在代理權(quán)限內(nèi)與第三人(又稱相對人)實施民事行為,其法律后果直接由被代理人承受的民事法律制度。代理人在代理權(quán)限范圍內(nèi)實施代理行為。代理人以被代理人的名義進行代理行為。代理主要是實施民事法律行為。被代理人對代理人的行為承擔民事責任。人工智能體作為所謂代理人的時候,是依據(jù)自身命令行動的,按代理法律責任應當由本人承擔相應的義務。當然,一定程度上來說,把社區(qū)矯正人工智能作為人類代理人的觀點,本質(zhì)上也是認可了人工智能的民事主體地位。
如前所述,社區(qū)矯正人工智能在工作過程中,將會接觸社區(qū)服刑人員的基本信息和矯正報告、社區(qū)工作人員的監(jiān)管名單、村委會或居委會的意見及社區(qū)矯正服刑人員擔保人情況等重要資料。侵權(quán)的主體包括:社區(qū)服刑人員、社區(qū)工作人員、提供意見的村委會或居委會及社區(qū)服刑人員的擔保人。侵權(quán)的行為可能是:社區(qū)服刑人員的信息泄漏、村委會或居委會的管理泄露、擔保人的身份泄漏等。社區(qū)矯正人工智能侵犯隱私有兩種情形:一是被他人非法侵入社區(qū)矯正人工智能系統(tǒng),盜取信息數(shù)據(jù);另一種則是由于系統(tǒng)本身的錯誤導致隱私泄露。當社區(qū)矯正人工智能作為工具的時候,由侵權(quán)人承擔法律責任;而當社區(qū)矯正人工智能自身原因?qū)е码[私泄露時,就需要探討相應歸責問題。
社區(qū)矯正中的相關數(shù)據(jù)資料,基本上都為保密層級。如果在社區(qū)矯正中過度濫用人工智能,導致人工智能失控、數(shù)據(jù)丟失與公開,造成監(jiān)管混亂,制造者和使用者都應負有相應的監(jiān)督和監(jiān)管責任。與“無人駕駛”汽車類似,如果自動駕駛模式在運行過程中發(fā)生事故,依據(jù)《產(chǎn)品質(zhì)量法》的規(guī)定,[注]我國《產(chǎn)品質(zhì)量法》第 43 條規(guī)定:因產(chǎn)品存在缺陷造成人身、他人財產(chǎn)損害的,受害人可以向產(chǎn)品的生產(chǎn)者要求賠償,也可以向產(chǎn)品的銷售者要求賠償。屬于產(chǎn)品的生產(chǎn)者的責任,產(chǎn)品的銷售者賠償?shù)?,產(chǎn)品的銷售者有權(quán)向產(chǎn)品的生產(chǎn)者追償。屬于產(chǎn)品的銷售者的責任,產(chǎn)品的生產(chǎn)者賠償?shù)?,產(chǎn)品的生產(chǎn)者有權(quán)向產(chǎn)品的銷售者追償。責任歸于汽車制造商。但如果自動駕駛系統(tǒng)在出現(xiàn)問題前,已及時發(fā)現(xiàn)問題并向駕駛員提出警報,責任便轉(zhuǎn)移到汽車駕駛員身上。如果社區(qū)矯正人工智能系統(tǒng)已經(jīng)發(fā)出人工監(jiān)管請求或預警提醒,而社區(qū)矯正工作人員沒有及時處理,將負有連帶責任。
歸責原則是侵權(quán)案件中的基本準則,也是責任人承擔責任的依據(jù)和基礎。[注]《侵權(quán)責任法》中第6條和第7條確立了歸責原則體系由過錯責任原則和無錯責任原則組成。鑒于當前我國的法律規(guī)定并未明晰社區(qū)矯正人工智能的民事權(quán)利能力,無法探尋其在侵權(quán)關系中是否具有過錯。基于侵權(quán)責任法保護受害人權(quán)益之圭臬,有損害必有責任,當過錯責任無法適用于社區(qū)矯正人工智能侵權(quán)情形時,可以根據(jù)實際情況,采取法律規(guī)定的無過錯責任適用的情形予以規(guī)制。
倘若社區(qū)矯正人工智能在工作流程中導致信息嚴重泄漏,可能構(gòu)成刑法上的侵犯公民個人信息罪、拒不履行信息網(wǎng)絡安全管理義務罪等罪名。如果社區(qū)矯正人工智能自身成為刑事責任主體,那么應該如何予以法律規(guī)制呢?在程序的設計和運用上面,可以把社區(qū)矯正人工智能劃分為兩類。一種是不具備獨立的辨認和控制能力的社區(qū)矯正智能機器人,只能在程序規(guī)定的范圍內(nèi)運行;另一種則是具備基本的自我辨認能力和控制能力的社區(qū)矯正人工體,可以在程序范圍外自我運行。辨認能力和控制能力即為刑事責任能力,具有刑事責任能力的行為人即可成為刑事責任主體。[注]劉憲權(quán)、朱彥:《人工智能時代對傳統(tǒng)刑法理論的挑戰(zhàn)》,《上海政法學院學報》2018年第2期,第48頁。我國現(xiàn)行的法律法規(guī)中,并沒有明確應對具有主體資格的社區(qū)矯正人工智能進行何種限制。假設社區(qū)矯正人工智能具有刑事責任主體的地位,即便在系統(tǒng)數(shù)據(jù)設計中增加刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰,也無法實現(xiàn)刑罰的目的與功能。刑罰對于社區(qū)矯正人工智能并不能起到威懾、教育、感化的一般預防功能,也無法實現(xiàn)預防目的。社區(qū)矯正人工智能是否可以像法人一樣,在刑法中作為主體受到規(guī)制,其關鍵在于分析客觀上造成法益侵害結(jié)果的社區(qū)矯正人工智能是否具備可追究刑事責任的主體意志自由。[注]時方:《人工智能刑事主體地位之否定》,《法律科學》2018年第6期,第72頁。
首先是主體監(jiān)管問題。社區(qū)矯正人工智能看似是制度完備的嚴密整體,但也可能出現(xiàn)漏洞。比如人的監(jiān)管疏忽、機器事故、社區(qū)服刑人員的有意破壞等。作為工具的人工智能,不具有法律評價意義上的行為認識與控制要素的自主性,也就不具有人的目的理性所支配的基礎,欠缺作為責任主體的本質(zhì)要素。在社區(qū)矯正人工智能的責任歸屬上,致害路徑是決定該人工智能的所有人(占有人) 承擔責任的關鍵。因此,在社區(qū)矯正人工智能的監(jiān)管上,應加大監(jiān)管和干預的力度,保障受害者權(quán)益,并且建立明確的規(guī)章制度,確定社區(qū)矯正人工智能的設計者和部署者承擔應有的責任。[注]吳漢東:《人工智能時代的制度安排與法律規(guī)制》,《法律科學》2017年第5期,第131頁。
其次是倫理道德問題。人工智能技術(shù)發(fā)展迅速,催生了新的道德關系:人與機器之間的道德關系;人機與人的道德關系;人機與人機的道德關系。人工智能技術(shù)與傳統(tǒng)社會倫理價值觀之間的交互作用,產(chǎn)生了新的秩序,進而顯現(xiàn)出了倫理與技術(shù)的不一致性。[注]藍江:《人工智能與倫理挑戰(zhàn)》,《社會科學戰(zhàn)線》2018年第1期,第45頁。由于社區(qū)矯正人工智能的復雜性,設計者易于忽視該系統(tǒng)應有的倫理屬性,因而無法作出恰當行為。同時,伴隨著社區(qū)矯正人工智能實體深度學習、強化學習能力的不斷加強,可能會構(gòu)建其自身的道德子程序,來適應不同的語境和環(huán)境,并以此為標準進行監(jiān)督管理,給社區(qū)服刑人員帶來無意識侵犯或無意識歧視。因此需要防止社區(qū)矯正人工智能技術(shù)的異化,解決技術(shù)發(fā)展與安全之間存在的矛盾問題,確保技術(shù)運用始終圍繞合規(guī)合理的范圍進行。
第三是責任免除問題。不同于一般民事主體責任,社區(qū)矯正人工智能本來就服務于執(zhí)行刑罰,因此,需要在管理中適當利用信息,分析個案情況,以服務社會管理和滿足秩序價值需要。此種情形下,就涉及責任的免除問題。因此,把握好合理使用與濫用的界限尤為關鍵,認定其不超越主體使用權(quán)限、信息收集權(quán)限、數(shù)據(jù)處理權(quán)限、監(jiān)管行為權(quán)限的爭議,應當在一定限度內(nèi)賦之以責任豁免。
法律對社區(qū)矯正人工智能現(xiàn)實問題的解決,關乎人與機器未來發(fā)展的走向,顛覆傳統(tǒng)時代人們對機器的淺顯認識,以及人機交互的相處方式。雖然在社區(qū)矯正的引入過程中,現(xiàn)階段人工智能并沒有體現(xiàn)出太多的挑戰(zhàn)或威脅,技術(shù)發(fā)展的速度還不至與現(xiàn)行法律制度剝離、脫節(jié),但其法律隱患不容忽視。社區(qū)矯正人工智能可否成為責任主體,并不取決于其是否具有獨立人格或權(quán)利能力,而取決于現(xiàn)實社會的需要和既存事實的強化。
無論如何,人工智能引入社區(qū)矯正還處于探索階段。法律雖然是滯后的,但可根據(jù)社會現(xiàn)實作出調(diào)整。社區(qū)矯正人工智能是社區(qū)矯正的工具和媒介,其責任之承擔最終依然歸于與人工智能相關的自然人、法人或其他組織。所以,借助對社區(qū)矯正人工智能主體責任的分析,可以制定行之有效的規(guī)制路徑,約束與引導人工智能在社區(qū)矯正中的運用。