国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

風險刑法觀投射下人工智能問題處理探究

2021-01-06 07:48黃夢茜
天水行政學院學報 2021年5期
關鍵詞:罪名使用者刑法

黃夢茜

(重慶大學,重慶420000)

一、人工智能問題的發(fā)展與挑戰(zhàn)

我們正在進入一個高度發(fā)展的人工智能時代,從對話型的語音精靈到功能性的無人駕駛汽車,智能電器智能設備智能工具無不出現(xiàn)在我們生活的角角落落。感慨于技術的日益革新進步帶來越來越便捷的生活之外,也同時擔心著人工智能對人的反噬。人們將人工智能稱為一個“時代”不僅僅是因為人工智能技術的提升與應用改變了人們社會生活的方方面面,更在于人工智能呈現(xiàn)出了以往從未有過的特征,即主體性、人格性、創(chuàng)造性等特征,在機器人不斷發(fā)展越來越能代替人類工作的情況下,我們也發(fā)現(xiàn)著人工智能進入我們的視野會帶給社會以新的挑戰(zhàn),從機器人索菲亞取得第一個公民身份后,紹興判決審理第一例利用人工智能犯罪的案件后,甚至現(xiàn)在的特斯拉人工輔助駕駛系統(tǒng)的更廣泛推進,不難發(fā)現(xiàn)人工智能在帶給人們生活進步的同時,也無不帶來著眾多法律問題與社會問題。

二、風險刑法觀下的刑事法律政策對人工智能的投射

(一)風險社會及風險刑法刑事對策

一些學者提出了刑法作為防衛(wèi)社會的最后一道防線,其不能一昧的退讓,“非犯罪化的推進,并不等于刑法的進步?!庇绕涫前殡S著科學技術發(fā)展,不確定因素更多的出現(xiàn),風險一詞的出現(xiàn)頻率也更加高。當因風險刑法理論在風險社會的影響下應運而生,這種觀點下為更好地抵御不確定的社會風險的發(fā)生,保障公民個人的人身財產(chǎn)的安全,對于危害社會安全的行為在即使沒有出現(xiàn)法益侵害結(jié)果之時,也應動用刑罰,主張法益保護的提前以及刑罰適用的前置。這一理論最大的影響就是將刑罰的目的從消極的一般預防論轉(zhuǎn)變?yōu)榉e極的一般預防論,側(cè)重于對于危害社會的犯罪行為的提前預防與控制。對于風險社會的到來,我們必須有所作為,這是由風險的不確定性及其社會危害性所決定的,這也使得一些學者認為刑法應當提前介入到社會風險的防控當中去,“風險規(guī)制將不再退縮在實害的范圍內(nèi),而將以主動出擊的方式,對風險制造要素進行事前的規(guī)制和調(diào)整,以達到風險預防的目的?!?/p>

日本著名刑法學者森下忠指出,第二次世界大戰(zhàn)后,世界各國的刑事政策朝著兩個不同的方向發(fā)展,這種現(xiàn)象稱為刑事政策的兩極化。處于現(xiàn)階段的社會采用寬嚴相濟刑事政策是解決風險的最好辦法,這是適應生活的發(fā)展變化,實現(xiàn)法權最大化,實現(xiàn)社會和諧和世界刑事政策變化趨勢的要求。將這一理論用之我國也正是恰當。處于轉(zhuǎn)型關鍵時期的中國,不僅具有風險社會所具有的一般風險,而且還有貧富懸殊、社會分化嚴重等獨特的重大風險。就如何應對風險,理論上不僅存在全面冒進、固步自封、折衷模糊等幾種錯誤傾向,而且還有強調(diào)一般風險,忽視中國特有風險;突出科技發(fā)展導致的風險等傾向??陀^現(xiàn)實的發(fā)展變化、建設和諧社會的客觀要求以及世界刑事政策的發(fā)展趨勢表明,寬嚴相濟的兩極化刑事政策才是應對中國社會風險的恰當選擇。

(二)風險刑法對人工智能問題的投射

雖然,對風險社會的提法本身存在一些爭論的觀點,比如黎宏教授就覺得該理論有違背罪刑法定原則與侵害人權之嫌,但在人工智能問題上,作為新興的高科學高技術,風險一定是存在而不可預知的,這正是風險刑法應該關注到投射到的領域,筆者認為風險刑法可以用,也更應該將此用到類似人工智能這一高風險高不可預知性領域。將風險刑法這一大的觀點投射在人工智能領域來討論刑法規(guī)制問題并不當然的意味著應該輕罪化,也不意味著將刑法塞滿社會的方方面面,而只是針對高風險的領域進行積極的預防,以防治未來不可估計的社會風險,這也正契合了刑法作為保障法預防的功能,我們要求的不是面面俱到而只是法網(wǎng)恢恢疏而不漏,對具有社會危害性對現(xiàn)實社會有威脅或有潛在威脅的東西進行提前的預防符合刑法的目的,因此,將人工智能納入刑法的視角,這并非完全挑戰(zhàn)突破傳統(tǒng)刑法,而帶來的意義是對現(xiàn)有科技和法律倫理的反思,在面對現(xiàn)行科技不斷發(fā)展的情境之下,刑法自不應當持漠視的態(tài)度,強人工智能時代終會來臨,因此做刑法上的關于人工智能犯罪的討論并非無稽之談,而是具有前瞻性的必要之舉。

三、風險刑法下人工智能的刑事責任問題

(一)刑法應回歸到對人本身的規(guī)制

第一,單位犯罪成為主體并不意味著無生命體征的物品可以隨意進入刑法的范圍。不少學者提出的說服點在于無血無肉的單位犯罪都能被考慮成為主體,那么人工智能又何嘗不可?筆者認為考慮某種立法的背后一定要去深究原理以及當時社會環(huán)境從而從目的論出發(fā),而不可僅僅看到本質(zhì)加以比較。我國將單位犯罪考慮入刑法是基于市場經(jīng)濟發(fā)展的不得已之選,并且已經(jīng)顯現(xiàn)出一些質(zhì)疑的聲音,首先,單位是一個不具有肉體,靈魂的無實體,它的運作完全是基于其中的自然人,雖然被稱作法人,但是所有的決策是一個組織所作,單位的設定初衷是否是為了盈利還是犯罪并非其自由選擇,從某種意義上說,單位僅僅是自然人參與操縱經(jīng)濟生活的組織,它的一言一行包括章程內(nèi)容均由自然人決定,實質(zhì)上也可以看做成對人的行為進行的規(guī)范。其次,單位犯罪更多的還是基于國家的一種社會管理,是市場經(jīng)濟發(fā)展的產(chǎn)物,它的出現(xiàn)并不意味著單位是具有自由意志的實體,而是國家權力對于社會控制和社會治理的需要,從根本上來說,通過將單位作為主體最開始的原因一方面是為了防止單位成為法外之地,另一方面也是防治自然人利用單位作為保護規(guī)避刑事責任。最后,事實上現(xiàn)階段的單位犯罪并沒有很好的預防犯罪,反而淪為了保護自然人犯罪的保護傘,對單位多采用的罰金刑甚至是起到了更好的減輕了犯罪行為人的壓力的作用。

第二,強人工智能時代的出現(xiàn)不應當是當今刑法規(guī)制的范圍。我們不否認科學界或者是法律界對人工智能時代的預測,或許我們終將進入強人工智能時代,可是強人工智能時代是否還需要刑法去調(diào)整還是個未知數(shù)。我不認為刑法的前瞻之舉應該足以考慮到未來很長一段時間不可能發(fā)生的情況,我們所談的風險刑法和前瞻設置只是針對現(xiàn)有社會極大可能出現(xiàn)的情況進行提前立法,但法律事實上卻往往具有滯后性,這是社會發(fā)展和法律進步必不可少也無可避免的。人類的意識本身便對未來的事只能有粗淺的預知,而將一種理想狀態(tài)的事實規(guī)制進最嚴厲的法,是否又難逃以主觀立法之嫌;其次,強人工智能時代的到來不是法律手段能控制得住的情況,當人工智能有了自由意志,將是對人類的巨大毀滅。

風險社會由貝克最先提出,經(jīng)刑法學者的不斷探討引入到刑法的適用中,強調(diào)對未知風險的預防,而這種預防是來自公眾對于安全強烈的訴求,也就是說我們所謂的風險刑法依舊是建立在保護人的最大利益,減少內(nèi)心的不安全感的考量,因此,在人工智能的刑法規(guī)制上,著眼點也應更大程度的放在保護人懼怕新型事物的不安全感上。同時,法律是人類創(chuàng)造的產(chǎn)物,作為一個客觀的存在來規(guī)范人們的行為實現(xiàn)社會的秩序,而刑法作為保障法存在于社會更是由于其中規(guī)定的刑罰措施的威懾性,從而達到懲罰犯罪,保障人權的目的??剂啃谭ǖ囊?guī)范對象應當也必然只是人本身,人作為社會的治理者,也更是社會矛盾的制造者,無論是人工智能犯罪還是單位本身,刺破面紗后往往會發(fā)現(xiàn)起決定作用的從來都是人。法律從來只針對有血有肉的人,對機器的懲罰無論從一般預防還是特殊預防上均沒有作用,因此,將刑法的規(guī)范對象只能定位為人,這樣似乎才更符合立法目的。

(二)風險社會要求對人工智能時代產(chǎn)品質(zhì)量犯罪的擴大研究

勞東燕教授曾談到對風險最好的理解是“人為的不確定性”,張明楷教授也闡釋道即科學理性無能為力,因此一眾支持風險刑法的學者建議刑法應當抽象法益化,使得更多的行為被考慮從而有效規(guī)避風險。由此看來,適當?shù)臄U大解釋使現(xiàn)有罪名得已包容新型事物正是契合風險刑法的要求。

我國刑法第一百四十條規(guī)定了生產(chǎn)銷售偽劣產(chǎn)品的犯罪,對摻雜摻假,以假充真以次充好等不合格產(chǎn)品,按照銷售數(shù)額分別規(guī)定了不同刑期。對不合格產(chǎn)品的定義有爭議,但是對什么屬于產(chǎn)品并沒有明確說明,按照產(chǎn)品質(zhì)量法第二條:解釋所稱產(chǎn)品是指經(jīng)過加工,制作,用于銷售的產(chǎn)品。那么結(jié)合文義解釋,對人工智能也滿足經(jīng)人加工制作用于銷售的邏輯,事實上也是具有產(chǎn)品的外在特點的,也可以理解為一種社會發(fā)展下擴大的產(chǎn)品模式,因此對刑法有關產(chǎn)品質(zhì)量的犯罪,包括但不限于一百四十條的內(nèi)容也同樣可以進行適用。

具體來說,產(chǎn)品質(zhì)量犯罪主要規(guī)制的是生產(chǎn)銷售者,那么對于生產(chǎn)者來說,生產(chǎn)商若是本身具有生產(chǎn)偽劣產(chǎn)品的主觀認識和客觀行為,由此而導致的生產(chǎn)出的人工智能造成的犯罪問題,應當由生產(chǎn)者承擔相應刑事責任,但若是生產(chǎn)者在設計人工智能體的時候本著造福社會,但卻過失性的未安裝相關安全設備導致的人工智能犯罪案件,應該以過失罪名處理,同理,若是出現(xiàn)不能預見的情況,也只能對生產(chǎn)者論以無罪。對銷售者來說,若是滿足主觀明知客觀銷售的要件,也可適用該條進行規(guī)制。

接踵而來的問題是數(shù)額犯如何適用人工智能。這并不是一個很難解決的問題,因為當把人工智能看作產(chǎn)品時,其生產(chǎn)銷售是需要一定成本與投入的,將此考慮進去,也可給人工智能進行定價,比如現(xiàn)在我們所能看到的智能語音機器人以及無人駕駛飛機,無人駕駛汽車等都是可以用數(shù)額量化的,用數(shù)額的標準來調(diào)整人工智能產(chǎn)品的模式依舊具有可操作性,但筆者仍建議增加情節(jié)定罪,將數(shù)額并入情節(jié)之中可以有效避免諸多情況未能被考慮入內(nèi)的缺陷,也能整合主客觀標準發(fā)揮法官自由裁量權的空間進行科學定罪歸責。

(三)風險社會下人工智能涉及到的濫用責任

事實上,安全問題已化身為風險社會與刑法體系的樞紐,而風險社會正揭示著社會現(xiàn)象,由這種社會現(xiàn)象構成研究前提事實與基本語境的基礎,因此為給與公眾更多的安定感,在安全問題的預防上更應當積極化,控制在源頭之上,最大程度的實現(xiàn)罪責的功能化,以起到刑法震懾力指引保障的作用。因此,主要按照人工智能的產(chǎn)生過程分為以下三類進行討論。

第一,在技術研發(fā)階段設計者的濫用責任。技術研發(fā)階中的設計者按照其主觀想法定相關的犯罪,若是設計者以故意犯罪的目的在其設計的人工智能體上設定危害社會的行為,比如設定自動駕駛汽車隨機撞人,此時便應該以故意傷害故意殺人的罪名對設計者追責。

第二,在制造與銷售階段的制造者與銷售者的責任。大部分人工智能產(chǎn)品在投入使用中并非是出于國家大規(guī)模發(fā)展與要求設計運用,而是社會便捷發(fā)展的需要,投入市場后就需要考慮制造者與銷售者的刑事責任。若這兩類主體主觀上有明知人工智能體產(chǎn)品不符合標準或者會造成危害社會的結(jié)果卻依舊銷售,或者是虛假宣傳等,均應該追究故意犯罪的責任;而如果只是在銷售過程中存在過失,比如違反相關檢修報備的義務,此時只需要追究過失責任。

第三,使用者的刑事責任。如果在上面的過程中多個主體都盡到了相關的義務,由于使用人工智能體的使用者采取錯誤的操作而達到的犯罪目的,此時應該追究使用者的故意犯罪或者過失犯罪責任。比如我國審理的第一起人工智能犯罪,就應當追究利用人工智能盜取他人信息的此類責任。

而在研發(fā)者與使用者共同犯罪的問題上,具體來說,也不外乎五種情況:第一,研發(fā)者在設計人工智能的時候便只賦予了其實施犯罪行為的能力,那么無論后面人工智能是否處于自由意志實施危害社會的行為,均應按照各自故意的罪名確定;第二,研發(fā)者并未賦予人工智能犯罪的能力,僅僅是使用者利用完成相關犯罪,此時考慮使用者的故意犯罪;第三,研發(fā)者既賦予了人工智能犯罪的能力,又賦予了從事正?;顒拥淖锩?,使用者此時通過人工職能的犯罪,應當考慮研發(fā)者與使用者共同的故意;第四,研發(fā)者在背后操控的犯罪,使用者完全不知情的情況下應該追究研發(fā)者的責任;第五,研發(fā)者與使用者均無過錯,而是使用不當造成的損害,此時在過失犯罪與意外事件中去考慮定罪。

(四)風險刑法下人工智能涉及到的管理責任

在人工智能的運用中還涉及到管理責任的相關犯罪,此類犯罪與技術責任不同,這并不是設計者技術層面的討論領域(已被歸納到產(chǎn)品質(zhì)量環(huán)節(jié)),而是作為生產(chǎn)者的監(jiān)管者的領導層面犯罪。

針對普通領導者的監(jiān)督過失或是故意可以考慮類似“重大責任事故罪”等罪名,要求在生產(chǎn)、作業(yè)中違反有關安全管理的規(guī)定,因而發(fā)生重大傷亡事故或者造成其他嚴重后果的行為。而這一規(guī)定完全可以將“造成其他嚴重后果”擴大解釋為人工智能因為技術的不完善與制造的疏忽導致的社會危害行為,從而進行合理定罪量刑。

針對國家層面領導者的監(jiān)督過失可以考慮相關瀆職類犯罪,如“玩忽職守罪”。人工智能畢竟是特殊的產(chǎn)品產(chǎn)物,它的出現(xiàn)極有可能是因為國家政策導向與大環(huán)境趨勢,在技術不能達到完全可控的階段貿(mào)然決定大規(guī)模廣泛適用,此時便可追究相關國家公職人員領導者的瀆職責任。譬如現(xiàn)行的人工醫(yī)療機和無人駕駛汽車,當處于技術尚不完備,沒有達到人類基本把控的階段便要求大規(guī)模生產(chǎn)投入使用,這無疑不是過于自信的過失?

但我們也應當注意到,在風險刑法的語境下去討論此類罪名并不是擴大犯罪圈輕易的入罪化,而是在合理的考量下強調(diào)風險的必然性和高風險頻發(fā)領域。因此,我們斷然不能將某一個人工智能的犯罪輕易上升到國家擔責的層面,要基于各種利益的平衡考慮及刑法目的解釋來得出結(jié)論,我想這種思維下去判定人工智能的犯罪問題可能才能最大程度的符合常識常情常理。

四、刑法應如何具體應對

(一)對現(xiàn)有做法的析辨

1.規(guī)定人工智能主體地位的析辨。

眾多支持人工智能作為獨立主體犯罪的學者大多秉持前沿的觀點,他們認為在科技日新月異的現(xiàn)在,展望未來我們是有可能進入到更發(fā)展的智能時代的,這個時候人工智能體本身便可以自主的實施犯罪行為,單由人工智能體自身造成的犯罪結(jié)果當然的由自行負責,而針對人工智能既有意識又被自然人所控制的狀態(tài),可以參考馬治國教授設定的類比狀態(tài)進行考量,甚至可以考慮共同犯罪的理論,按照各自的行為以及損害結(jié)正犯與間接正犯的關系,在以后的刑法發(fā)展中,也可以按照人工智能程度進行再限定,果分別定罪,甚至還將共同犯罪當中的“二人以上”考慮擴大解釋為包括人工智能在內(nèi)。

筆者認為,對于此種做法在現(xiàn)行刑法可操作性是較小的。首先,大眾接納度低,把尚不明確發(fā)展的人工智能歸納進犯罪的圈子難免難以運行,人的犯罪尚存爭議更何況加入另一種并行的主體呢;其次,對人工智能界定為主體后的規(guī)制尚不明確,從刑罰論的角度來說,對人工智能處以刑罰毫無價值,其既無生命權又無感知力,刑罰的預防作用對其微乎甚微;最后,對人工智能考慮的刪改數(shù)據(jù)等懲罰措施更不像刑罰的處罰手段,而偏向一種人類對于產(chǎn)品的后續(xù)處理模式,更類似于民法。風險刑法的預防性并非是將一切行為都擴張到刑法,繼而上升到規(guī)定主體,改寫刑法的結(jié)構章節(jié),這是對風險刑法的誤讀,我們談到的規(guī)制是是一種可期的適當調(diào)整,避免著刑法過度造成的公眾恐慌。因此,在現(xiàn)在的弱人工智能社會,并無討論的必要。

2.增設單獨一章罪名的析辯。

也有一大部分專家學者建議在刑法中增加單獨一章罪名專門規(guī)定涉人工智能的犯罪問題,他們的理由是人工智能具有特殊發(fā)展性,與現(xiàn)存的事物皆有不同,既非機器又非人,而是智能的機器人,面對這一新型事物有增設單獨一章罪名的必要性。

正如大家討論的前提一樣,處于弱人工智能時代的我們技術并不成熟完善。刑法的罪刑法定原則便要求了要入罪必須要在該事物有基本完整的形態(tài),從而來界定它的構成要件,對一個尚不成熟的技術倉促入罪,這是對風險刑法的誤讀,實際上一部真正完善的刑法并不需要大費周折的改善,也并不需要在每次出現(xiàn)社會新問題便采用修改刑法的做法去規(guī)避,這樣反而會造成大眾對刑法的認可度降低,公信力威懾力均變小的弊端,陳忠林教授便曾說過:“我認為79年刑法就是最好的,不需要日復一日的修改。”日本的刑法從建立至今都未作幾次修改卻依舊是刑法的楷模,不得不讓我們反思。同時,我們也可以將網(wǎng)絡環(huán)境下的犯罪問題對比來看,互聯(lián)網(wǎng)的出現(xiàn)遠遠早于人工智能,其完善程度可控性都高于人工智能,于是也曾有聲音建議將網(wǎng)絡犯罪單設一章卻并未得到廣泛響應,網(wǎng)絡犯罪縱然是一個大圈子,但卻也完全可以用現(xiàn)有的罪名來規(guī)制,因此單設一章除了造成刑法條文的冗雜繁瑣似乎別無裨益。

(二)對人工智能犯罪刑法規(guī)制的新探索

人工智能作為新型的領域必須要通過刑法的手段進行規(guī)制,這是刑法目的要求,也是保障社會秩序與安定的必要方法。在風險刑法觀的視域之下,對涉人工智能犯罪系統(tǒng)的規(guī)制要從增設相關罪名和完善司法解釋兩個方面展開。

1.完善司法解釋。

風險刑法并不違反刑法謙抑性的要求,實則是對高必然風險的前瞻預見,他并非贊同所有行為入罪化,那么便要求即使是面對高風險的領域也不能隨意的適用,因此,通過司法解釋的同等效力可以對現(xiàn)有新型事物進行規(guī)范又不打亂刑法原有的框架模式,同時,按照我國憲法和立法法的相關規(guī)定,修改完善司法解釋遠比修改刑法程序簡單,如此看來對人工智能類犯罪進行司法解釋從而包容到其他犯罪當中也不失為一種恰當?shù)倪x擇。

人工智能若是能擴大解釋被包容在產(chǎn)品的圈子里面,那么針對產(chǎn)品質(zhì)量類犯罪,管理責任類犯罪便均可適用。實則只是涉及到能否被囊括從而規(guī)定在罪名里面,那么完善相關的司法解釋就是必不可少的。

比如在生產(chǎn)銷售偽劣產(chǎn)品類犯罪里面,便可以在產(chǎn)品歸類中明確確定人工智能產(chǎn)品也算當中的一種,因人工智能的造價較貴,若是由于設定的不完善導致的社會經(jīng)濟損失可能會遠比現(xiàn)有的規(guī)定數(shù)額大,因此可以對現(xiàn)有的數(shù)額進行提升或者是另作規(guī)定也或者可以直接轉(zhuǎn)變成為情節(jié)犯,達到適用的效果。

2.增設相關罪名歸納到現(xiàn)有刑法體系之中。

隨著人工智能技術的不斷發(fā)展,單純處罰有關自然人的罪名事實上在一般的情況下依舊達不到罪責相適應的原則,于是可以通過增設罪名來應對這一新型事物。

第一,可以適時增設濫用人工智能罪。該罪名的處罰對象依舊是人,但其依據(jù)的是人工智能產(chǎn)品的研發(fā)者或使用者故意利用人工智能技術實施犯罪行為時,將人工智能產(chǎn)品當作“智能工具”使用的情況,刑事責任應由研發(fā)者或使用者本人承擔。為實現(xiàn)社會以及法律效果,堅持罪責刑相適應原則,增設本罪的主觀方面應當是從故意方面對研發(fā)者和使用者的行為予以刑法規(guī)制。

第二,增設人工智能產(chǎn)品事故罪。該罪則是以對應的形式從過失犯罪方面對研發(fā)者和使用者的行為予以刑法規(guī)制。人工智能的研發(fā)者或使用者對于人工智能產(chǎn)品造成的危害結(jié)果,可能承擔過失犯罪的刑事責任,判斷標準則是根據(jù)研發(fā)或使用當時的人工智能技術發(fā)展水平,考察研發(fā)者或使用者對危害結(jié)果是否負有預見義務。在人工智能環(huán)境下,判斷人工智能的研發(fā)者和使用者是否對危害結(jié)果負有預見義務,需要考慮研發(fā)或使用當時的人工智能技術發(fā)展水平。

在刑法解決問題的過程中,可以通過一些解釋完善罪名來進行具體適用,但是嚴格遵守罪責刑相適應原則下,學者也提出從立法上的完善才能從根本是解決問題,因此提出現(xiàn)階段或許可以通過增設此類兩個罪名兩者相輔相成,最終可以實現(xiàn)對濫用人工智能行為刑法規(guī)制的立法完善。

五、余論

在目前人工智能的刑法研究上,一直存在很多的困境,比如主體問題,以及刑罰問題,眾多學者觀點不一,眾說紛紜。不可否認人工智能的出現(xiàn)對法律和社會都是一個全新的挑戰(zhàn),人工智能作為人為不確定的風險,科學理性無法解決的問題理應是風險刑法應當關注到的領域,對于高必然風險的出現(xiàn),刑法也應毫不猶豫的出手,從而給予社會公眾更實在的安定感。我們不要求刑法能夠預見未知世界的科技發(fā)展,但卻要求刑法應當跟緊科技發(fā)展的潮流,去有效規(guī)避已有端倪的犯罪,這既是風險社會下風險刑法應該有的前瞻性,也是社會發(fā)展賦予刑法保障法先行的應有之義。刑法理應走在前面,但卻并非包攬萬物疏而不漏,面對現(xiàn)在人工智能發(fā)展趨勢,似乎明確到人身上的相關責任才更為重要,限制人才能限制人工智能,規(guī)避人工智能技術帶來的犯罪問題也只能落到人本身,因此完善相關司法解釋,在現(xiàn)有框架內(nèi)增加相應罪名才是合乎情理的恰當選擇?!?/p>

猜你喜歡
罪名使用者刑法
設計讓您在喜愛的虛擬世界中自由奔跑
過度刑法化的傾向及其糾正
罪名確定制度面臨的主要問題
新型拼插休閑椅,讓人與人的距離更近
旺角暴亂,兩人被判暴動罪
“魔咒”中的韓國歷任前總統(tǒng)
抓拍神器
刑法的理性探討
刑法的宣示性:犯罪黑數(shù)給我們帶來的思考
動物蒙冤
荔波县| 清河县| 连云港市| 天等县| 正宁县| 崇信县| 乐山市| 漾濞| 吉林省| 永顺县| 犍为县| 酉阳| 唐海县| 诸暨市| 建湖县| 柳河县| 通化县| 潜山县| 克拉玛依市| 保定市| 得荣县| 安溪县| 西青区| 长寿区| 双城市| 保亭| 临海市| 安化县| 潞城市| 德庆县| 乌审旗| 汝南县| 察哈| 丰镇市| 修武县| 都兰县| 永济市| 农安县| 太湖县| 赤城县| 阆中市|