国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能機(jī)器人的刑事可罰性

2020-11-30 08:38拉塞·夸爾克王德政
中州學(xué)刊 2020年10期
關(guān)鍵詞:人工智能機(jī)器人算法

拉塞·夸爾克 王德政

摘?要:為了在人工智能的運(yùn)用中不形成刑法上的規(guī)范漏洞,必須在教義學(xué)上討論智能代理的可罰性。無論是出于法律政策還是從刑罰目的理論層面考慮,電子人地位的采用都是有意義和必要的。對(duì)實(shí)現(xiàn)一般預(yù)防目的而言,僅確定可罰性是不夠的,還必須向社會(huì)大眾明確說明已實(shí)施的不法行為之可罰性,通過盡可能適當(dāng)?shù)牧啃?,?duì)罪責(zé)非難進(jìn)行量化,具體包括進(jìn)行公益勞動(dòng)、對(duì)機(jī)器人的身體進(jìn)行干預(yù)、執(zhí)行算法所違反規(guī)范的內(nèi)容而進(jìn)行重新編程、關(guān)閉機(jī)器人。人工智能的可罰性由此成為可能。

關(guān)鍵詞:人工智能;機(jī)器人;電子人;算法;可罰性

中圖分類號(hào):D924.1?文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1003-0751(2020)10-0048-05

一、數(shù)字革命與法

在亞歷克斯·普羅亞斯的科幻小說《智能機(jī)器人》中,有這樣一幕:類人機(jī)器人桑尼對(duì)那位人類主角說自己“做夢了”。在這一幕中,人與機(jī)器之間的界限消失了。不明確的是,桑尼是一個(gè)機(jī)器人還是一個(gè)類人的生物?艾薩克·阿西莫夫著作全集中的短篇小說卷是普羅亞斯小說的淵源,從該著作全集可以看出,最晚從第二次工業(yè)革命末,人類就開始思考人工智能及其影響。很多文獻(xiàn)和電影作品都涉及智能機(jī)器及其與人類的互動(dòng),這些作者和導(dǎo)演所展示出來的幻想一般都是反烏托邦式的。從弗里茨·朗所著的被列入電影藝術(shù)類世界記憶項(xiàng)目的《大都會(huì)》,到斯坦利·庫布里克的永恒經(jīng)典《2001:太空漫游》,再到沃卓斯基姐妹的《黑客帝國》,在這些作品中,機(jī)器人和超級(jí)計(jì)算機(jī)大多被描繪成對(duì)主人公的威脅。

幸運(yùn)的是,這種風(fēng)格化其實(shí)與自然科學(xué)的小說相關(guān)。迄今為止,機(jī)器和算法始終是人類有益的幫助者,我們多年來在日常生活中是無法忽略其存在的。數(shù)字語音助手、自動(dòng)駕駛汽車、醫(yī)用或護(hù)理機(jī)器人只是少數(shù)例子,卻說明當(dāng)代科技是無處不在的。在美國,算法甚至被用來支持判例的形成。比如,幾年前罪犯埃里克·盧米斯被判處6年有期徒刑,因?yàn)樗惴ā癈ompas”證明他有很高的再犯風(fēng)險(xiǎn)。①

即使上述無論如何都存在疑問的做法導(dǎo)致產(chǎn)生了諸如機(jī)器人法官這種值得向往的幻想,所有這些例子也都令人印象深刻地說明,技術(shù)在當(dāng)今所能帶來的一切。這一點(diǎn)可能通過瞬間處理巨量的各種來源的數(shù)據(jù)而做到,這在專業(yè)術(shù)語上被稱為“大數(shù)據(jù)”。在此期間,算法所面臨的任務(wù)是處理復(fù)雜情況并進(jìn)行學(xué)習(xí)。②

(一)人工智能變得自主化

智能系統(tǒng)的學(xué)習(xí)能力超越了單純的“試驗(yàn)與錯(cuò)誤”之范疇。借助于神經(jīng)網(wǎng)絡(luò)和模仿生物性大腦結(jié)構(gòu)的電路,系統(tǒng)能同時(shí)在多個(gè)層面處理信息。③通過多種關(guān)于機(jī)器學(xué)習(xí)的擬設(shè),如強(qiáng)度學(xué)習(xí)、監(jiān)督或無監(jiān)督的深度學(xué)習(xí)等,神經(jīng)網(wǎng)絡(luò)能得到訓(xùn)練,甚至能作出決定和基于學(xué)習(xí)而富于創(chuàng)造性。④系統(tǒng)的能力由此產(chǎn)生,其自主地實(shí)施行為,無須人類的幫助就能(可能是無意識(shí)的)對(duì)很多情況和難題獨(dú)立而適當(dāng)?shù)刈鞒龇磻?yīng)。⑤這種靈活性和適應(yīng)能力蘊(yùn)含巨大的潛力。然而,人工智能未來對(duì)我們社會(huì)的具體影響,當(dāng)前還無法預(yù)見。面對(duì)幾十年來和近幾年來技術(shù)的飛速進(jìn)步,我們?cè)诓惶b遠(yuǎn)的將來,會(huì)遇到類似于本文開頭提到的極為先進(jìn)的桑尼機(jī)器人,似乎不是不可能的。

無論如何,顯而易見的是,自主化或部分自主化的人工智能通過分擔(dān)人類的特定任務(wù)或使之更容易完成,會(huì)改善我們的生活條件。⑥智能代理造成的法益侵害可能由此無法避免。這尤其適用于以下情況:智能系統(tǒng)不但不斷變得更加自主化,不再始終處于人類的監(jiān)管之下,而且不斷進(jìn)入公共區(qū)域。智能代理可能實(shí)施的越來越多的獨(dú)立行為合乎邏輯地導(dǎo)致法益侵害風(fēng)險(xiǎn)的升高。

(二)刑罰的目的是產(chǎn)生人工智能可罰性需要的出發(fā)點(diǎn)

那么,一種人工智能,比如以智能機(jī)器人的形式,侵害了一個(gè)保護(hù)法益,誰對(duì)此承擔(dān)責(zé)任?這就成為問題所在。由于人工智能的學(xué)習(xí)能力和自主性的提升,在不遠(yuǎn)的將來,這種情況是可以想象到并且很可能發(fā)生的,這種情況下的刑法結(jié)果基于各種原因不能再歸責(zé)于幕后的人,即編程者、制造者和使用者。該結(jié)果是可以想象到的,因?yàn)榍啡鳖A(yù)見可能性⑦,或者是因?yàn)?,人工智能的普遍運(yùn)用和不可能完全排除其導(dǎo)致的損害,人工智能的運(yùn)用具備社會(huì)相當(dāng)性,由此不再違反注意義務(wù)。⑧

自主性的前提恰恰在于,不依賴于人類從外部施加的影響。上述法律后果對(duì)智能代理而言是內(nèi)在的。系統(tǒng)所實(shí)施的無法預(yù)見的行為是自主性合乎邏輯導(dǎo)致的結(jié)果,在這一點(diǎn)上,人類與人工智能相同。⑨因此,法學(xué)的任務(wù)必然是,為新科技的運(yùn)用與該運(yùn)用導(dǎo)致的結(jié)果設(shè)定法學(xué)上的框架條件。這導(dǎo)致兩點(diǎn):其一,在測試環(huán)境之外去運(yùn)用新科技,編程的法學(xué)標(biāo)準(zhǔn)也能得到考慮。其二,法律問題的澄清對(duì)運(yùn)用人工智能的社會(huì)認(rèn)同之形成有決定性的貢獻(xiàn)。⑩

社會(huì)大眾形成了這樣一個(gè)印象:數(shù)字化的進(jìn)步對(duì)法學(xué)提出挑戰(zhàn),法治國原則對(duì)此沒有適當(dāng)?shù)幕貞?yīng),規(guī)范秩序的信任受到了撼動(dòng)。B11對(duì)保護(hù)法益被侵害缺乏反應(yīng)是不可容忍的。因?yàn)閷?duì)規(guī)范秩序的信任而言,需要的是全面的保護(hù),而非違反計(jì)劃的規(guī)范漏洞。刑法及其適用者無法對(duì)法益受侵害作出相應(yīng)的反應(yīng),這等于使值得保護(hù)的法益變相失效。B12沒有人能對(duì)一個(gè)刑法上的結(jié)果負(fù)責(zé),這使得法的基礎(chǔ)被撼動(dòng)。B13

刑法的目的不僅是對(duì)既有的不法情況作出反應(yīng),還在于通過這種反應(yīng)防止將來出現(xiàn)此類不法情況。B14這一方面通過作用于行為人而產(chǎn)生特殊預(yù)防的效果,另一方面通過展示給社會(huì)(刑法適用的對(duì)象)——違反法律將導(dǎo)致法治國意義上的回應(yīng),從而產(chǎn)生一般預(yù)防的效果。B15只有當(dāng)判例正式將一個(gè)行為認(rèn)定為違法行為并予以處罰時(shí),社會(huì)大眾才能全面遵守法律規(guī)范。如果人們形成這樣一個(gè)印象——可以侵害法益而無須承擔(dān)后果,刑法的目的就無法實(shí)現(xiàn)。

為了在人工智能的運(yùn)用中不以責(zé)任分散B16的方式形成刑法上的規(guī)范漏洞,必須討論智能代理的可罰性。更確切地說,討論這一問題并不取決于,是否人們不僅認(rèn)為人工智能很可能在外表上立即存在,還認(rèn)為人工智能的認(rèn)識(shí)能力很可能與人類一致。這要求法學(xué)在我們的規(guī)范之價(jià)值秩序的意義上,參與這一數(shù)字化的變革。因此,只有當(dāng)這一點(diǎn)在法益侵害中表現(xiàn)出來之后才去尋找有關(guān)人工智能問題的解決方案,從刑罰的預(yù)防目的考慮,是令人無法容忍的。對(duì)于這類問題,必須預(yù)先在教義學(xué)上進(jìn)行解釋。

二、人工智能的可罰性對(duì)刑法教義學(xué)的挑戰(zhàn)

關(guān)于刑法對(duì)智能代理的實(shí)際適用性,可以提出三個(gè)重要的批評(píng)點(diǎn)。這些批評(píng)點(diǎn)說明,我們以自然人為出發(fā)點(diǎn)的刑法教義學(xué),對(duì)于自主運(yùn)行的人工智能之運(yùn)用,還沒做好準(zhǔn)備。B17這些批評(píng)點(diǎn)即:首先,人工智能缺乏一種在刑法意義上實(shí)施行為的能力;其次,人工智能缺乏罪責(zé)能力;最后,智能代理不是刑罰的合適對(duì)象。

(一)有關(guān)人工智能的行為概念

對(duì)行為能力這一問題而言,重要的是,人們基于既定的概念理解,是多么強(qiáng)烈地想要維護(hù)有關(guān)人工智能的行為概念。實(shí)現(xiàn)這一愿望可能首先取決于,人們?cè)诙啻蟪潭壬弦?guī)范性地賦予這個(gè)概念以內(nèi)涵。由于人們以至少是潛在的規(guī)范理解(此即行為能力的前提)來看待人工智能的能力,所以該能力至少在當(dāng)前要被否定。B18智能代理還沒有這種能力去義務(wù)性地識(shí)別未知的感覺沖動(dòng)以及實(shí)施相應(yīng)的行為。只有當(dāng)人們僅要求一個(gè)舉止是在意志的支配下實(shí)施時(shí),行為的認(rèn)定才成為問題。這種意義上的意志(不同于單純的條件反射)是否必須從因果論的角度去理解,或者說,行為的成立是否要具備目的指向性即目的性,成為問題所在。B19

在此,要討論兩種情況:智能代理在多大程度上有意識(shí)地去培養(yǎng)規(guī)范理解,或者在多大程度上有能力形成指向目的之意志。技術(shù)這個(gè)術(shù)語說明,我們以人文主義為特征、以自然人為出發(fā)點(diǎn)的刑法教義學(xué),只是部分適合于解決有關(guān)人工智能的法律問題。刑法是人類為自己創(chuàng)造的。直到幾十年前,人工智能機(jī)器還沒有存在于立法者的想象和法學(xué)中。因此,人類的概念范疇一開始就欠缺一種直接的可轉(zhuǎn)用性。然而,如果可罰性與自然人實(shí)施的不法行為無關(guān),而與系統(tǒng)或算法實(shí)現(xiàn)的不法情況有關(guān),那么,具備人類意義上的意志這一要求,可能就得放棄。B20不同于德國法秩序的其他法秩序放棄了上述要求,其已認(rèn)識(shí)到企業(yè)的可罰性。據(jù)此,企業(yè)的可罰行為并不以人類的代理行為為基礎(chǔ),而是以其內(nèi)部結(jié)構(gòu)——企業(yè)內(nèi)部的組織和交流為基礎(chǔ)。B21人類的機(jī)關(guān)和企業(yè)的代理人實(shí)施的行為僅是其上一級(jí)交流過程的付諸實(shí)踐,因此,每個(gè)人自己都沒有實(shí)施行為,只有企業(yè)實(shí)施了行為。B22

當(dāng)前,關(guān)于智能代理的討論還有:就企業(yè)的行為能力而言,其自我動(dòng)力重新被提及,以使之能適應(yīng)相應(yīng)的算法程序。B23在檢驗(yàn)可罰性的前提時(shí),行為這一構(gòu)成要件要素與構(gòu)成要件結(jié)果之間具備因果關(guān)系和客觀歸責(zé)性。這樣一個(gè)后來導(dǎo)致結(jié)果發(fā)生的法所不容許的風(fēng)險(xiǎn),可能由于企業(yè)的交流結(jié)構(gòu)內(nèi)的錯(cuò)誤而被創(chuàng)設(shè),或者由于算法內(nèi)的錯(cuò)誤而被創(chuàng)設(shè)。該行為概念超越了自然人不法的情況,關(guān)于智能代理行為能力的觀點(diǎn)因贊同該行為概念而被駁倒。

(二)智能代理的罪責(zé)能力

智能代理必須由于行為或算法錯(cuò)誤而導(dǎo)致不法情況出現(xiàn),從而受到直接和間接的非難。其一定是具備罪責(zé)能力的。這種意義上的罪責(zé)能力的意思是,行為人能夠作出決定不去實(shí)施不法行為而實(shí)施合法行為,卻有意地不利用這種可能性。B24罪責(zé)能力的基本前提是意志自由。因?yàn)橹挥芯邆渥杂梢庵镜娜瞬盘幱谶@樣一個(gè)位置——在認(rèn)識(shí)和理解法律規(guī)范的情況下使其行為遵守或不遵守該規(guī)范。

1.意志自由是罪責(zé)能力的必要前提嗎?

這種意義上的意志自由當(dāng)然是無法證明其存在的。決定論的支持者在某種程度上甚至否定(至少是懷疑)意志自由在神經(jīng)科學(xué)上存在。B25因此,只有自由作出決定的經(jīng)歷是真實(shí)的,而導(dǎo)致作出決定的過程完全是注定的(被決定了的)。B26該決定是由遺傳易感性、教育和人的社會(huì)化導(dǎo)致的結(jié)果,是當(dāng)時(shí)的情緒情況、其他情況和諸多其他因素導(dǎo)致的結(jié)果。這些因素在細(xì)節(jié)上并不能完全被人們理解。下述相反的說法也是正確的:就像當(dāng)前人類的意志自由無法被積極地證明一樣,肯定不能認(rèn)為,這樣一種意志自由是存在的。

意志自由的這種現(xiàn)實(shí)存在應(yīng)當(dāng)是可罰性的必要前提,這在上述論斷的背景下顯得不合情理。這樣一個(gè)無法證明且由此不具備法的安定性之要素,何以決定是否判處刑罰?為了解決這個(gè)問題,對(duì)行為人的罪責(zé)問題而言,需要一個(gè)現(xiàn)實(shí)可行的解決方案。僅在以下基礎(chǔ)上才存在自由意志:自身有與人類相同的經(jīng)歷。如果我自己有自由意志,其他所有人也必定有自由意志。作為可罰性前提的罪責(zé)由此對(duì)負(fù)責(zé)性進(jìn)行了分配。之所以進(jìn)行這種分配,是因?yàn)橐褜?shí)施的不法行為在我們的社會(huì)體系內(nèi)引發(fā)了沖突。通過這種分配應(yīng)當(dāng)能解決此沖突。B27解決此沖突的社會(huì)需要是存在的。這是因?yàn)?,基于上述原因,如果沒有相應(yīng)的處罰,不法情況就可能繼續(xù)存在。

對(duì)罪責(zé)的這樣一種功能性的理解實(shí)現(xiàn)了對(duì)智能代理之負(fù)責(zé)性的分配。如果基于我們的社會(huì)體制,認(rèn)為算法具有意志自由,則與人類的不當(dāng)行為一樣,人工智能對(duì)法的違反易衍生出一種解決社會(huì)沖突的需要。對(duì)人類和機(jī)器而言,所作出的不法決定是否基于既定的生物或算法過程,或者基于在法律上有瑕疵的自由意志的形成,都是不重要的。

2.對(duì)智能機(jī)器人地位的思考

只有當(dāng)智能代理被視為法律意義上的人時(shí),這樣一種基于社會(huì)沖突的責(zé)任分配才會(huì)肯定成功。B28只有當(dāng)社會(huì)大眾這一對(duì)象不再被視為物,而是被視為法律主體,同時(shí)受到法律上的對(duì)待時(shí),刑罰才能產(chǎn)生一般預(yù)防的效果。

人工智能具備人類的身份,即人格化。這在20世紀(jì)60年代就發(fā)生了。計(jì)算機(jī)科學(xué)家約瑟夫·維森鮑姆開發(fā)的程序伊莉莎,通過對(duì)特定的、人類在電子對(duì)話中給出的關(guān)鍵詞和預(yù)設(shè)的詞組作出反應(yīng),模擬了一個(gè)心理療法上的治療。B29盡管伊莉莎的能力受到很大限制,但這場對(duì)話導(dǎo)致一些參與者認(rèn)為程序能理解它自身的情況。人工智能程序舉止的人格化由此也被稱為伊莉莎效應(yīng)。B30該效應(yīng)如果能在一個(gè)連圖靈測試都無法通過的程序中發(fā)生,對(duì)極為先進(jìn)的、外表更像人類(如有可能)的人工智能而言,其發(fā)生更是可想而知。這種社會(huì)存在被視為某種事物,其擁有一種超越物的地位。這是極有可能的。此外,這樣一種電子人地位能夠在法律上得到承認(rèn)。對(duì)無論如何都要采用電子人地位進(jìn)行討論而言,存在政策上的抵觸。例如,2017年歐盟議會(huì)要求關(guān)心民法問題。B31

電子人并非教義學(xué)上的空想,這說明人的概念在法律上存在變異性?;谛淌仑?zé)任能力,自然人與法人之間、成年人與未成年人之間的區(qū)別或者不同清楚地表明,有一種評(píng)價(jià)始終存在于不同的人的概念中:相關(guān)權(quán)利主體有何種社會(huì)、法律和道德地位?法秩序想要從中得出何種結(jié)論?B32人們已觀察到這種極其重要且將來愈加重要的地位、數(shù)字科技的無處不在性以及相關(guān)挑戰(zhàn)和法律問題。我的結(jié)論如下:無論是出于法律政策還是從刑罰目的理論層面考慮,電子人地位的采用都是有意義和必要的。

(三)智能代理的可罰性

最后也要反對(duì)以下論斷:電子人完全無法受到處罰。這里存在的疑問首先是,刑罰有何種特殊特性?其次是,對(duì)智能代理而言,刑罰能否適用?在這里,刑罰有三個(gè)特征:惡害性、社會(huì)倫理上的無價(jià)值評(píng)價(jià)性、否定性。

我們先來考察一下惡害施加??梢酝ㄟ^刑罰對(duì)行為人產(chǎn)生一種效果,行為人將該效果感知為不利的。B33該效果看上去是無害的,事實(shí)上并非如此,因?yàn)閼椃ㄉ系谋U希ㄈ缧袆?dòng)自由和個(gè)性的發(fā)揮)無論如何都受到了限制。在此,要舉一個(gè)教科書上的案例——無家可歸者案。該案中的無家可歸者打算在冬天來臨之前讓自己受到關(guān)押,以便在有暖氣的監(jiān)獄里度過這個(gè)寒冷的季節(jié)。B34這種惡害(即感受到的惡害)如果是罰金刑或者罰款,是否要進(jìn)行金額上的計(jì)算,當(dāng)然可能讓相關(guān)者不太感興趣。B35這同樣適用于自由刑和(作為保安處分中警察拘留的)保安監(jiān)禁。在所有的情況下,同樣的憲法保障都受到了限制。惡害施加并非刑罰的特殊特性。B36

與惡害施加一樣,社會(huì)倫理上的無價(jià)值評(píng)價(jià)性也不是刑罰的特殊特性。B37行為人違反刑法、懲戒法和秩序違反法導(dǎo)致國家對(duì)其進(jìn)行非難——行為人實(shí)施了不法舉止。對(duì)違規(guī)停車這一舉止開具罰單所表達(dá)出來的是——該舉止與整體社會(huì)中以法秩序?yàn)樾问降膬r(jià)值共識(shí)相矛盾。B38此外,無法確定的是,社會(huì)倫理應(yīng)在何種程度上充當(dāng)刑罰的特征。它在概念上的可選擇性是很差的。B39最終產(chǎn)生了憲法上的如下考慮:通過這種價(jià)值判斷去明確表明刑罰的特征。對(duì)刑罰而言,行為人降低了道德倫理的價(jià)值是較為重要的。如果有人想要這樣做,國家實(shí)施的欺凌就會(huì)利用人性尊嚴(yán)保障的個(gè)人效力要求,降臨到行為人身上。B40。

由此,僅剩下否定性成為刑罰的重要特征,它直接連接刑罰與行為人的罪責(zé)。B41個(gè)人的可非難性對(duì)于國家判處多余的刑罰而言,恰恰不是其前提。該可非難性表明了對(duì)刑法上的重要的舉止更高程度的否定,也表明了該舉止導(dǎo)致的刑罰。就像剛才所說的,如果人工智能在負(fù)有責(zé)任(源自我們的社會(huì)現(xiàn)實(shí))的意義上是有罪責(zé)能力的,則刑罰也能發(fā)揮對(duì)人工智能的否定性。

然而,對(duì)實(shí)現(xiàn)一般預(yù)防目的而言,僅確定可罰性是不夠的。必須向作為刑罰對(duì)象的社會(huì)大眾明確說明已實(shí)施的不法行為之可罰性,因此,需要通過盡可能適當(dāng)?shù)牧啃?,?duì)罪責(zé)非難進(jìn)行量化。在此,可以考慮進(jìn)行公益勞動(dòng)、對(duì)機(jī)器人的身體進(jìn)行干預(yù),或者作為最后手段去關(guān)閉機(jī)器人。B42此外,還可以通過執(zhí)行算法所違反規(guī)范的內(nèi)容而進(jìn)行重新編程。B43只要幾個(gè)智能代理互相連接并由此全面執(zhí)行該內(nèi)容,就會(huì)產(chǎn)生最大限度的特殊預(yù)防效果,如果可能的話,還會(huì)產(chǎn)生最大限度的一般預(yù)防效果。人工智能的可罰性也將成為可能。

三、結(jié)論

第四次工業(yè)革命方興未艾。相關(guān)學(xué)科要積極參與這場革命以及相互交融,否則,這些學(xué)科將落在后面或完全止步不前?;诖朔N原因,法秩序必須對(duì)隨之而來的疑問和難題準(zhǔn)備好答案。人工智能可罰性的采用由此是長期的,并且是必然的。反對(duì)該可罰性的觀點(diǎn)可能遭到教義學(xué)上有說服力的反對(duì),通過這一方式,在人工智能領(lǐng)域,一種擴(kuò)展性的、超越當(dāng)今以自然人為出發(fā)點(diǎn)的刑法教義學(xué)的觀點(diǎn),會(huì)在刑法的概念性上得到認(rèn)可。該觀點(diǎn)涉及行為能力,(尤其是)罪責(zé)能力,以及與罪責(zé)能力相關(guān)的刑罰論。

即使科技的進(jìn)步在規(guī)模和速度方面或許現(xiàn)在有點(diǎn)令人驚恐,這可能是無法阻擋的,也完全不應(yīng)該去阻擋這種進(jìn)步。如果及時(shí)識(shí)別法律和技術(shù)上的風(fēng)險(xiǎn)并予以最小化或完全消除,則科技進(jìn)步的優(yōu)點(diǎn)無論如何都能超越這些風(fēng)險(xiǎn)。因此,“技術(shù)阻礙者”至少不會(huì)來自法學(xué)領(lǐng)域。在這方面,我想以德國皇帝威廉二世的一句名言作為結(jié)尾。他在20世紀(jì)初說:“我相信馬。汽車是一個(gè)轉(zhuǎn)瞬即逝的現(xiàn)象?!?/p>

(譯者注:本文譯自德語論文“Zur Strafbarkeit von intelligenten Robotern”,譯者已獲得著者的中文翻譯和發(fā)表授權(quán),本文內(nèi)容系全球首發(fā)。)

注釋

①Smith. New York Times v. 22.6.2016, abrufbar unter https://www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-against-using-data-to-foretell-defendants-futures.html?module=inline (4.2.2020); FAZ v. 11.6.2019, abrufbar unter https://www.faz.net/aktuell/rhein-main/algorithmen-werden-in-amerika-bei-gerichtsprozessen-genutzt-16230589.html (4.2.2020).

②Vgl. Brutigam/Klindt. NJW 2015, 1137 (1138 f.).

③Styczynski/Rudion/Naumann. Einführung in Expertensyste-me, 2017, S. 132 ff.

④Zu den verschiedenen Prozessen beim Maschinenlernen Grz/Nebel. Künstliche Intelligenz, 2003, S. 108 ff.; Gopnik. SdW kompakt v. 1.10.2018, S. 15 ff.; Wolfangel. SdW kom-pakt v. 17.20.2016.

⑤Hilgendorf. ZStW 130 (2018), 674 (675).

⑥Vgl. Kirchschlger. AJP/PJA 2017, 240 (241 f.).

⑦Dazu Gless/Weigend. ZStW 126 (2014), 561 (581); vgl. auch Markwalder/Simmler, AJP/PJA 2017, 171 (177).

⑧Gless/Weigend. ZStW 126 (2014), 561 (583 f.); krit. Gless/ Janal, JR 2016, 561 (566).

⑨Borges. NJW 2018, 977 (978).

⑩Sternberg-Lieben. in: Hilgendorf (Hrsg.), Robotik im Kon-text von Recht und Moral, Robotik und Recht, Bd. 3, 2013, S. 119.

B11Brüning. Das Verhltnis des Strafrechts zum Disziplinar-recht, 2017, S. 186 f.

B12Vgl. Meier. Strafrechtliche Sanktionen, 4. Aufl. 2015, S. 36.

B13Brüning. in: Gesk/Jing (Hrsg.), Digitalisierung und Straf-recht in Deutschland und China, noch unverffentlichtes Manuskript des Vortrags vom 22.11.2018 an der Universitt Osnabrück.

B14B15B33B34Meier (Fn. 12), S. 18 ff., 21 f., 16, 16.

B16Beck. JR 2009, 225 (227 f.).

B17②Brüning (Fn. 13); Seher. in: Gless/Seelmann (Hrsg.), Intel-ligente Agenten und das Recht, Robotik und Recht Bd. 9, 2016, S. 46 f.

B18Seher (Fn. 17), S. 48 ff.

B19Roxin. Strafrecht, Allgemeiner Teil, Bd. 1, 4. Aufl. 2006, § 8 Rn. 10 ff.; Heinrich. Strafrecht Allgemeiner Teil, 5. Aufl. 2016, Rn. 96 ff.

B20Brüning (Fn. 13).

B21Ortmann. NZWiSt 2017, 241 f.

B22Dannecker/Dannecker. NZWiSt 2016, 162 (164).

B23Vgl. Teubner. AcP 218 (2018), 155 (157 ff., 165 f.).

B24Roxin (Fn. 19), § 19 Rn. 1 ff.; BGHSt 2, 194 (200); 18, 87 (94).

B25Vgl. Marlie. ZJS 2008, 41 (44 in Fn. 47-49).

B26Vgl. Marlie. ZJS 2008, 41 (44 in Fn. 52).

B27Markwalder/Simmler. AJP/PJA 2017, 171 (180); Gless/ Weigend. ZStW (126), 2014, 561 (574 f.); vgl. auch Roxin (Fn. 19), § 16 Rn. 39 ff.

B28Seher (Fn. 17), S. 58; Zur Frage, ob eine Statusdebatte überhaupt sinnvoll ist, Beck, in: Hilgendorf/Günther (Hrsg.), Robotik und Gesetzgebung, Robotik und Recht, Bd. 2, 2013, S. 239.

B29Siehe sterreichische Akademie der Wissenschaften v. 1.12.2017, abrufbar unter https://www.oeaw.ac.at/detail/news/gefangen-im-eliza-effekt/ (4.2.2020).

B30Vgl. dazu Gless/Weigend. ZStW 126 (2014), 561 (565); Herberger. NJW 2018, 2825 (2826).

B31Entschlieung des Europischen Parlaments von 16. Feb-ruar 2017 mit Empfehlungen an die Kommission zu zivil-rechtlichen Regelungen im Bereich Robotik (2015/2103 [INL]), abrufbar unter http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//DE (4.2.2020).

B32Teubner. AcP 218 (2018), 155 (168 f.); Vgl. zum Perso-nenbegriff im Zoll- und Mehrwertsteuerrecht Scheller/ Zaczek, UR 2015, 937.

B35Vgl. Roxin. in: Hassemer/Kempf/Drr/Moccia (Hrsg.), In dubio pro libertate, Festschrift für Klaus Volk zum 65. Ge-burtstag, 2009, S. 602.

B36A.A. Meier (Fn. 12), S. 16.

B37B38Brüning (Fn. 11), S. 547 ff., 549.

B39Roxin (Fn. 35), S. 603.

B40Brüning (Fn. 11), S. 543 f. m.w.N.

B41Brüning (Fn. 11), S. 547 f.

B42Gless. GA 2017, 324 (328).

B43Gless/Weigend. ZStW 126 (2014), 561 (589).

責(zé)任編輯:鄧?林

猜你喜歡
人工智能機(jī)器人算法
基于MapReduce的改進(jìn)Eclat算法
Travellng thg World Full—time for Rree
進(jìn)位加法的兩種算法
人工智能與就業(yè)
一種改進(jìn)的整周模糊度去相關(guān)算法